🔀Seq2Seq и Attention
Sutskever et al. (2014): encoder-decoder для машинного перевода. Проблема: сжатие всей входной последовательности в один вектор. Attention (Bahdanau 2014): decoder "смотрит" на разные части входа. Основа для Transformer.
📖6 мин чтения📊Уровень 7📅19 февраля 2026 г.
🗺️ Mind Map
Загрузка карты...
❓Часто задаваемые вопросы
Seq2Seq и Attention — это тема о правилах, механизмах и практиках в своей области. Она помогает понять, как принимаются решения и к каким последствиям они приводят.