🤖GPT и декодеры
Generative Pre-trained Transformer (OpenAI 2018). Autoregressive: предсказание следующего токена. GPT-2 (2019, 1.5B), GPT-3 (2020, 175B), GPT-4 (2023, ~1.8T?). Causal masking: нельзя смотреть "вперёд". Few-shot learning, emergent abilities. Основа ChatGPT.
📖6 мин чтения📊Уровень 7🗺️1 подтем📅19 февраля 2026 г.
🗺️ Mind Map
Загрузка карты...
❓Часто задаваемые вопросы
GPT и декодеры — это тема о правилах, механизмах и практиках в своей области. Она помогает понять, как принимаются решения и к каким последствиям они приводят.