🎯Проблема выравнивания (Alignment)
Как убедиться, что ИИ делает то, что мы хотим? Outer alignment: цель модели = наши намерения. Inner alignment: learned policy = trained objective. Mesa-optimization: модель может развить свои подцели. Исследования: MIRI, Anthropic (Constitutional AI), DeepMind. Stuart Russell: "human-compatible AI".
📖6 мин чтения📊Уровень 7🗺️1 подтем📅19 февраля 2026 г.
🗺️ Mind Map
Загрузка карты...
❓Часто задаваемые вопросы
Проблема выравнивания (Alignment) — это тема о правилах, механизмах и практиках в своей области. Она помогает понять, как принимаются решения и к каким последствиям они приводят.