🛡️Безопасность ИИ
AI Alignment: согласование целей ИИ с человеческими ценностями (MIRI, Anthropic). RLHF как частичное решение. Риски: jailbreaks (обход ограничений), prompt injection, adversarial examples. Регулирование: EU AI Act (2024), US Executive Order (2023). Interpretability: понимание решений модели (SHAP, attention visualization).
📖6 мин чтения📊Уровень 6🗺️2 подтем📅19 февраля 2026 г.
🗺️ Mind Map
Загрузка карты...
❓Часто задаваемые вопросы
Безопасность ИИ — это тема о правилах, механизмах и практиках в своей области. Она помогает понять, как принимаются решения и к каким последствиям они приводят.