Теория вероятностей

Математическая наука о случайных событиях. Основана Паскалем и Ферма (1654). Включает случайные величины, распределения, закон больших чисел. Основа статистики и машинного обучения.

📖6 мин чтения📊Уровень 4🗺️3 подтем📅19 февраля 2026 г.

🗺️ Mind Map

Загрузка карты...

Наука, рождённая из азарта

В 1654 году шевалье де Мере задал Блезу Паскалю задачу: два игрока прервали партию, один ведёт 2:1 из трёх нужных побед. Как справедливо разделить ставку? Паскаль написал Пьеру Ферма, и их переписка стала точкой отсчёта теории вероятностей. Решение: подсчитать все возможные исходы оставшихся партий и распределить ставку пропорционально шансам.

Якоб Бернулли в «Ars Conjectandi» (1713, посмертно) доказал закон больших чисел: чем больше бросков монеты, тем ближе доля орлов к 50%. Абрахам де Муавр (1733) и Пьер-Симон Лаплас (1812) обнаружили, что отклонения от среднего следуют кривой в форме колокола — будущему нормальному распределению.

Аксиоматика Колмогорова

До XX века теория вероятностей оставалась набором приёмов без строгого фундамента. Андрей Колмогоров в 1933 году опубликовал «Grundbegriffe der Wahrscheinlichkeitsrechnung» — 62 страницы, задавшие три аксиомы: вероятность неотрицательна, вероятность всего пространства равна 1, вероятность объединения несовместных событий равна сумме вероятностей. Из этих трёх аксиом выводится вся теория.

Ключевые теоремы

Закон больших чисел (Бернулли, 1713; усиленная версия — Колмогоров, 1930): среднее большого числа независимых одинаковых экспериментов сходится к математическому ожиданию. Казино зарабатывает не на одной ставке (результат случаен), а на миллионах — среднее стабилизируется.

Центральная предельная теорема (ЦПТ): сумма большого числа независимых случайных величин приближается к нормальному распределению, каким бы ни было исходное распределение. Рост людей, погрешности измерений, результаты IQ-тестов — всё подчиняется «колоколу», потому что складывается из множества мелких случайных факторов.

Формула Байеса (Томас Байес, 1763, посмертно): позволяет обновлять вероятность гипотезы при получении новых данных. P(H|D) = P(D|H) · P(H) / P(D). Врач начинает с базовой вероятности болезни (1%), получает положительный тест (чувствительность 95%) и пересчитывает: реальная вероятность болезни оказывается ~16%, а не 95%. Без формулы Байеса этот результат контринтуитивен.

Два подхода к вероятности

Частотный (Фишер, Нейман, Пирсон). Вероятность — предел частоты события при бесконечном повторении. Вероятность орла = 50%, потому что в миллионе бросков орёл выпадет ≈500 000 раз. Подход не может говорить о вероятности единичных событий: «вероятность, что динозавры вымрут от астероида» бессмысленна — событие произошло один раз.

Байесовский (Байес, Лаплас, Джейнс). Вероятность — степень уверенности субъекта. «Вероятность 70%, что завтра будет дождь» означает: на основе имеющейся информации я на 70% уверен. Можно обновлять при новых данных. Подход доминирует в машинном обучении: нейросеть выдаёт не «да/нет», а вероятность каждого класса.

Применение

Страхование — актуарные расчёты тарифов по частотам ДТП, болезней, стихийных бедствий (с XVII века). Квантовая механика — волновая функция задаёт вероятность обнаружить частицу в точке (Борн, 1926). Машинное обучение — классификация, генеративные модели, байесовская оптимизация гиперпараметров. Финансы — модель Блэка-Шоулза для ценообразования опционов (1973, Нобелевская премия 1997). Генетика — вероятность наследования признаков по законам Менделя.

Часто задаваемые вопросы

Частотная — предел частоты при бесконечном повторении (объективная). Байесовская — степень уверенности, обновляемая при новых данных (субъективная). Байесовский подход применим к единичным событиям, частотный — нет.