🎲Основы теории вероятностей

Вероятность события: P(A) ∈ [0, 1]. Аксиомы Колмогорова (1933). Классическое определение: P = благоприятные/все исходы. Условная вероятность: P(A|B) = P(A∩B)/P(B). Независимость: P(A∩B) = P(A)·P(B). Формула полной вероятности. Теорема Байеса: P(A|B) = P(B|A)·P(A)/P(B).

📖7 мин чтения📊Уровень 5🗺️4 подтем📅19 февраля 2026 г.

🗺️ Mind Map

Загрузка карты...

Теория вероятностей — раздел математики, изучающий закономерности случайных событий. Основы теории заложили Блез Паскаль и Пьер де Ферма в 1654 году, решая задачу о справедливом разделе ставки в азартной игре. Современная аксиоматика разработана Андреем Колмогоровым в 1933 году.

Представьте, что вы бросаете монету. Теория вероятностей не предсказывает результат конкретного броска, но гарантирует: из 1000 бросков примерно 500 будут орлом. Это как погода: метеоролог не знает, пойдёт ли дождь завтра в 15:00, но может сказать "вероятность дождя 70%" на основе тысяч похожих дней.

Аксиомы Колмогорова

Колмогоров в 1933 году построил теорию вероятностей на трёх аксиомах, превратив её из эмпирической области в строгую математическую дисциплину.

Аксиома 1 (неотрицательность): Вероятность любого события A — число от 0 до 1: 0 ≤ P(A) ≤ 1.

Аксиома 2 (достоверность): Вероятность достоверного события (которое обязательно произойдёт) равна 1: P(Ω) = 1, где Ω — пространство элементарных исходов.

Аксиома 3 (аддитивность): Вероятность объединения несовместных событий равна сумме их вероятностей: P(A ∪ B) = P(A) + P(B), если A и B не пересекаются.

Классическое определение вероятности

Если все исходы равновозможны, вероятность события A вычисляется как отношение числа благоприятных исходов к общему числу исходов: P(A) = m / n.

Пример: Бросок игральной кости. Вероятность выпадения чётного числа: благоприятных исходов 3 (2, 4, 6), всего исходов 6. P(чётное) = 3/6 = 0,5.

Классическое определение работает только для конечных пространств с равновозможными исходами. Для бесконечных пространств (например, выбор точки на отрезке) используют геометрическую вероятность.

Условная вероятность и независимость

Условная вероятность P(A|B) — вероятность события A при условии, что событие B уже произошло: P(A|B) = P(A ∩ B) / P(B).

Пример: В колоде 36 карт, 9 пик. Вытащили карту — она чёрная. Какова вероятность, что это пика? P(пика|чёрная) = P(пика и чёрная) / P(чёрная) = (9/36) / (18/36) = 1/2.

Независимые события: A и B независимы, если P(A ∩ B) = P(A) × P(B). Для независимых событий P(A|B) = P(A) — знание о B не меняет вероятность A.

Теорема Байеса

Томас Байес в 1763 году (опубликовано посмертно) доказал формулу, позволяющую пересчитать вероятности при получении новой информации: P(A|B) = P(B|A) × P(A) / P(B).

Применение: Медицинская диагностика. Тест на болезнь даёт положительный результат у 99% больных и у 5% здоровых. Болеют 1% населения. Если тест положительный, какова вероятность болезни?

P(болезнь|тест+) = P(тест+|болезнь) × P(болезнь) / P(тест+) = 0,99 × 0,01 / (0,99 × 0,01 + 0,05 × 0,99) ≈ 0,17. Только 17% — ложноположительных результатов 83%!

Закон больших чисел

Якоб Бернулли в 1713 году доказал: если эксперимент повторить много раз, частота события стремится к его вероятности. Например, при 10 бросках монеты орёл может выпасть 7 раз (70%), но при 10 000 бросков частота приблизится к 50%.

Закон объясняет, почему казино всегда выигрывает: в рулетке шанс казино 2,7% (зеро), но за миллионы ставок казино гарантированно получит прибыль. Отдельный игрок может выиграть, но в среднем все игроки проиграют.

Центральная предельная теорема

Пьер-Симон Лаплас в 1812 году доказал: сумма большого числа независимых случайных величин (с любым распределением) приближается к нормальному распределению. Это объясняет, почему рост людей, ошибки измерений, результаты экзаменов подчиняются нормальному закону.

Применение в науке и технике

Квантовая механика: Волновая функция ψ определяет вероятность обнаружить частицу в точке: P(x) = |ψ(x)|². Вероятностная природа микромира — фундаментальное свойство, а не недостаток знаний.

Машинное обучение: Алгоритмы классификации (спам-фильтры, распознавание лиц) используют теорему Байеса для расчёта вероятностей принадлежности объекта к классу.

Финансы: Модель Блэка-Шоулза (Нобелевская премия 1997) оценивает цену опционов через нормальное распределение будущих цен акций. Риск-менеджмент банков основан на вычислении VaR (Value at Risk) — максимальных потерь с заданной вероятностью.

Парадоксы теории вероятностей

Парадокс Монти Холла: В игре три двери, за одной приз. Вы выбрали дверь 1. Ведущий (знающий, где приз) открывает дверь 3 — там пусто. Стоит ли сменить выбор на дверь 2? Ответ: да, вероятность выигрыша увеличится с 1/3 до 2/3.

Парадокс дней рождения: В группе из 23 человек вероятность совпадения дня рождения у двоих — 50%. Это кажется неожиданным, но пар в группе 253 (23 × 22 / 2), а не 23.

Три аксиомы Колмогорова

Фундаментальные свойства вероятности

АксиомаФормулаСмысл
Неотрицательность0 ≤ P(A) ≤ 1Вероятность — число от 0 до 1
ДостоверностьP(Ω) = 1Что-то обязательно произойдёт
АддитивностьP(A ∪ B) = P(A) + P(B)Для несовместных событий

Технические характеристики

👤

Андрей Колмогоров

Аксиоматика теории вероятностей (1933)

👤

Блез Паскаль

Основатель теории (1654, задача о разделе ставки)

👤

Томас Байес

Теорема Байеса (1763)

👤

Якоб Бернулли

Закон больших чисел (1713)

4 личности

Часто задаваемые вопросы

Теория вероятностей выводит свойства случайных событий из модели (например, честная монета → 50% орла). Статистика делает обратное: по наблюдениям (орёл выпал 520 раз из 1000) оценивает параметры модели.