Распределение вероятностей — функция, описывающая, с какой вероятностью случайная величина принимает то или иное значение. Для дискретных величин это таблица вероятностей P(X=x), для непрерывных — функция плотности f(x). Распределения классифицированы в XIX-XX веках, когда математики обнаружили: многие явления (от ошибок измерений до числа звонков в колл-центр) подчиняются одним и тем же законам.
Представьте, что вы бросаете монету 10 раз и считаете орлы. Результат подчиняется биномиальному распределению. Если измеряете рост 1000 людей — нормальному. Если ждёте автобус — равномерному. Распределение — это "паспорт" случайной величины, который определяет её поведение.
Равномерное распределение
Равномерное распределение U(a, b) — все значения в интервале [a, b] равновероятны. Плотность f(x) = 1/(b-a) при a ≤ x ≤ b, иначе 0. Математическое ожидание E(X) = (a+b)/2, дисперсия D(X) = (b-a)²/12.
Примеры: Время прихода автобуса (если интервал движения 15 минут), угол поворота рулетки, генератор псевдослучайных чисел (даёт U(0, 1)).
Нормальное распределение (Гаусса)
Нормальное распределение N(μ, σ²) — самое важное в статистике. Плотность f(x) = (1/(σ√(2π))) × exp(-(x-μ)²/(2σ²)), где μ — среднее, σ — стандартное отклонение. График — симметричная колоколообразная кривая.
Карл Фридрих Гаусс в 1809 году вывел распределение, анализируя ошибки астрономических наблюдений. Центральная предельная теорема (Лаплас, 1812) объясняет универсальность: сумма большого числа независимых случайных величин приближается к нормальному распределению, даже если слагаемые имеют другое распределение.
Правило трёх сигм: 68% значений лежат в интервале (μ - σ, μ + σ), 95% — в (μ - 2σ, μ + 2σ), 99,7% — в (μ - 3σ, μ + 3σ). Это используется в контроле качества: если измерение выходит за 3σ, это сигнал о браке.
Примеры: Рост людей (μ = 170 см, σ = 10 см), IQ (μ = 100, σ = 15), ошибки измерений приборов.
Экспоненциальное распределение
Экспоненциальное распределение Exp(λ) описывает время до наступления события в пуассоновском процессе. Плотность f(t) = λ × exp(-λt) при t ≥ 0. Математическое ожидание E(T) = 1/λ, дисперсия D(T) = 1/λ².
Свойство отсутствия памяти: P(T > t + s | T > t) = P(T > s). Если лампочка проработала 100 часов, вероятность протянуть ещё 50 часов такая же, как для новой лампочки. Это уникальное свойство экспоненциального распределения среди непрерывных.
Примеры: Время безотказной работы электроники, интервалы между звонками в колл-центр, период полураспада радиоактивных атомов.
Биномиальное распределение
Биномиальное распределение Bin(n, p) — число успехов в n независимых испытаниях с вероятностью успеха p. Вероятность k успехов: P(X=k) = C(n, k) × p^k × (1-p)^(n-k), где C(n, k) = n! / (k!(n-k)!) — биномиальный коэффициент.
Математическое ожидание E(X) = np, дисперсия D(X) = np(1-p). При больших n и p ≈ 0,5 биномиальное распределение приближается к нормальному N(np, np(1-p)) — это следствие центральной предельной теоремы.
Примеры: Число орлов при 100 бросках монеты (n=100, p=0,5), процент брака в партии из 1000 изделий (если вероятность брака 2%), число попаданий в цель при 50 выстрелах.
Распределение Пуассона
Распределение Пуассона Pois(λ) — число событий за фиксированный интервал времени, если события происходят с постоянной средней интенсивностью λ и независимо друг от друга. Вероятность k событий: P(X=k) = (λ^k / k!) × exp(-λ).
Симеон Дени Пуассон ввёл распределение в 1837 году, изучая судебную статистику. Математическое ожидание E(X) = λ, дисперсия D(X) = λ (среднее равно дисперсии — характерная черта Пуассона).
Примеры: Число звонков в службу 112 за час (λ = 20), число опечаток на странице книги (λ = 0,5), число радиоактивных распадов за секунду (λ = 1000).
Связь с биномиальным: Если n → ∞, p → 0, но np → λ, то Bin(n, p) → Pois(λ). Пуассон — предельный случай биномиального для редких событий.
Геометрическое распределение
Геометрическое распределение Geom(p) — число испытаний до первого успеха в схеме Бернулли. Вероятность первого успеха на k-м испытании: P(X=k) = (1-p)^(k-1) × p. Математическое ожидание E(X) = 1/p, дисперсия D(X) = (1-p)/p².
Свойство отсутствия памяти: Дискретный аналог экспоненциального распределения. Если первые 10 попыток неудачны, вероятность успеха на следующих 5 попытках такая же, как изначально.
Примеры: Число бросков монеты до первого орла, число попыток до успешного соединения с сервером, число выстрелов до первого попадания.
Применение в науке и технике
Контроль качества: Нормальное распределение — основа Six Sigma (процент брака < 0,00034%). Если параметр выходит за 6σ от среднего, производство останавливают.
Финансы: Логнормальное распределение (если ln(X) ~ N(μ, σ²)) моделирует цены акций. Модель Блэка-Шоулза (1973) использует логнормальное распределение для оценки опционов.
Теория массового обслуживания: Число клиентов в очереди — Пуассон, время обслуживания — экспоненциальное. Формула Эрланга (1909) вычисляет необходимое число операторов колл-центра по λ (интенсивность звонков).
Машинное обучение: Байесовские методы предполагают априорные распределения параметров (например, нормальное для весов нейросети). Гауссовские процессы используют многомерное нормальное распределение для регрессии.
Проверка распределения
Тест Колмогорова-Смирнова (1933) сравнивает эмпирическую функцию распределения с теоретической. Если максимальное расхождение мало, гипотеза о распределении принимается.
Q-Q plot (квантиль-квантиль график) — визуальный метод: откладывают квантили выборки против квантилей теоретического распределения. Если точки лежат на прямой — распределения совпадают.