📈Распределения

Стандартные распределения. Дискретные: Бернулли (0/1), биномиальное (n испытаний), Пуассона (редкие события). Непрерывные: равномерное, экспоненциальное (время ожидания), нормальное (Гаусса). Центральная предельная теорема: сумма → нормальное. Z-score: (X - μ)/σ.

📖7 мин чтения📊Уровень 5🗺️6 подтем📅19 февраля 2026 г.

🗺️ Mind Map

Загрузка карты...

Распределение вероятностей — функция, описывающая, с какой вероятностью случайная величина принимает то или иное значение. Для дискретных величин это таблица вероятностей P(X=x), для непрерывных — функция плотности f(x). Распределения классифицированы в XIX-XX веках, когда математики обнаружили: многие явления (от ошибок измерений до числа звонков в колл-центр) подчиняются одним и тем же законам.

Представьте, что вы бросаете монету 10 раз и считаете орлы. Результат подчиняется биномиальному распределению. Если измеряете рост 1000 людей — нормальному. Если ждёте автобус — равномерному. Распределение — это "паспорт" случайной величины, который определяет её поведение.

Равномерное распределение

Равномерное распределение U(a, b) — все значения в интервале [a, b] равновероятны. Плотность f(x) = 1/(b-a) при a ≤ x ≤ b, иначе 0. Математическое ожидание E(X) = (a+b)/2, дисперсия D(X) = (b-a)²/12.

Примеры: Время прихода автобуса (если интервал движения 15 минут), угол поворота рулетки, генератор псевдослучайных чисел (даёт U(0, 1)).

Нормальное распределение (Гаусса)

Нормальное распределение N(μ, σ²) — самое важное в статистике. Плотность f(x) = (1/(σ√(2π))) × exp(-(x-μ)²/(2σ²)), где μ — среднее, σ — стандартное отклонение. График — симметричная колоколообразная кривая.

Карл Фридрих Гаусс в 1809 году вывел распределение, анализируя ошибки астрономических наблюдений. Центральная предельная теорема (Лаплас, 1812) объясняет универсальность: сумма большого числа независимых случайных величин приближается к нормальному распределению, даже если слагаемые имеют другое распределение.

Правило трёх сигм: 68% значений лежат в интервале (μ - σ, μ + σ), 95% — в (μ - 2σ, μ + 2σ), 99,7% — в (μ - 3σ, μ + 3σ). Это используется в контроле качества: если измерение выходит за 3σ, это сигнал о браке.

Примеры: Рост людей (μ = 170 см, σ = 10 см), IQ (μ = 100, σ = 15), ошибки измерений приборов.

Экспоненциальное распределение

Экспоненциальное распределение Exp(λ) описывает время до наступления события в пуассоновском процессе. Плотность f(t) = λ × exp(-λt) при t ≥ 0. Математическое ожидание E(T) = 1/λ, дисперсия D(T) = 1/λ².

Свойство отсутствия памяти: P(T > t + s | T > t) = P(T > s). Если лампочка проработала 100 часов, вероятность протянуть ещё 50 часов такая же, как для новой лампочки. Это уникальное свойство экспоненциального распределения среди непрерывных.

Примеры: Время безотказной работы электроники, интервалы между звонками в колл-центр, период полураспада радиоактивных атомов.

Биномиальное распределение

Биномиальное распределение Bin(n, p) — число успехов в n независимых испытаниях с вероятностью успеха p. Вероятность k успехов: P(X=k) = C(n, k) × p^k × (1-p)^(n-k), где C(n, k) = n! / (k!(n-k)!) — биномиальный коэффициент.

Математическое ожидание E(X) = np, дисперсия D(X) = np(1-p). При больших n и p ≈ 0,5 биномиальное распределение приближается к нормальному N(np, np(1-p)) — это следствие центральной предельной теоремы.

Примеры: Число орлов при 100 бросках монеты (n=100, p=0,5), процент брака в партии из 1000 изделий (если вероятность брака 2%), число попаданий в цель при 50 выстрелах.

Распределение Пуассона

Распределение Пуассона Pois(λ) — число событий за фиксированный интервал времени, если события происходят с постоянной средней интенсивностью λ и независимо друг от друга. Вероятность k событий: P(X=k) = (λ^k / k!) × exp(-λ).

Симеон Дени Пуассон ввёл распределение в 1837 году, изучая судебную статистику. Математическое ожидание E(X) = λ, дисперсия D(X) = λ (среднее равно дисперсии — характерная черта Пуассона).

Примеры: Число звонков в службу 112 за час (λ = 20), число опечаток на странице книги (λ = 0,5), число радиоактивных распадов за секунду (λ = 1000).

Связь с биномиальным: Если n → ∞, p → 0, но np → λ, то Bin(n, p) → Pois(λ). Пуассон — предельный случай биномиального для редких событий.

Геометрическое распределение

Геометрическое распределение Geom(p) — число испытаний до первого успеха в схеме Бернулли. Вероятность первого успеха на k-м испытании: P(X=k) = (1-p)^(k-1) × p. Математическое ожидание E(X) = 1/p, дисперсия D(X) = (1-p)/p².

Свойство отсутствия памяти: Дискретный аналог экспоненциального распределения. Если первые 10 попыток неудачны, вероятность успеха на следующих 5 попытках такая же, как изначально.

Примеры: Число бросков монеты до первого орла, число попыток до успешного соединения с сервером, число выстрелов до первого попадания.

Применение в науке и технике

Контроль качества: Нормальное распределение — основа Six Sigma (процент брака < 0,00034%). Если параметр выходит за 6σ от среднего, производство останавливают.

Финансы: Логнормальное распределение (если ln(X) ~ N(μ, σ²)) моделирует цены акций. Модель Блэка-Шоулза (1973) использует логнормальное распределение для оценки опционов.

Теория массового обслуживания: Число клиентов в очереди — Пуассон, время обслуживания — экспоненциальное. Формула Эрланга (1909) вычисляет необходимое число операторов колл-центра по λ (интенсивность звонков).

Машинное обучение: Байесовские методы предполагают априорные распределения параметров (например, нормальное для весов нейросети). Гауссовские процессы используют многомерное нормальное распределение для регрессии.

Проверка распределения

Тест Колмогорова-Смирнова (1933) сравнивает эмпирическую функцию распределения с теоретической. Если максимальное расхождение мало, гипотеза о распределении принимается.

Q-Q plot (квантиль-квантиль график) — визуальный метод: откладывают квантили выборки против квантилей теоретического распределения. Если точки лежат на прямой — распределения совпадают.

Основные распределения вероятностей

Сравнение пяти ключевых распределений

РаспределениеТипПараметрыE(X)Примеры
Равномерное U(a,b)Непрерывноеa, b (границы)(a+b)/2Время прихода автобуса
Нормальное N(μ,σ²)Непрерывноеμ (среднее), σ (откл.)μРост людей, IQ, ошибки
Экспоненциальное Exp(λ)Непрерывноеλ (интенсивность)1/λВремя до отказа, звонки
Биномиальное Bin(n,p)Дискретноеn (испытания), p (успех)npОрлы в 100 бросках
Пуассона Pois(λ)Дискретноеλ (среднее число событий)λЗвонки в час, опечатки

Сравнительная таблица: анализ различий

👤

Карл Фридрих Гаусс

Нормальное распределение (1809)

👤

Симеон Дени Пуассон

Распределение Пуассона (1837)

👤

Пьер-Симон Лаплас

Центральная предельная теорема (1812)

👤

Андрей Колмогоров

Тест Колмогорова-Смирнова (1933)

4 личности

Часто задаваемые вопросы

Центральная предельная теорема: сумма многих независимых факторов (гены, питание, среда → рост человека) даёт нормальное распределение. Это не совпадение, а математический закон. Даже если факторы не нормальны, их сумма приближается к Гауссу.