Main menu

Теорема Байеса в теории вероятностей

Теорема Байеса P(A|B) = P(B|A)P(A)/P(B) позволяет корректировать вероятности на основе новой информации. Формулировка Томаса Байеса (1763) лежит в основе байесовской статистики и машинного обучения. Она связывает априорные вероятности с данными для получения апостериорных оценок.

Диаграмма теоремы Байеса

В медицинском тесте с чувствительностью 95% и специфичностью 90% при распространенности болезни 0.5% положительный результат дает постериорную вероятность ~4.6%. Это иллюстрирует проблему ложноположительных результатов. График показывает дерево вероятностей для таких задач.

Полная теорема Байеса для гипотез H_i: P(H_i|E) = P(E|H_i)P(H_i)/∑P(E|H_j)P(H_j). Применяется в спам-фильтрах и диагностике. Связь с законом больших чисел проявляется в сходимости апостериорных распределений.

Байесовский вывод использует меру Колмогорова. Априорные распределения (равномерное, Джексона) обновляются данными. В вычислительной статистике применяют MCMC-методы для сложных интегралов.

Пример: два ящика с шарами, вероятность красного шара. Теорема дает P(ящик1|красный). Подробнее на Bayes' Theorem. Рекомендуемые книги: Doing Bayesian Data Analysis; Bayesian Data Analysis; классика по байесовскому анализу.

Теорема решает парадоксы вроде Берtrand's box. Источники: Basics of Probability Theory; Statistics 110 Probability.

Rate this item
(0 votes)
back to top

Соц. сети