Теорема Байеса в теории вероятностей
Теорема Байеса P(A|B) = P(B|A)P(A)/P(B) позволяет корректировать вероятности на основе новой информации. Формулировка Томаса Байеса (1763) лежит в основе байесовской статистики и машинного обучения. Она связывает априорные вероятности с данными для получения апостериорных оценок.
В медицинском тесте с чувствительностью 95% и специфичностью 90% при распространенности болезни 0.5% положительный результат дает постериорную вероятность ~4.6%. Это иллюстрирует проблему ложноположительных результатов. График показывает дерево вероятностей для таких задач.
Полная теорема Байеса для гипотез H_i: P(H_i|E) = P(E|H_i)P(H_i)/∑P(E|H_j)P(H_j). Применяется в спам-фильтрах и диагностике. Связь с законом больших чисел проявляется в сходимости апостериорных распределений.
Байесовский вывод использует меру Колмогорова. Априорные распределения (равномерное, Джексона) обновляются данными. В вычислительной статистике применяют MCMC-методы для сложных интегралов.
Пример: два ящика с шарами, вероятность красного шара. Теорема дает P(ящик1|красный). Подробнее на Bayes' Theorem. Рекомендуемые книги: Doing Bayesian Data Analysis; Bayesian Data Analysis; классика по байесовскому анализу.
Теорема решает парадоксы вроде Берtrand's box. Источники: Basics of Probability Theory; Statistics 110 Probability.