Я знаю, що це з коміксу, який відомий тим, що скористався певними аналітичними тенденціями , але насправді це виглядає обґрунтовано після кількох хвилин погляду. Чи може хтось окреслити для мене, що робить ця " модифікована теорема Байєса "?
Я знаю, що це з коміксу, який відомий тим, що скористався певними аналітичними тенденціями , але насправді це виглядає обґрунтовано після кількох хвилин погляду. Чи може хтось окреслити для мене, що робить ця " модифікована теорема Байєса "?
Відповіді:
Ну, розподіляючи член , отримуємо
який ми можемо трактувати як Закон сумарної ймовірності, застосований до події "ви правильно використовуєте байєсівську статистику." Так що якщо ви використовуєте Байєсова статистику правильно, то відновити закон Байеса (ліва фракцію вище) , і якщо у вас немає, то ви ігноруєте дані , і просто використовувати ваш перед на .
Я припускаю, що це відштовхується від критики, що в принципі баєси можуть скоригуватися до того, щоб підтримати висновок, який вони хочуть, тоді як баєси стверджують, що насправді так не працює баєсова статистика.
(І так, ви успішно обстріляли мене. Хоч я ні математик, ні фізик, тому я не впевнений, скільки балів я вартую.)
Вважаєте чи ні, ця модель часто виникає у дуже серйозних статистичних моделях, особливо коли йдеться про синтез даних, тобто намагається поєднувати висновки з декількох датчиків, які намагаються зробити висновок про одну подію.
Якщо датчик несправно працює, він може сильно змістити висновки, зроблені при спробі об'єднати сигнали з декількох джерел. Ви можете зробити модель більш надійною у цьому питанні, включивши невелику ймовірність того, що датчик просто передає випадкові значення, незалежні від фактичної події, яка вас цікавить. Це призвело до того, що якщо 90 датчиків слабко вказують на - це правда, але 1 датчик сильно вказує на - це правда, ми все одно повинні зробити висновок, щовірно (тобто, задня ймовірність того, що цей сенсор зафіксовано, стає дуже високою, коли ми розуміємо, що він суперечить усім іншим датчикам). Якщо розподіл відмови не залежить від параметра, про який ми хочемо зробити висновок, то якщо задня ймовірність того, що це збій, велика, заходи цього датчика дуже мало впливають на задній розподіл для параметра, що цікавить; насправді незалежність, якщо задня ймовірність відмови дорівнює 1.
Це загальна модель, яку слід враховувати, коли йдеться про висновок, тобто чи слід замінювати теорему Байєса на Модифіковану теорему Байєса, коли ми робимо Байєсову статистику? Ні. Причина полягає в тому, що "правильне використання байєсівської статистики" насправді не є просто двійковим (або, якщо воно є, воно завжди помилковим). Будь-який аналіз матиме ступеня неправильних припущень. Для того, щоб ваші висновки були повністю незалежними від даних (що має на увазі формула), вам потрібно зробити надзвичайно грубі помилки. Якщо "неправильне використання статистики Байєса" на будь-якому рівні означало, що ваш аналіз повністю незалежний від істини, використання статистики було б абсолютно марним. Усі моделі помиляються, але деякі корисні і все таке.