Байєсівські рамки мають велику перевагу перед частофілістськими, оскільки це не залежить від наявності "кришталевої кульки" з точки зору знання правильних припущень щодо розподілу. Байєсівські методи залежать від використання інформації, яку ви маєте, і знання того, як кодувати цю інформацію в розподілі ймовірностей.
Використання байєсівських методів - це в основному використання теорії ймовірностей в повній мірі. Теорема Байєса - це не що інше, як перерахунок класичного правила продукту теорії ймовірностей:
p ( θ x | I) = p ( θ | I) p ( x | θ I) = p ( x | I) p ( θ | x I)
До тих пір, поки (тобто попередня інформація не говорила про те, що спостерігалося було неможливо), ми можемо розділити їх і дійти до теорії байеса. Я використовував для позначення апріорної інформації, яка завжди присутня - ви не можете призначити розподіл ймовірності без інформації.p ( x | I) ≠ 0Я
Тепер, якщо ви вважаєте, що теорема Байєса підозріла, то, логічно, ви також повинні подумати, що правило про продукт теж є підозрілим. Ви можете знайти дедуктивний аргумент тут , який виводить твір і суму правило, аналогічну теорему Кокси. Більш чіткий перелік необхідних припущень можна знайти тут .
Наскільки мені відомо, частота виводки не ґрунтується на наборі підвалин у логічних рамках. Оскільки він використовує аксіоми ймовірності Колмогорова, схоже, немає ніякої зв'язку між теорією ймовірності та статистичним висновком. Не існує жодної аксіоми для частого виведення, що призводить до процедури, яку слід дотримуватися. Існують принципи та методи (максимальна ймовірність, довірчі інтервали, p-значення тощо), і вони працюють добре, але вони, як правило, ізольовані та спеціалізовані для певних проблем. Я вважаю, що частолістські методи найкраще залишаються розпливчастими у своїх основах, принаймні, з точки зору суворої логічної бази.
Для пункту отримання того ж результату дещо не має значення з точки зору тлумачення. Дві процедури можуть призвести до однакового результату, але це не означає, що вони є рівнозначними. Якби я просто здогадувався , а випадково здогадувався про максимальну оцінку ймовірності (MLE), це не означає, що моє здогадування так само добре, як і MLE.1θ
Для пункту , чому ви повинні турбуватися, що люди з різною інформацією прийдуть до різних висновків? Хтось із доктором математики мав би і повинен робити різні висновки для когось із математики вищої школи. Вони мають різну кількість інформації - чому б ми очікували, що вони погодиться? Коли вам подають інформацію, яка знає, ви схильні передумати. Скільки залежить від того, що це за інформація. Теорема Байєса містить цю особливість як слід.2
Використання рівномірного попереднього часто є зручним наближенням, коли ймовірність різка порівняно з попередньою. Іноді не варто докладати зусиль, щоб пройти і правильно налаштувати пріоритет. Так само не робіть помилки, плутаючи байєсівську статистику з MCMC. MCMC - це лише алгоритм інтеграції, такий же, як гуасовий квадратур, і в аналогічному класі наближення Лапласа. Це трохи корисніше, ніж квадратура, тому що ви можете повторно використовувати вихід алгоритму, щоб виконати всі ваші інтеграли (задні засоби та відхилення є інтегралами), і трохи більш загальним, ніж Лаплас, тому що вам не потрібен великий зразок, або добре заокруглена вершина в задній частині (хоча Лаплас швидше).