Питання щодо принципу ймовірності


17

В даний час я намагаюся зрозуміти Принцип ймовірності, і я, відверто кажучи, не розумію цього. Отже, я запишу все своє запитання як список, навіть якщо це можуть бути досить основними питаннями.

  • Що саме означає фраза "вся інформація" в контексті цього принципу? (як і вся інформація у вибірці міститься у функції ймовірності.)
  • Чи пов'язаний принцип якимось чином з дуже доказливим фактом, що ? Чи "ймовірність" у принципі те саме, що і p ( y | x ) , чи ні?p(x|y)p(y|x)p(x)p(y|x)
  • Як математична теорема може бути "суперечливою"? Моє (слабке) розуміння математики полягає в тому, що теорема або доведена, або не доведена. До якої категорії належить Принцип ймовірності?
  • Наскільки принцип ймовірності важливий для байєсівського умовиводу, який ґрунтується на формулі ?p(x|y)p(y|x)p(x)

Карел, будь ласка , зверніть увагу: ime.usp.br/~pmarques/papers/redux.pdf
ZEN

Дивіться також сайт Грега Ганденбергера: gandenberger.org
Майкл Лев - відновлення Моніки

Відповіді:


10

Принцип ймовірності був викладений різними способами, із змінним значенням та зрозумілістю. Книга AWF Edwards "Вірогідність" є чудовим ознайомленням з багатьма аспектами вірогідності та все ще надрукована. Ось як Едвардс визначає принцип ймовірності:

"У рамках статистичної моделі вся інформація, яку надають дані щодо відносних достоїнств двох гіпотез, міститься у співвідношенні ймовірності цих гіпотез". (Едвардс 1972, 1992, с. 30)

Тож тепер до відповідей.

  1. "Уся інформація у вибірці", як ви цитуєте, є просто неадекватним вираженням відповідної частини принципу ймовірності. Едвардс каже, що це набагато краще: модель має значення, а відповідна інформація - це інформація, що стосується відносних достоїнств гіпотез. Корисно зауважити, що коефіцієнт ймовірності має сенс лише тоді, коли гіпотези, про які йдеться, походять із тієї самої статистичної моделі та є взаємовиключними. Насправді вони повинні бути точками на одній імовірній функції, щоб співвідношення було корисним.

  2. Принцип ймовірності пов'язаний з теоремою Байєса, як ви бачите, але це можна довести без посилання на теорему Байєса. Так, p (x | y) - (пропорційна) ймовірність, доки x є даними, а y - гіпотезою (яка може бути просто значенням гіпотезованого параметра).

  3. Принцип ймовірності суперечливий, оскільки його докази оскаржуються. На мою думку, недоліки є несправними, але, тим не менш, вони суперечливі. (На іншому рівні можна сказати, що принцип вірогідності є суперечливим, оскільки він передбачає, що частофілістські методи висновку певним чином є несправними. Деяким людям це не подобається.) Принцип ймовірності був доведений, але його сфера застосування актуальність може бути більш обмеженою, ніж уявляють її критики.

  4. Принцип ймовірності важливий для методів Байєса, оскільки дані входять в рівняння Байєса через ймовірність. Більшість байєсівських методів відповідають принципу ймовірності, але не всі. Деякі люди, такі як Едвардс і Ройал, стверджують, що умовиводи можна робити на основі функцій вірогідності без використання теореми Байєса, "чистого умовиводу". Це також суперечливо. Насправді це, мабуть, суперечливіший принцип правдоподібності, оскільки байєси схильні погоджуватися з лікарями, що чисті методи ймовірності недоцільні. (Ворог мого ворога ...)


"Корисно відзначити, що коефіцієнт ймовірності має сенс лише там, де гіпотези, про які йдеться, походять із тієї самої статистичної моделі" - що це означає саме? Здається, ви говорите, що не можете порівнювати моделі з різних сімей дистрибутивів, що не так.
Scortchi

Оскільки ймовірність пропорційна лише * p * (x | y), завжди є невідома константа пропорційності. Різні статистичні моделі допускають різні константи пропорційності, тому ймовірність може бути несумірною.
Майкл Лев - відновити Моніку

Іноді різні моделі можуть бути влаштовані таким чином, щоб отримати єдину функцію вірогідності (часто багатовимірну), щоб імовірності можна було порівнювати, але це не завжди можливо.
Майкл Лев - відновити Моніку

1
Мені, можливо, не вистачає тонкощі, але я розумію, що невідомих констант є ймовірність, а лише константи, які скасовуються, коли ви обчислюєте коефіцієнт ймовірності для моделей з тієї ж сім'ї, і тому тоді ігноруйте. У будь-якому випадку: для данихх & будь-які щільності f & г з параметрами θ & ϕ, Я б назвав статистику
f(х;θ^)г(х;ϕ^)
коефіцієнт ймовірності; & його можна використовувати для висновку.
Scortchi

1
Див. Кокс (1961), Тести окремих сімей гіпотез, Зб. 4-й Берклі-симп. з математики. Статист. і Проб. 1 . Звичайно, теорема Уілкса не застосовується, тому вдвічі її логарифм не розподілений якχ2.
Scortchi
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.