Я думаю, що одним із найбільших питань, як статистики, ви повинні задати собі питання, чи вірите ви чи не хочете дотримуватися принципу ймовірності. Якщо ви не вірите в принцип ймовірності, то я вважаю, що періодична парадигма статистики може бути надзвичайно потужною, однак, якщо ви вірите в принцип ймовірності, то (я вважаю) вам, безумовно, доведеться підтримувати байєсівську парадигму в не порушувати його.
Якщо ви не знайомі з нею, про це говорить принцип імовірності:
Принцип ймовірності : При прийнятті висновків чи рішень щодопіслядотриманнядеяких данихвся відповідна експериментальна інформація міститься у функції ймовірності :
девідповідає спостережуваним даним і таким чином фіксується.θx
ℓ(θ;x)=p(x|θ)
x
Крім того, якщо і - дві вибіркові точки, такі що пропорційна , тобто , існує константа така, щоxyℓ(θ;x)ℓ(θ;y)C(x,y)
ℓ(θ;x)=C(x,y)ℓ(θ;y)for all θ,
то висновки, зроблені з та повинні бути однаковими. \xy
Зауважте, що константа вище може бути різною для різних пар але не залежить від .C(x,y)(x,y)C(x,y)θ
У спеціальному випадку Принцип ймовірності стверджує, що якщо дві вибіркові точки приводять до тієї ж функції ймовірності, вони містять ту саму інформацію про . Але Принцип ймовірності йде далі. У ньому йдеться про те, що навіть якщо дві вибіркові точки мають лише пропорційну ймовірність, вони містять еквівалентну інформацію про .θ θC(x,y)=1θθ
Тепер одним із малюнків байєсівської статистики є те, що при належних пріорах байєсівська парадигма ніколи не порушує принцип ймовірності. Однак існують дуже прості сценарії, коли парадигма частістів порушує принцип ймовірності.
Ось дуже простий приклад, заснований на тестуванні гіпотез. Розглянемо наступне:
Розглянемо експеримент, де було проведено 12 випробувань Бернуллі та 3 успіху. Залежно від правила зупинки, ми могли б охарактеризувати дані як наступні:
- Біноміальний розподіл: та дані:x = 3X|θ∼Bin(n=12,θ)x=3
- Негативний біноміальний розподіл:
та дані:y = 12Y|θ∼NegBin(k=3,θ)y=12
Таким чином, ми отримаємо такі функції ймовірності:
що означає, що
і, таким чином, за принципом ймовірності, ми повинні отримати однакові умовиводи про з будь-якої ймовірності.
ℓ1(θ;x=3)ℓ2(θ;y=12)=(123)θ3(1−θ)9=(112)θ3(1−θ)9
ℓ1(θ;x)=C(x,y)ℓ2(θ,y)
θ
Тепер уявіть собі тестування наступних гіпотез з парадигми
Ho:θ≥12versusHa:θ<12
Для біноміальної моделі маємо наступне:
p-value=P(X≤3|θ=12)=(120)(12)12+(121)(12)12+(122)(12)12+(123)(12)12=0.0723
Зауважте, що але інші умови не задовольняють принципу ймовірності.(123)(12)12=ℓ1(12;x=3)
Для негативної біноміальної моделі маємо наступне:
p-value=P(Y≥12|θ12)=(112)(12)12+(122)(12)12+(132)(12)12+...=0.0375
З наведених вище розрахунків p-значення ми бачимо, що в біноміальній моделі ми не відхилити але використовуючи негативну біноміальну модель, ми би відхилили . Таким чином, навіть якщо є p-значення, і рішення, засновані на цих p-значеннях, не збігаються. Цей аргумент p-значення є одним із часто використовуваних байєсами проти використання частот p-значень.HoHoℓ1(θ;x)∝ℓ2(θ;y)
Тепер розглянемо ще раз тестування наступних гіпотез, але з байєсівської парадигми
Ho:θ≥12versusHa:θ<12
Для біноміальної моделі маємо наступне:
P(θ≥12|x)=∫11/2π(θ|x)dx=∫11/2θ3(1−θ)9π(θ)dθ/∫10θ3(1−θ)9π(θ)dθ
Аналогічно для негативної біноміальної моделі маємо наступне:
P(θ≥12|y)=∫11/2π(θ|x)dx=∫11/2θ3(1−θ)9π(θ)dθ/∫10θ3(1−θ)9π(θ)dθ
Тепер, використовуючи байєсівські правила рішення, виберіть якщо (або якийсь інший поріг), і повторіть аналогічно .Ho роківP(θ≥12|x)>12y
Однак і таким чином ми приходимо до той самий висновок, і таким чином цей підхід задовольняє Принципу ймовірності.P(θ≥12|x)=P(θ≥12|y)
І тому на закінчення моїх суперечок, якщо ви не переймаєтесь принципом ймовірності, то бути частолюбивим - це чудово! (Якщо ви не можете сказати, я баєць :))