Якщо ви скористаєтесь байєсівським підходом і розглядаєте параметри, що описують розподіл як випадкову змінну / вектор, то спостереження дійсно не є незалежними, але вони були б умовно незалежними за умови знань отже буде утримуватися.θ P ( X n ∣ X n - 1 , … X 1 , θ ) = P ( X n ∣ θ )XθP(Xn∣Xn−1,…X1,θ)=P(Xn∣θ)
У класичному статистичному підході, є не випадковою величиною. Розрахунки роблять так, ніби ми знаємо, що таке . У певному сенсі ти завжди кондиціонуєш (навіть якщо ти не знаєш значення).θ θθθθ
Коли ви писали, "... надайте інформацію про структуру розподілу, і, як результат, про ", ви неявно приймали байєсівський підхід, але не робили цього точно. Ви пишете властивість зразків IID, які писав би частоліст, але відповідне твердження в байєсівській програмі передбачало б умовлення на . θXnθ
Баєсійський проти класичних статистиків
Нехай є результатом перегортання нечесної монети, що перекручується. Ми не знаємо, яка ймовірність монети приземляється.xi
- Класичному статистику - деякий параметр, назвемо його . Зауважте, що тут є скалярним, як число 1/3. Ми можемо не знати, що таке число, але це якесь число! Це не випадково!θ θP(xi=H)θθ
- Баєсівському статистику сама є випадковою змінною! Це надзвичайно інакше!θ
Основна ідея тут полягає в тому, що баєсовський статистик розширює інструменти ймовірності до ситуацій, коли класичний статистик цього не робить . Для частолістів не є випадковою змінною, оскільки вона має лише одне можливе значення ! Кілька результатів неможливі! Однак в уяві можливі кілька значень , і баєс готовий моделювати цю невизначеність (на власну думку), використовуючи інструменти ймовірності.θθ
Куди це йде?
Скажімо, ми гортаємо монету разів. Одне перевертання не впливає на результат іншого. Класичний статистик назвав би ці незалежні фліп (і справді вони є). У нас буде:
Де невідомо параметр. (Пам'ятайте, ми не знаємо, що це, але це не випадкова величина! Це якесь число.)n
P(xn=H∣xn−1,xn−2,…,x1)=P(xn=H)=θ
θ
Байєсівська глибока суб'єктивна ймовірність сказала б, що важлива ймовірність з її точки зору! . Якщо вона бачить 10 голів підряд, 11-й голова швидше, тому що 10 голов підряд приводить одну, щоб повірити, що монета ухилена на користь голів.
P(x11=H∣x10=H,x9=H,…,x1=H)>P(x1=H)
Що тут сталося? Що відрізняється ?! Оновлення вірування про приховану випадкову змінну ! Якщо трактується як випадкова величина, відвороти вже не є незалежними. Але, оберти умовно незалежні, враховуючи значення .θθθ
P(x11=H∣x10=H,x9=H,…,x1=H,θ)=P(x1=H∣θ)=θ
Умови в в певному сенсі пов'язують, як байєсівський і класичний статистик моделює проблему. Або кажучи інакше, частоліст і баєсовський статистик погодиться, якщо баєсові умови на .θθθ
Подальші замітки
Я постарався зробити короткий вступ тут, але те, що я зробив, у кращому випадку досить поверхневий, і поняття в деякому сенсі досить глибокі. Якщо ви хочете зануритися у філософію вірогідності, то книга Сайдже, 1954, Фонд статистики - це класика. Гугл для байезіана проти частотистів і багато речей.
Інший спосіб думати про розробки IID - це теорема де Фінетті і поняття обмінності . У байєсівських умовах обмінність еквівалентна незалежності, що обумовлюється деякою прихованою випадковою змінною (в даному випадку - однобічністю монети).