Відповіді:
(Чи не дивно читати попередні відповіді, які зосереджуються на потенційній невідповідності задньої частини, коли пріоритет є належним, оскільки, наскільки я можу сказати, питання полягає в тому, чи має бути заднє місце належним чи ні ( тобто інтегрується в одне), щоб бути правильним (тобто прийнятним для байєсівського висновку) задньо.)
У статистиці Байєсова, заднє розподіл має бути розподілом ймовірностей, з якого можна вивести такі моменти задніх середнього і імовірнісні затвердження , як охоплення заслуговує на довіру область, . Якщо задній не може нормалізуватись до щільності ймовірності, і байєсівський висновок просто не може бути проведений. Задня просто в таких випадках не існує.
Насправді (1) має міститись для всіх у вибірковому просторі, а не лише для спостережуваного для, інакше вибір попереднього залежатиме від даних . Це означає, що пріори, подібні до попереднього Haldane, , на ймовірності p біноміальної чи негативної біноміальної змінної X не можуть бути використані, оскільки задній не є визначено для x = 0 .
Я знаю один виняток, коли можна вважати "неналежні афіші": це знайдено в "Мистецтві збільшення даних" Девіда ван Дайка та Сяо-Лі Менга. Неправильна міра над так званим робочим параметром така, що спостереження виробляється на межі розширеного розподілу а Ван Дік і Менг поставили неправильний попередній на цей робочий параметр щоб прискорити моделювання (що залишається чітко визначеним як щільність ймовірності) MCMC.f ( x | θ ) = ∫ T ( x aug ) = x f ( x aug | θ , α ) p ( α ) α π ( θ | x )
В іншому ракурсі, дещо пов'язаному з відповіддю еретмочелісів , а саме з точки зору теорії рішень Байєса, умова , де (1) має місце, все ще може бути прийнятним, якби це призвело до оптимальних рішень. А саме, якщо - функція втрат, що оцінює вплив використання рішення , оптимальне баєсовське рішення за попереднім задається і все, що важливо, це те, що цей інтеграл не скрізь (в ) нескінченний. Незалежно від того, чи утримується (1), є вторинним для виведенняδ π δ ⋆ ( x ) = arg min min δ ∫ L ( δ , θ ) f ( xδ δ ⋆ ( x )
Задній розподіл не повинен бути належним, навіть якщо попереднє є правильним. Наприклад, припустімо, що має гамму до форми 0,25 (що є правильним), і ми моделюємо нашу дату як виведену з розподілу Гаусса із середнім нулем та дисперсією . Припустимо, що спостерігається рівним нулю. Тоді ймовірність пропорційна , що робить задній розподіл для неправильним, оскільки він пропорційний . Ця проблема виникає через нерозумний характер безперервних змінних.x v x p ( x | v ) v - 0,5 v v - 1,25 e - v
Визначаючи набір ,, have Останній інтеграл буде дорівнює якщо міра Лебега додатна. Але це неможливо, тому що цей інтеграл дає вам ймовірність (реальне число між і ). Звідси випливає, що міра Лебега дорівнює , і, звичайно, також випливає, щоP r ( X ∈ Bogus Data ) = ∫ Bogus Data ∫ f ( x
На словах: попередня прогнозована ймовірність тих вибіркових значень, які роблять задній неправильний, дорівнює нулю.
Мораль історії: остерігайтеся нульових наборів, вони можуть вкусити, як би це не було неймовірним.
PS Як вказував професор Роберт у коментарях, це міркування вибухає, якщо попереднє рішення є неналежним.
Будь-який "розподіл" повинен підсумовувати (або інтегрувати) до 1. Я можу привести декілька прикладів, коли можна працювати з ненормованими розподілами, але мені незручно ніколи називати все, що маргіналізується ні до чого, крім 1, "розподілом".
Зважаючи на те, що ви згадали баєсівську задню, я думаю, що ваше запитання може виникнути з проблеми класифікації пошуку оптимальної оцінки огляду на деякий вектор функції
де остання рівність походить від того, що не залежить від . Тоді ми можемо вибрати наш виключно виходячи із значення яке пропорційно нашому байєсівському задньому, але не плутати його з імовірністю! х х P D | X ( d | x ) P X ( x )