Я погоджуюся з чудовою відповіддю Сіань , вказуючи, що немає жодного попереднього, що було б "неінформативним" у сенсі нести ніякої інформації. Щоб розширити цю тему, я хотів би зазначити, що однією з альтернатив є проведення байєсівського аналізу в неточних імовірнісних рамках (див. Есп . Walley 1991 , Walley 2000 ). У цих рамках попередня віра представлена набором розподілів ймовірностей, і це призводить до відповідного набору заднього розподілу. Це може здатися, що це буде не дуже корисно, але насправді це досить дивовижно. Навіть при дуже широкому наборі попередніх розподілів (де певні моменти можуть сягати всіх можливих значень), ви часто все ще отримуєте задню конвергенцію до однієї задньої, як .n→∞
Ця аналітична структура була аксіоматизована Валлі як власна спеціальна форма ймовірнісного аналізу, але по суті еквівалентна надійному байєсівському аналізу з використанням набору пріорів, що дає відповідний набір позиціонерів. У багатьох моделях можливо встановити "неінформативний" набір апріорів, який дозволяє змінювати деякі моменти (наприклад, попереднє середнє значення) протягом усього можливого діапазону значень, і це, тим не менш, дає цінні результати задніх сторін, де задні моменти обмежені більш щільно. Ця форма аналізу, мабуть, має більш високу претензію до того, що її можна назвати "неінформативною", принаймні щодо моментів, які здатні змінюватись протягом усього допустимого діапазону.
Простий приклад - модель Бернуллі: Припустимо, ми спостерігаємо дані де - невідомий параметр, що цікавить. Зазвичай ми б використовували бета-щільність як попередню (як попередня, так і попередня довідка Джефрі є такою формою). Ми можемо вказати цю форму попередньої щільності у перерахунку на попереднє середнє значення та інший параметр як:X1,...,Xn|θ∼IID Bern(θ)θμκ>1
π0(θ|μ,κ)=Beta(θ|μ,κ)=Beta(θ∣∣α=μ(κ−1),β=(1−μ)(κ−1)).
(Ця форма дає попередні моменти та .) Тепер у неточній моделі ми могли б Встановіть попередній, що складається з набору всіх цих попередніх розподілів над усіма можливими очікуваними значеннями , але з іншим параметром, зафіксованим для контролю точності над діапазоном середніх значень. Наприклад, ми можемо використовувати набір пріорів:E(θ)=μV(θ)=μ(1−μ)/κ
P0≡{Beta(μ,κ)∣∣0⩽μ⩽1}.
Припустимо, ми спостерігаємо позитивних показників у даних. Потім, використовуючи правило оновлення для моделі Бернуллі-бета, відповідний задній набір:s=∑ni=1xi
Px={Beta(s+μ(κ−1)n+κ−1,n+κ)∣∣0⩽μ⩽1}.
Діапазон можливих значень заднього очікування:
sn+κ−1⩽E(θ|x)⩽s+κ−1n+κ−1.
Тут важливо те, що, хоча ми почали з моделі, яка була "неінформативною" щодо очікуваного значення параметра (попереднє очікування варіювалося над усіма можливими значеннями), ми все-таки закінчуємося задніми висновками, які є інформативними щодо до заднього очікування параметра (тепер вони перебувають у межах більш вузького набору значень). Оскільки цей діапазон значень видавлюється до однієї точки, що є справжнім значенням .n→∞θ