Оцінювач Байєса несприйнятливий до вибору зміщення


11

Чи оцінювачі Байєса несприйнятливі до зміщення відбору?

Більшість статей, в яких обговорюється оцінка високої розмірності, наприклад, дані про цілі послідовності геномів, часто порушують питання зміщення селекції. Відхилення відбору випливають з того, що, хоча у нас є тисячі потенційних прогнозів, буде вибрано лише декілька, і на декількох вибраних буде зроблено висновок. Таким чином, процес проходить у два етапи: (1) вибір підмножини предикторів (2) виконання висновку на вибраних множинах, наприклад, коефіцієнт оцінювання шансів. У своїй парадоксальній роботі 1994 року Давід зосередився на об'єктивних оцінювачах та оцінках Байєса. Він спрощує проблему до вибору найбільшого ефекту, який може бути ефектом лікування. Тоді він каже, що об'єктивні оцінювачі впливають на зміщення відбору. Він використав приклад: припустимо то кожен

ZiN(δi,1),i=1,,N
Zi є неупередженим до . Нехай оцінювач , проте, упереджений ( позитивно) для \ max \ {\ delta_1, \ delta_2, \ ldots, \ delta_N \} . Це твердження можна легко довести при нерівності Дженсена. Отже, якби ми знали i _ {\ max} , індекс найбільшого \ delta_i , ми просто використаємо Z_ {i _ {\ max}} як його оцінювач, який є неупередженим. Але оскільки ми цього не знаємо, ми використовуємо \ gamma_1 (\ mathbf {Z}), який стає упередженим (позитивно).δiZ=(Z1,Z2,,ZN)T
γ1(Z)=max{Z1,Z2,,ZN}
max{δ1,δ2,,δN}imaxδiZimaxγ1(Z)

введіть тут опис зображення

Але тривожне твердження Давіда, Ефрона та інших авторів стверджує, що оцінки Байєса не застраховані від упередженості вибору. Якщо я зараз ставлю пріоритет на , скажімо, , То оцінювач Байєса задається де , з стандарт Гаусса.δiδig(.)δi

E{δiZi}=zi+ddzim(zi)
m(zi)=φ(ziδi)g(δi)dδiφ(.)

Якщо ми визначимо новий оцінювач як б не вибрав для оцінки допомогою буде таким самим якщо вибір був заснований на . Це випливає, тому що є монотонним у . Ми також знаємо, що зменшує до нуля терміномδimax

γ2(Z)=max{E{δ1Z1},E{δ2Z2},,E{δNZN}},
iδimaxγ1(Z)iγ2(Z)γ2(Z)ZiE{δiZi}Ziddzim(zi)що зменшує деякі позитивні ухили в . Але як ми можемо зробити висновок, що оцінки Байєса не застраховані від упередженості селекції. Я справді цього не розумію.Zi

1
Зважаючи на те, що ви посилаєтесь на претензію в літературному творі, можете, будь ласка, надати повну ситуацію та посилання на сторінку, щоб ми могли прочитати повний контекст цієї заяви.
Бен - Відновіть Моніку

Чи визначає оцінювач як максимум оцінок Баєса, як і раніше оцінювач Байєса?
Сіань

Приклад 1 у статті.
Чемберлен Фонша

Відповіді:


4

Як описано вище, випуск стоїть з висновком щодо індексу та значення (i⁰, μ⁰) найбільшого середнього зразка Нормальних rvs. Що я вважаю дивовижним у презентації Давіда, це те, що байєсівський аналіз не дуже звучить байєсів. Якщо дано весь зразок, байєсівський підхід повинен виробляти задній розподіл на (i⁰, μ⁰), а не слідувати етапам оцінки, від оцінки i⁰ до оцінки пов'язаного середнього. І, якщо потрібно, оцінки повинні виходити з визначення конкретної функції втрат. Коли натомість, даючи найбільшу точку у вибірці і лише цю точку, її розподіл змінюється, тож я досить збентежений твердженням, що коригування не потрібно.

Попереднє моделювання також є досить дивним тим, що апріори щодо засобів повинні бути спільними, а не продуктом незалежних Нормалів, оскільки ці засоби порівнюються і, отже, є порівняльними. Наприклад, ієрархічний пріоритет здається більш доцільним, з розташування та масштабу, які слід оцінювати з усіх даних. Створення зв’язку між засобами ... Відповідне заперечення щодо використання незалежних неналежних пріорів полягає в тому, що максимальне середнє μ⁰ тоді не має чітко визначеної міри. Однак я не думаю, що критика одних пріорів проти інших є релевантною атакою на цей "парадокс".


1
Мені здається, що весь необхідний захист повинен бути закодований у попередньому, що з'єднує всі невідомі засоби. Якщо попереднє робить великі відмінності між засобами дуже малоймовірними, це відобразиться на задньому, зробивши його ідеальним.
Френк Харрелл

@ Xi'an, ви можете навести приклад того, як ви зробите попереднє місце ? (i,μ)
Чемберлен Фонша

@Frank Harrel, розглянемо для прикладу та . оцінювач - . Оцінювач Байєса є . Якщо є найбільшим то це , тому що оцінювач Байєса одноманітний в . Наскільки б інформаційним не було попереднє, це не зміниться. Однак зменшує позитивний Байєс в . Але якщо було обрано неправильний оцінювач Байєса не може цього виправити.δiN(a,1)ZiN(δi,1)δiZiδiE(δi|Zi)Zi0ZiE(δi0|Zi0)ZiE(δi0|Zi0)Zi0i0
Чемберлен Фонша

@ChamberlainFoncha: Оцінювач Байєса є лише коли є апріорі незалежними. Спільне до по і «s робить їх залежними на насправді. E[δi|Zi]δiiμi
Сіань

І будь-який попередній прийом є прийнятним з байєсівської точки зору, наприклад, рівномірний розподіл за індексом та ієрархічний пріоритет на . μi
Сіань

1

Навіть якщо трохи протиінтуїтивне твердження правильне. Припустимо, що для цього експерименту, тоді задній для дійсно . Цей контрінтуїтивний факт трохи схожий на те, що Бейс не застрахований від (таємного) раннього припинення (що також є дуже протиінтуїтивним).i=5μ5N(x5,σ2)

Байесівські міркування привели б до помилкових висновків, якби для кожного такого експерименту (уявіть, що ви повторите це кілька разів) зберігалися б лише результати найкращого сорту. Буде відбір даних, і байєсівські методи явно не застраховані від (таємного) відбору даних. Насправді жоден статистичний метод не застрахований від вибору даних.

Якби такий відбір був здійснений, повна байєсівська міркування з урахуванням цього відбору легко виправить ілюзію.

Однак речення "Оцінювач Байєса несприйнятливий до відхилення відбору" є трохи небезпечним. Неважко уявити ситуації, коли "вибір" означає щось інше, наприклад, вибір пояснювальних змінних або вибір даних. Байєс явно не застрахований від цього.

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.