Дуже цікаве запитання, ось моє питання.
Вся справа в кодуванні інформації, а потім поверніть байєсівський кривошип. Це здається занадто гарним, щоб бути правдою - але обидва вони складніші, ніж здаються.
Я починаю з того, щоб задати питання
Яка інформація використовується, коли ми турбуємося про багаторазове порівняння?
Я можу придумати деякі - перше - "драгування даних" - тестуйте "все", поки ви не отримаєте достатньо пропусків / помилок (я б подумав, що майже кожна підготовлена статистика буде піддана цій проблемі). У вас також є менш зловісна, але, по суті, те саме "У мене стільки тестів, щоб запустити - напевно, все не може бути правильним".
Задумавшись над цим, одне, що я помічаю, - це те, що ви не схильні чути багато про конкретні гіпотези чи конкретні порівняння. Вся справа в "колекції" - це викликає моє мислення до обмінності - гіпотеза, яка порівнюється, певним чином "схожа". І як ви кодуєте обмінність в байєсівському аналізі? - гіперприори, змішані моделі, випадкові ефекти тощо!
Але обмінність дає вам лише частину шляху. Чи все обмінне? Або у вас "розрідженість" - наприклад, лише кілька ненульових коефіцієнтів регресії з великим набором кандидатів. Тут не працюють змішані моделі та звичайно розподілені випадкові ефекти. Вони "застрягають" між шумом розсипання та залишаючи сигнали недоторканими (наприклад, у вашому прикладі залишайте рівними параметри locationB та locationC "істинними", а параметр locationA "true" встановлюйте довільно великим або малим, і спостерігайте за тим, як стандартна лінійна змішана модель виходить з ладу.) . Але це може бути виправлено - наприклад, з пріорами "шипа і плити" або "прінцерами".
Тож це насправді більше про те, щоб описати, про яку гіпотезу ви говорите, та отримати якомога більше відомих особливостей, відображених у попередньому та ймовірності. Підхід Ендрю Гельмана - це лише спосіб неявного поводження з широким класом численних порівнянь. Як і найменші квадрати і нормальні розподіли, як правило, працюють у більшості випадків (але не у всіх).
З точки зору того, як це робиться, ви можете подумати про людину, що розмірковує так: група А та група В можуть мати однакове значення - я переглянув дані, а засоби "близькі" - Отже, щоб отримати кращу оцінку для обох я повинен об'єднати дані, так як я вважав, що вони мають однакове значення. - Якщо вони не однакові, дані дають свідчення того, що вони "близькі", тому об'єднання "трохи" не зашкодить мені занадто сильно, якщо моя гіпотеза помилилася (а-ля всі моделі помиляються, деякі корисні)
Зауважте, що всі вищезазначені шарніри на початковій передумові "вони можуть бути однаковими". Забирайте це, і виправдання для об'єднання немає. Напевно, ви також можете побачити "нормальний розподіл" спосіб мислення про тести. "Найбільш вірогідний нуль", "якщо не нуль, то близький до нуля наступний, швидше за все", "крайні значення малоймовірні". Розглянемо цю альтернативу:
- засоби групи А та групи В можуть бути рівними, але вони також можуть бути різко різними
Тоді аргумент про об'єднання "трохи" - дуже погана ідея. Вам краще вибрати загальний пул або нульовий пул. Набагато більше, як Коші, шип і плита, тип ситуації (велика маса навколо нуля, і маса маси для екстремальних значень)
Не потрібно займатися цілим численним порівнянням, оскільки байєсівський підхід включає інформацію, яка приводить нас до занепокоєння до попередньої та / або ймовірності . У певному сенсі це більше нагадування про те, щоб правильно подумати про те, яка інформація доступна для вас, і переконавшись, що ви включили її в свій аналіз.