Скажіть, я підходить до кратної регресії p пояснювальних змінних. T-тест дозволить мені перевірити, чи є якийсь один із них значущим ( ). Я можу зробити частковий F-тест , щоб перевірити , якщо деяка підмножина з них є значущим ( H 0 : β я = β J = . . . = Β до = 0 ).
Я часто бачу, що хтось отримує 5 р-значень з 5-тестових тестів (якщо припустити, що вони мали 5 коваріатів) і зберігає лише ті, які мають значення р <0,05. Це здається трохи невірним, оскільки насправді має бути перевірка декількох порівнянь ні? Чи справді справедливо сказати щось на зразок і β 2 , але це важливо, але β 3 , β 4 і β 5 ні?
У відповідній записці скажіть, що я веду 2 регресії на 2 окремих моделях (різний результат). Чи потрібно проводити багаторазову перевірку порівняння значущих параметрів між двома результатами?
Редагувати: Для відмежування від подібного питання, чи існує інша інтерпретація p-значень, окрім: "B_i є (не) значущим, коли коригується для всіх інших коваріатів"? Не здається, що ця інтерпретація дозволяє мені переглядати кожен B_i та опускати їх менше 0,5 (що схоже на інший пост).
Мені здається, що надійним способом перевірити, чи мають стосунки B_i і Y, було б отримати коефіцієнт кореляції р-значення для кожного коваріату, а потім зробити мультикомплект (хоча це, безумовно, втратить сигнал).
Нарешті, скажімо, я обчислив співвідношення між B1 / Y1, B2 / Y1 та B3 / Y1 (таким чином, три p-значення). Незалежно я також робив кореляцію між T1 / Y2, T2 / Y2, T3 / Y2. Я припускаю, що правильне коригування Бонферроні було б 6 для всіх 6 тестів разом (а не 3 для першої групи і 3 для другої групи - і, таким чином, отримувати 2 "напів" -кориговані p-значення).