Я розумію , що тест Вальда для коефіцієнтів регресії заснований на наступному властивості , який містить асимптотично (наприклад Вассермана (2006): All статистики , сторінки 153, 214-215): деβпозначає розрахунковий коефіцієнт регресії,^з(β)позначає стандартну помилку коефіцієнта регресії іβ0є значенням процентного (β-зазвичай0 перевірити, чи коефіцієнт значно відрізняється від 0). Отже,тестрозміруαWald такий: відхилитиH0,коли| W| >zα/
Але коли ви виконуєте лінійну регресію з lm
в R, -значення замість z -значення використовується для перевірки, чи коефіцієнти регресії значно відрізняються від 0 (з ). Більше того, вихідний показник в R іноді дає z -, а іноді і t -значення як тестову статистику. Мабуть, z -значення використовуються тоді, коли параметр дисперсії вважається відомим, а t -значення використовуються, коли параметр дисперсії оцінюється (див. Це посилання ).summary.lm
glm
Чи може хтось пояснити, чому розподіл іноді використовується для тесту Вальда, навіть якщо співвідношення коефіцієнта та його стандартної помилки прийнято розподіляти як стандартне нормальне?
Змінити після відповіді на запитання
Ця публікація також надає корисну інформацію до питання.
lm
glm