Розглянемо просту регресію (нормальність не передбачається):
Розглянемо просту регресію (нормальність не передбачається):
Відповіді:
Це важливе врахування при розробці експериментів, де бажано не мати (або дуже мало) співвідношення серед оцінок і . Така відсутність кореляції може бути досягнута, контролюючи значення значення.
Проаналізувати наслідки дії на оцінки, значення (які є рядними векторами довжини ) збираються вертикально в матрицю , матриця дизайну, що має стільки рядків, скільки є даних і (очевидно) два стовпці. Відповідне збираються в один довгий (стовпчик) вектор . У цих умовах написання для зібраних коефіцієнтів модель є
The вважаються (як правило) незалежними випадковими змінними, відхилення яких є постійними для якогось невідомого . Залежні спостереження вважаються однією реалізацією векторної значення випадкової величини .
Рішення OLS є
припускаючи, що ця матриця обернена. Таким чином, використовуючи основні властивості множення матриці та коваріації,
Матриця має всього два ряди та два стовпці, що відповідають параметрам моделі . Кореляція з пропорційна недіагональним елементам які за правилом Крамера пропорційні крапковому добутку двох стовпців. Оскільки одна з колонок - це всеs, чий точковий добуток з іншим стовпцем (що складається з ) - їхня сума, ми знаходимо
і є неспорідненими, якщо і лише сума (або еквівалентно середня) значення дорівнює нулю.
Ця умова ортогональності часто досягається за рахунок центрування(віднімаючи їх середнє значення від кожного). Хоча це не змінить оцінений ухил, це змінює оцінене перехоплення . Чи важливо це чи ні, залежить від програми.
Цей аналіз застосовується до множинної регресії: проектна матриця матиме стовпців для незалежні змінні (додатковий стовпчик складається з з) і буде вектором довжини , але в іншому випадку все проходить, як і раніше.
Умовно кажучи, два стовпчики називаються ортогональними, коли їх точковий добуток дорівнює нулю. Коли один стовпчик з (скажіть стовпчик ) є ортогональним для всіх інших стовпців, це легко продемонстрований алгебраїчний факт, що всі позадіагональні записи в рядку і стовпчик з дорівнюють нулю (тобто і компоненти для всіх дорівнюють нулю). Отже,
Дві оцінки множинних коефіцієнтів регресії і є некорельованими, коли будь-який (або обидва) відповідних стовпців проектної матриці є ортогональними для всіх інших стовпців.
Багато стандартних експериментальних конструкцій складаються з вибору значень незалежних змінних, щоб зробити стовпчики взаємно ортогональними. Це "відокремлює" отримані оцінки, гарантуючи - перш ніж будь-які дані будуть зібрані! - що оцінки не будуть відповідати. (Коли відповіді мають звичайні розподіли, це означає, що оцінки будуть незалежними, що значно спрощує їх тлумачення.)