Узгодження позначень для змішаних моделей


12

Мені знайомі такі позначення, як:

yij=β0+βixij+uj+eij=β0j+βixij+eij
where , іβ0j=β0+uj

yij=β0+β1xij+u0j+u1jxij+eij=β0j+β1jxij+eij
де і β 1 j = β 1 + u 1 jβ0j=β0+u0jβ1j=β1+u1j

для моделі випадкових перехоплень і випадкової нахилу + випадкової моделі перехоплення відповідно.

Я також натрапив на цю матричну / векторну позначення, яку мені сказали "мішана модель позначення для дорослих" (за моїм старшим братом):

y=Xβ+Zb+e
де є фіксованими ефектами, а - випадковими ефектами.bβb

Якщо я правильно зрозумів, остання позначення є більш загальним позначенням для перших, які є конкретними версіями останнього.

Мені хотілося б побачити, як перше може бути похідне від другого.


2
Ви питаєте про пояснення позначення матриці? Причина, яку я запитую, полягає в тому, що це питання не потребує математичної деривації: всі ваші формули говорять абсолютно однакові речі, а пов’язання їх між собою - це лише питання розуміння того, як працює матрична нотація.
whuber

@whuber Я певною мірою розумію матричне позначення та матричну алгебру. Але я не знаю, як почати з матричної форми і дійти до інших форм. Напевно, я щось не розумію щодо матриць X і Z, але я просто сподівався, що хтось це викладе.
Джо Кінг

@whuber чи є щось, що я можу зробити, щоб поліпшити питання, чи ти кажеш, що це так просто, що не заслуговує на відповідь?
Джо Кінг

@JoeKing: Я думаю, що він говорить, що позначення матриці за визначенням еквівалентно вашій нематричній нотації. Тобто ви вже маєте (ixj матриця разів jx1 матриця, що дає ix1 матрицю ), яка є . (Ви можете згорнути у 1 у )xijβiyiy=Xββ0βX
Уейн,

2
@Wayne обидві моделі мають випадкові ефекти та фіксовані ефекти. Перший має випадковий перехоплення, тоді як другий має випадковий перехоплення та випадковий нахил. Якби я міг сам "розібратися", я б не ставив тут питання !!!!
Джо Кінг

Відповіді:


13

Ми розглядаємо змішану модель із випадковими нахилами та випадковими перехопленнями. Враховуючи, що у нас є лише один регресор, цю модель можна записати як де позначає -ве спостереження групи відповіді, а і відповідний прогноз і помилку.

yij=β0+β1xij+u0j+u1jxij+ϵij,
yijijxijϵij

Ця модель може бути виражена в матричних позначеннях наступним чином:

Y=Xβ+Zb+ϵ,
що еквівалентно

Y=[XZ][βb]+ϵ

Припустимо, що у нас є групи, тобто а позначає кількість спостережень у -й групі. Розділені для кожної групи, ми можемо записати вище формулу якj = 1 , , J n jJj=1,,Jnjj

[Y1Y2YJ]=[X1Z1000X20Z200XJ000ZJ][βb1b2bJ]+[ϵ1ϵ2ϵJ]

де - що містить усі спостереження відповіді для групи , і є матриці проектування в цьому випадку, і знову є матриця.Yjnj×1jXjZjnj×2ϵjnj×1

Виписуючи їх, ми маємо:

Yj=[y1jy2jynjj],Xj=Zj=[1x1j1x2j1xnjj] і ϵj=[ϵ1jϵ2jϵnjj].

Тоді вектори коефіцієнта регресії є

β=(β0β1) , bj=(u0ju1j)

Щоб побачити, що дві модельні рецептури дійсно рівнозначні, давайте розглянемо будь-яку з груп (скажімо, ю).j

Yj=Xjβ+Zjbj+ϵj

Застосовуючи наведені вище визначення, можна показати, що -й рядок отриманого вектора просто де становить від до .i

yij=β0+β1xij+u0j+u1jxij+ϵij,
i1nj

2
+1, я просто зазначу, що існують великі обчислювальні переваги від впровадження використання а не повної матриці в основному рідкісна версія для зберігання матриці Z Z j ZZjZZjZ
probabilityislogic
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.