Я думаю, що проблема, яка вас бентежить, полягає в тому, що ви звикли мати помилку з добавками. Більшість моделей не будуть.
Подумайте про лінійну регресію не як лінійне середнє з адитивною помилкою, а як відповідь умовно нормальною:
( Y| Х) ∼ N( Xβ, σ2Я)
Тоді схожість з ГЛМ, зокрема, з пуассоновою регресією та логіситною регресією, є більш зрозумілою.
( Y| Х)Е( Y| Х)Y- Е( Y| Х)
[Ви можете взяти будь-яку конкретну комбінацію предикторів і написати змінну відповіді з точки зору її очікування та відхилення від неї - "помилку", якщо ви хочете - але це не особливо просвічує, коли її об'єкт відрізняється від будь-якої іншої комбінації предикторів. Зазвичай, більш інформативним та інтуїтивнішим є просто записувати відповідь як розподіл, який є функцією провісників, ніж у формі відхилення від очікування.]
Тому, хоча ви можете написати це "терміном помилки", це зробити менш зручно і концептуально складніше, ніж робити інші речі.