Існує декілька відмінностей між лінійними та нелінійними моделями регресії, але основним математичним є те, що лінійні моделі є лінійними в параметрах, тоді як нелінійні моделі - нелінійні в параметрах. Пінхеро та Бейтс (2000, с. 284-285), автори nlme
пакету R, елегантно описали більш обґрунтовані міркування щодо вибору моделі:
Вибираючи регресійну модель, щоб описати, як змінна відповідь змінюється в залежності від коваріатів, завжди є можливість використання моделей, таких як поліноміальні моделі, лінійні в параметрах. Збільшуючи порядок поліноміальної моделі, можна отримувати все більш точні наближення до справжньої, зазвичай нелінійної, регресійної функції, у межах спостережуваного діапазону даних. Ці емпіричні моделі ґрунтуються лише на спостережуваному взаємозв'язку між відповіддю та коваріатами і не включають теоретичних міркувань щодо основного механізму, що створює дані. З іншого боку, нелінійні моделі часто механістичні, тобто засновані на моделі механізму, що створює відповідь. Як наслідок, параметри моделі в нелінійній моделі зазвичай мають природну фізичну інтерпретацію. Навіть коли емпірично виводяться, нелінійні моделі зазвичай містять відомі теоретичні характеристики даних, такі як асимптоти та монотонність, і в цих випадках можуть розглядатися як напівмеханістичні моделі. Нелінійна модель, як правило, використовує менше параметрів, ніж конкурентна лінійна модель, наприклад, поліном, що дає більш охарактеризований опис даних. Нелінійні моделі також забезпечують більш надійні прогнози змінної відповіді поза спостережуваним діапазоном даних, ніж, скажімо, поліноміальні моделі. даючи більш парсимонічний опис даних. Нелінійні моделі також забезпечують більш надійні прогнози змінної відповіді поза спостережуваним діапазоном даних, ніж, скажімо, поліноміальні моделі. даючи більш парсимонічний опис даних. Нелінійні моделі також забезпечують більш надійні прогнози змінної відповіді поза спостережуваним діапазоном даних, ніж, скажімо, поліноміальні моделі.
Існують також великі відмінності між пакетами nlme та lme4, які виходять за рамки проблеми лінійності. Наприклад, за допомогою nlme можна підходити до лінійних або нелінійних моделей і для будь-якого типу вказувати дисперсійні та кореляційні структури для помилок у групі (наприклад, авторегресивна); lme4 не може цього зробити. Крім того, випадкові ефекти можуть бути виправлені або перекреслені в будь-якому пакеті, але набагато простіше (і обчислювально ефективніше) задавати та моделювати перекреслені випадкові ефекти в lme4.
Я б радив спочатку розглянути а) чи вам потрібна нелінійна модель, і б) чи вам потрібно буде вказати або дисперсійну структуру в межах групи, або кореляційні структури. Якщо будь-який з цих відповідей так, то вам доведеться використовувати nlme (враховуючи, що ви дотримуєтесь R). Якщо ви багато працюєте з лінійними моделями, які мають перекреслені випадкові ефекти або складні комбінації вкладених та схрещених випадкових ефектів, то lme4, мабуть, кращий вибір. Можливо, вам доведеться навчитися використовувати обидва пакети. Спочатку я дізнався lme4, а потім зрозумів, що мені потрібно використовувати nlme, оскільки я майже завжди працюю з авторегресивними структурами помилок. Однак я все ж віддаю перевагу lme4, коли аналізую дані експериментів зі схрещеними факторами. Хороша новина полягає в тому, що багато чого з того, що я дізнався про lme4, добре перейшло до nlme. У будь-якому випадку,
Список літератури
Pinheiro, JC, & Bates, DM (2000). Моделі зі змішаними ефектами в S і S-PLUS . Нью-Йорк: Спрингер-Верлаг.