Існує кілька альтернатив покрокової регресії . Найбільш використовувані я бачив:
- Експертна думка для вирішення, які змінні включати до моделі.
- Часткова регресія найменших квадратів . Ви по суті отримуєте приховані змінні та регресуєте з ними. Ви також можете зробити PCA самостійно, а потім використовувати основні змінні.
- Оператор найменшої абсолютної усадки та вибору (LASSO).
І PLS Regression, і LASSO реалізовані в R-пакетах
PLS : http://cran.r-project.org/web/packages/pls/ і
ЛАРС : http://cran.r-project.org/web/packages/lars/index.html
Якщо ви хочете лише вивчити взаємозв'язок між залежною змінною та незалежними змінними (наприклад, вам не потрібні тести на статистичну значимість), я також рекомендую методи машинного навчання, такі як випадкові ліси або дерева класифікації / регресії . Випадкові ліси також можуть наближати складні нелінійні зв’язки між вашими залежними та незалежними змінними, які, можливо, не були виявлені лінійними методами (наприклад, лінійна регресія ).
Гарною відправною точкою для машинного навчання може стати погляд на завдання машинного навчання на CRAN:
Перегляд завдань машинного навчання : http://cran.r-project.org/web/views/MachineLearning.html