Прочитавши розділ 3 в Елементах статистичного навчання (Хасті, Тібшрани та Фрідман), я задумався, чи можна реалізувати відомі методи усадки, які цитуються у назві цього питання, з урахуванням структури коваріації, тобто мінімізувати (можливо, більш загальне ) кількість
замість звичайного Це в основному мотивувалося тим, що в моїй конкретній заявці у нас є різні відхилення для (а іноді навіть коваріаційної структури, яку можна оцінити), і я хотів би включити їх у регресії. Я зробив це для регресії хребта: принаймні при моїй реалізації цього в Python / C я бачу, що в шляхах є важливі відмінності, за якими простежуються коефіцієнти, що також помітно при порівнянні кривих перехресних перевірок в обох випадках.→ у
Зараз я готувався спробувати реалізувати LASSO за допомогою найменшого кута регресії, але для цього я повинен спершу довести, що всі його приємні властивості все-таки дійсні при мінімізації замість . Поки що я не бачив жодної роботи, яка насправді все це робить, але деякий час тому я також прочитав цитату, яка сказала щось на кшталт " ті, хто не знає статистики, приречені наново її розкриття " (можливо, Бред Ефрон? ), тож ось чому я запитую тут спочатку (враховуючи, що я відносно новачок у статистичній літературі): це вже десь зроблено для цих моделей? Чи реалізована вона якось у R? (включаючи рішення та реалізацію гребеня шляхом мінімізації замість , що ж реалізовано в коді lm.ridge в R)?
Заздалегідь дякую за відповіді!