Запитання з тегом «least-squares»

Посилається на загальну техніку оцінки, яка вибирає значення параметра, щоб мінімізувати різницю в квадраті між двома величинами, такими як спостережуване значення змінної, і очікуваним значенням цього спостереження, обумовленим значенням параметра. Лінійні моделі Гаусса відповідають розмірам найменших квадратів, а найменших квадратів - ідея, що лежить в основі використання середньої квадратичної помилки (MSE) як способу оцінки оцінювача.

4
Чому звичайні найменші квадрати працюють краще, ніж пуассонова регресія?
Я намагаюся вписати регресію, щоб пояснити кількість вбивств у кожному районі міста. Хоча я знаю, що мої дані слідують за розповсюдженням Пуассона, я намагався встановити OLS так: log(y+1)=α+βX+ϵlog(y+1)=α+βX+ϵlog(y+1) = \alpha + \beta X + \epsilon Потім я також спробував (звичайно!) Регресію Пуассона. Проблема полягає в тому, що я маю кращі …

1
Доказ формули LOOCV
Зі вступу до статистичного навчання Джеймса та ін., Оцінка одноразової перехресної валідації (LOOCV) визначається де .CV(n)=1n∑i=1nMSEiCV(n)=1n∑i=1nMSEi\text{CV}_{(n)} = \dfrac{1}{n}\sum\limits_{i=1}^{n}\text{MSE}_iMSEi=(yi−y^i)2MSEi=(yi−y^i)2\text{MSE}_i = (y_i-\hat{y}_i)^2 Без доказу рівняння (5.2) зазначає, що для найменших квадратів або поліноміальної регресії (чи стосується це регресія лише на одній змінній мені невідомо), де " є й встроенна значення з початкових …

1
MLE проти найменших квадратів у примірному розподілі ймовірностей
Враження, яке я склав, грунтуючись на кількох прочитаних нами працях, книгах та статтях, полягає в тому, що рекомендований спосіб встановлення розподілу ймовірностей на набір даних - це використання максимальної оцінки ймовірності (MLE). Однак, як фізик, більш інтуїтивно зрозумілим способом є просто пристосування pdf моделі до емпіричного pdf даних, використовуючи найменші …

3
Чому б не використати «звичайні рівняння», щоб знайти прості найменші коефіцієнти квадратів?
Я побачив цей список тут і не міг повірити, що існує стільки способів вирішити найменші квадрати. «Нормальні рівняння» на Вікіпедії , здавалося, досить прямим α^β^=y¯−β^x¯,=∑ni=1(xi−x¯)(yi−y¯)∑ni=1(xi−x¯)2α^=y¯−β^x¯,β^=∑i=1n(xi−x¯)(yi−y¯)∑i=1n(xi−x¯)2 {\displaystyle {\begin{aligned}{\hat {\alpha }}&={\bar {y}}-{\hat {\beta }}\,{\bar {x}},\\{\hat {\beta }}&={\frac {\sum _{i=1}^{n}(x_{i}-{\bar {x}})(y_{i}-{\bar {y}})}{\sum _{i=1}^{n}(x_{i}-{\bar {x}})^{2}}}\end{aligned}}} То чому б просто не використовувати їх? Я припускав, …

1
Опущені змінні зміщення в логістичній регресії порівняно з опущеними змінними зміщеннями в звичайній регресії найменших квадратів
У мене є питання про опущені змінні зміщення в логістичній та лінійній регресії. Скажімо, я опускаю деякі змінні з лінійної регресійної моделі. Прикиньте, що ці опущені змінні не співвідносяться зі змінними, які я включив у свою модель. Ці опущені змінні не зміщують коефіцієнтів у моїй моделі. Але в рамках логістичної …

4
Яка залежність між
Мені було цікаво, чи існує зв’язок між та F-тестом.R2R2R^2 Як правило , R2=∑(Y^t−Y¯)2/T−1∑(Yt−Y¯)2/T−1R2=∑(Y^t−Y¯)2/T−1∑(Yt−Y¯)2/T−1R^2=\frac {\sum (\hat Y_t - \bar Y)^2 / T-1} {\sum( Y_t - \bar Y)^2 / T-1} і вимірює силу лінійної залежності в регресії. F-тест просто доводить гіпотезу. Чи існує взаємозв'язок між R2R2R^2 і F-тестом?

1
Зворотна регресія хребта: задавши матрицю відповіді та коефіцієнти регресії, знайдіть відповідні предиктори
Розглянемо стандартну проблему регресії OLS : У мене є матриці \ Y і \ X, і я хочу знайти \ B, щоб мінімізувати L = \ | \ Y- \ X \ B \ | ^ 2. Рішення задається \ hat \ B = \ argmin_ \ B \ {L …


1
Питання про те, як нормалізувати коефіцієнт регресії
Не впевнений, чи нормалізувати це правильне слово, яке тут вживають, але я постараюся зробити все можливе, щоб проілюструвати те, що я намагаюся запитати. Тут використаний оцінювач - найменше квадратів. Припустимо, у вас , ви можете зосереджувати його навколо середнього значення де і , так що більше не впливає на оцінку …

1
Визначення та конвергенція ітеративно обтяжених найменших квадратів
Я використовував ітеративно перезавантажені найменші квадрати (IRLS), щоб мінімізувати функції наступної форми, J(m)=∑Ni=1ρ(|xi−m|)J(m)=∑i=1Nρ(|xi−m|)J(m) = \sum_{i=1}^{N} \rho \left(\left| x_i - m \right|\right) де NNN - кількість екземплярів xi∈Rxi∈Rx_i \in \mathbb{R} , m∈Rm∈Rm \in \mathbb{R} є надійною оцінкою, яку я хочу, і ρρ\rho є відповідною надійною функцією покарання. Скажімо, вона опукла (хоча …

2
Заходи гетероскедастичності залишків
Це посилання на вікіпедію перераховує низку методів виявлення гетероскедастичності залишків OLS. Мені хотілося б дізнатися, яка практична методика є більш ефективною для виявлення регіонів, постраждалих від гетеросцедастичності. Наприклад, тут центральний регіон у сюжеті OLS «Залишки проти пристосованого» має більшу дисперсію, ніж сторони сюжету (я не зовсім впевнений у фактах, але …

2
Чому матриця проекцій ортогональної проекції симетрична?
Я зовсім новачок у цьому, тому сподіваюся, що ви пробачте мене, якщо питання буде наївним. (Контекст: я вивчаю економетрику з книги "Економетрична теорія та методи" Девідсона та МакКіннона , і, схоже, це не пояснюють; я також роздивився оптимізаційну книгу Луенбергера, яка займається прогнозами на трохи більш просунутому рівні, але без …

1
Чому ця регресія НЕ провалюється через ідеальну мультиколінеарність, хоча одна змінна є лінійною комбінацією інших?
Сьогодні я розігрувався з невеликим набором даних і здійснив просту регресію OLS, яка, як я очікувала, вийде з-за ідеальної мультиколінеарності. Однак цього не сталося. Це означає, що моє розуміння мультиколінеарності неправильне. Моє запитання: де я помиляюся? Я думаю, що можу показати, що одна з моїх змінних є лінійною комбінацією інших. …

1
Інші об'єктивні оцінки, ніж BLUE (рішення OLS) для лінійних моделей
Для лінійної моделі рішення OLS забезпечує найкращий лінійний неупереджений оцінювач параметрів. Звичайно, ми можемо торгувати ухилом для меншої дисперсії, наприклад, регресія хребта Але моє запитання стосується відсутності упередженості. Чи існують якісь загальноприйняті інші оцінки, які є неупередженими, але з більшою дисперсією, ніж оцінені параметри OLS? Якби у мене був величезний …

1
У мене лінійка найкраще підходить. Мені потрібні точки даних, які не змінять мою лінію найкращим чином
Я веду презентацію про примірні лінії. У мене проста лінійна функція, y=1x+by=1x+by=1x+b . Я намагаюся отримати розрізнені точки даних, які я можу розмістити в діаграмі розкидання, що дозволить моїй лінії найкраще відповідати тому ж рівнянню. Я хотів би вивчити цю техніку або в R, або в Excel - залежно від …

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.