Запитання з тегом «least-squares»

Посилається на загальну техніку оцінки, яка вибирає значення параметра, щоб мінімізувати різницю в квадраті між двома величинами, такими як спостережуване значення змінної, і очікуваним значенням цього спостереження, обумовленим значенням параметра. Лінійні моделі Гаусса відповідають розмірам найменших квадратів, а найменших квадратів - ідея, що лежить в основі використання середньої квадратичної помилки (MSE) як способу оцінки оцінювача.

3
Корисність теореми Фріш-Ва
Я повинен викладати теорему Фріша Во з економетрики, яку я не вивчав. Я зрозумів математику, яка стоїть за ним, і я сподіваюся, що ідея "коефіцієнт, який ви отримуєте для конкретного коефіцієнта з декількох лінійних моделей, дорівнює коефіцієнту простої регресійної моделі, якщо ви" усунете "вплив інших регресорів". Тож теоретична ідея є …

2
Функції впливу та OLS
Я намагаюся зрозуміти, як працюють функції впливу. Чи може хтось пояснити в контексті простої регресії OLS yi=α+β⋅xi+εiyi=α+β⋅xi+εi\begin{equation} y_i = \alpha + \beta \cdot x_i + \varepsilon_i \end{equation} де я хочу функцію впливу для .ββ\beta

4
Чому ? (Одна змінна лінійна регресія)
Примітка: SSTSSTSST = сума квадратів Всього, = сума помилок у квадраті , і = сума регресії квадратів. Рівняння в заголовку часто записується як:SSESSESSESSRSSRSSR ∑i=1n(yi−y¯)2=∑i=1n(yi−y^i)2+∑i=1n(y^i−y¯)2∑i=1n(yi−y¯)2=∑i=1n(yi−y^i)2+∑i=1n(y^i−y¯)2\sum_{i=1}^n (y_i-\bar y)^2=\sum_{i=1}^n (y_i-\hat y_i)^2+\sum_{i=1}^n (\hat y_i-\bar y)^2 Досить просте запитання, але я шукаю інтуїтивне пояснення. Інтуїтивно мені здається, що мав би більше сенсу. Наприклад, припустімо, що …

3
Припущення для отримання оцінки OLS
Чи може хтось коротко пояснити для мене, чому кожне з шести припущень потрібне для обчислення оцінки ОЛС? Я дізнався лише про мультиколінеарність - що якщо вона існує, ми не можемо інвертувати (X'X) матрицю і, в свою чергу, оцінити загальний оцінювач. А як щодо інших (наприклад, лінійність, нульові середні помилки тощо)?

1
R-квадрат у лінійній моделі віршів відхилення в узагальненій лінійній моделі?
Ось мій контекст щодо цього питання: З того, що я можу сказати, ми не можемо виконати звичайну регресію найменших квадратів у R при використанні зважених даних та surveyпакету. Тут ми маємо використовувати svyglm(), яка замість цього виконує узагальнену лінійну модель (яка може бути одне і те саме? Я тут нечіткий …


1
Як NumPy вирішує найменші квадрати для недостатньо визначених систем?
Скажімо, у нас є X форми (2, 5) і y форми (2,) Це працює: np.linalg.lstsq(X, y) Ми очікуємо, що це спрацює лише в тому випадку, якщо X має форму (N, 5), де N> = 5 Але чому і як? Ми отримуємо назад 5 ваг, як очікувалося, але як вирішується ця …

4
Яка / механічна різниця між множинною лінійною регресією із лагами та часовими рядами?
Я випускник бізнесу та економіки, який зараз навчається на ступінь магістра з інженерії даних. Під час вивчення лінійної регресії (LR), а потім аналізу часових рядів (TS) у мене в голові з’явилося запитання. Навіщо створювати абсолютно новий метод, тобто часовий ряд (ARIMA), замість того, щоб використовувати кілька лінійних регресій і додавати …

3
Виконайте лінійну регресію, але змушуйте рішення пройти через деякі конкретні точки даних
Я знаю, як виконати лінійну регресію на множині точок. Тобто я знаю, як поліном, який я обрав, до заданого набору даних (у значенні LSE). Однак те, що я не знаю, - це як змусити моє рішення пройти певні конкретні моменти мого вибору. Я бачив, як це робилося раніше, але я …

6
Лінійна регресія, коли Y обмежена і дискретна
Питання просте: Чи доцільно використовувати лінійну регресію, коли Y обмежена і дискретна (наприклад, тестовий бал 1 ~ 100, деякий заздалегідь визначений рейтинг 1 ~ 17)? У цьому випадку, чи "не добре" використовувати лінійну регресію, або цілком неправильно її використовувати?

3
Чому існують великі коефіцієнти для поліномів вищого порядку
У книзі Бішопа про машинне навчання він обговорює проблему притаманння кривої функції полінома до набору точок даних. Нехай M - порядок встановленого многочлена. У ньому йдеться про те Ми бачимо, що по мірі збільшення М величина коефіцієнтів зазвичай збільшується. Зокрема, для многочлена M = 9 коефіцієнти стали точно налаштовані на …

3
Лінійна регресія: будь-який ненормальний розподіл, що дає тотожність OLS та MLE?
Це питання викликане довгим обговоренням у коментарях тут: Як лінійна регресія використовує нормальний розподіл? У звичайній лінійної регресійної моделі, для простоти тут написана тільки один провісник: Yi= β0+ β1хi+ ϵiYi=β0+β1xi+ϵi Y_i = \beta_0 + \beta_1 x_i + \epsilon_i , де хixix_i відомі константи і & ϵiϵi\epsilon_i дорівнюють нулю, середні незалежні …

3
Чому слід
У моделі ми могли б оцінити за допомогою звичайного рівняння:y=Xβ+ϵy=Xβ+ϵ{y} = X \beta + \epsilonββ\beta у =Х β .β^=(X′X)−1X′y,β^=(X′X)−1X′y,\hat{\beta} = (X'X)^{-1}X'y, і ми могли б отриматиy^=Xβ^.y^=Xβ^.\hat{y} = X \hat{\beta}. Вектор залишків оцінюється за ϵ^=y−Xβ^=(I−X(X′X)−1X′)y=Qy=Q(Xβ+ϵ)=Qϵ,ϵ^=y−Xβ^=(I−X(X′X)−1X′)y=Qy=Q(Xβ+ϵ)=Qϵ,\hat{\epsilon} = y - X \hat{\beta} = (I - X (X'X)^{-1} X') y = Q y = …

1
Використання MLE проти OLS
Коли краще використовувати максимальну оцінку ймовірності замість звичайних найменших квадратів? Які сильні та обмежені сторони кожного? Я намагаюся зібрати практичні знання про те, де їх використовувати в загальних ситуаціях.

1
Чи придатні стандартні помилки та інтервали довіри при регресіях, де припущення гомоскедастичності порушено?
Якщо в стандартних регресіях OLS два припущення порушені (нормальний розподіл помилок, гомоскедастичність), чи є завантаження стандартних помилок та довірчих інтервалів підходящою альтернативою для досягнення значущих результатів щодо значущості коефіцієнтів регресору? Чи все ще "працюють" тести на значущість із завантаженими стандартними помилками та довірчими інтервалами з гетероскедастичністю? Якщо так, то які …

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.