Чому ми кажемо «Залишкова стандартна помилка»?


14

Стандартна помилка оцінне стандартне відхилення σ ( θ ) з оцінювання & thetas для параметра & thetas .σ^(θ^)θ^θ

Чому оцінене стандартне відхилення залишків називається "залишковою стандартною помилкою" (наприклад, у висновку функції R summary.lm), а не "залишковим стандартним відхиленням"? Яку оцінку параметрів ми тут оснащуємо стандартною помилкою?

Чи розглядаємо ми кожен залишок як оцінювач терміну помилки "його" і оцінюємо "об'єднану" стандартну помилку всіх цих оцінювачів?


6
Я думаю, що це R річ. Я не думаю, що інше програмне забезпечення обов'язково використовує те, що фразування та «залишкове стандартне відхилення» є поширеними в підручниках, наприклад. У мене немає відповіді, але я завжди вважав, що це дивно, що R використовує цю фразу.
gung - Відновіть Моніку

@gung: це могло бути пояснення! Під час гуглінгу "залишкової стандартної помилки" в лапках я отримую лише 0,1% звернень, ніж без лапок ...
Майкл М

Я б міг би поставити це як (не) відповідь, якщо ви хочете.
gung - Відновити Моніку

1
@gung Це смішно, як за допомогою конкретного програмного забезпечення формує своє мислення: я ніколи не називав би це "залишковим sd" - залишки - це не дані, а помилки, тому залишкова помилка, здається, є власною назвою. Але якщо ви задумаєтесь, це дійсно здається річчю.
Тім

2
@Tim, це може бути правильно вважати оцінкою стандартного відхилення помилок , але залишки технічно не є самими помилками. Також це не стандартна помилка SD помилки, для чого це варто.
gung - Відновіть Моніку

Відповіді:


12

Я думаю, що фразування є специфічним для summary.lm()виходу R. Зауважте, що базове значення насправді називається "sigma" ( summary.lm()$sigma). Я не думаю, що інше програмне забезпечення обов'язково використовує це ім'я для стандартного відхилення залишків. Крім того, наприклад, у підручниках є поширене фразування "залишкове стандартне відхилення". Я не знаю, як це стало фразуванням, використовуваним у summary.lm()висновку R , але я завжди думав, що це дивно.


Чим summary.lm(reg)$sigmaвідрізняється від sd(reg$residuals)?
авіаудар

3
@ AndréTerra, правильна ступінь свободи - n - p, для чого використовується резюме. sd використовує var, який використовує n - 1 ступінь свободи. Якщо ви вручну обчислите стандартне відхилення залишків, що ділиться на n - p, то ви отримаєте ту саму відповідь, що і резюме.
Ідув

3
Щоб підтвердити гунг, я навожу з документації R stats::sigma: Помилкова помилка «Залишкова стандартна помилка» була частиною занадто великої кількості виходів R (і S), щоб їх було легко змінити там.
NRH

2

З мого навчання економетриці це називається "залишкова стандартна помилка", оскільки це оцінка фактичного "залишкового стандартного відхилення". Дивіться відповідне питання, що підтверджує цю термінологію.

Пошук Google за терміном залишкової стандартної помилки також показує безліч звернень, тому це аж ніяк не дива. Я спробував обидва терміни з цитатами, і обидва з’являються приблизно в 60 000 разів.


Цікаво. Але чому б ви назвали оцінку стандартного відхилення будь-якої випадкової величини (наприклад, помилки, а не конкретного оцінника) "стандартною помилкою"?
Майкл М

Я думаю, що нам потрібно мати назву для оцінки (щоб відрізнити її від фактичної величини), будь-яке ім’я так само добре, як і інше. Але, безумовно, хтось більш обізнаний про етимологію може запропонувати кращу причину. Зауважимо, що виразно існує паралель із стандартною похибкою коефіцієнта, яка є оцінкою стандартного відхилення оцінки коефіцієнта.
Гейзенберг

0

Простіше кажучи, стандартна помилка вибірки - це оцінка того, наскільки середня вибірка, ймовірно, від середньої сукупності, тоді як стандартне відхилення вибірки - це ступінь, в якому особини в вибірці відрізняються від середньої вибірки.

Стандартна помилка - Вікіпедія, безкоштовна енциклопедія


6
Це правда, але насправді не відповідає на питання. Те, що R називає "залишковою стандартною помилкою", не є "оцінкою того, наскільки може бути середнє значення вибірки від середньої сукупності".
gung - Відновіть Моніку

0

Встановлена ​​модель регресії використовує параметри для генерування прогнозування точок оцінки, які є засобом спостережуваних відповідей, якщо ви нескінченну кількість разів повторювали дослідження з тими ж XX значеннями ( коли лінійна модель відповідає дійсності ).

Різниця між цими передбачуваними значеннями та тими, які використовуються для підгонки до моделі, називаються " Залишками ", які при реплікації процесу збору даних мають властивості випадкових змінних з 0 значенням. Потім спостережувані залишки використовуються для подальшої оцінки змінності цих значень та для оцінки розподілу вибірки параметрів.

Примітка:

Якщо залишкова стандартна похибка становить рівно 0, то модель ідеально підходить до даних (ймовірно, через перевиконання).

Якщо не може бути показано, що залишкова стандартна помилка суттєво відрізняється від мінливості безумовної відповіді, то є мало свідчень, які дозволяють припустити, що лінійна модель має будь-яку здатність прогнозування.

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.