Запитання з тегом «bias»

Різниця між очікуваним значенням оцінки параметра та справжнім значенням параметра. НЕ використовуйте цей тег для позначення [упередженого терміна] / [перемикання-вузол] (тобто [перехоплення]).

1
Яка різниця між асимптотичною неупередженістю та послідовністю?
Чи має на увазі кожен другий? Якщо ні, то один означає інший? Чому / чому ні? Це питання виникло у відповідь на коментар до відповіді, яку я розмістив тут . Хоча пошук Google у відповідних термінах не дав нічого корисного, я помітив відповідь на зміну математики. Однак я вважав, що …

2
Ухил у середньому віці для кваліфікації звання гросмайстра за віковими групами?
Вже досить давно відомо, що наймолодший вік, в якому шахісти зуміли отримати право на титул гросмейстера, значно зменшився з 1950-х років, і наразі майже 30 гравців, які стали гросмейстером до свого 15-го дня народження . Однак на біржі шахових стеків виникає питання, який середній вік, щоб стати гросмейстером? . Хтось …

2
Оцінювач Байєса несприйнятливий до вибору зміщення
Чи оцінювачі Байєса несприйнятливі до зміщення відбору? Більшість статей, в яких обговорюється оцінка високої розмірності, наприклад, дані про цілі послідовності геномів, часто порушують питання зміщення селекції. Відхилення відбору випливають з того, що, хоча у нас є тисячі потенційних прогнозів, буде вибрано лише декілька, і на декількох вибраних буде зроблено висновок. …

1
Як інструментальні змінні вирішують зміщення вибору?
Мені цікаво, як інструментальна змінна розглядає зміщення вибору в регресії. Ось приклад я жував: У основному нешкідлива Економетрика , автори обговорюють внутрішньовенну регресію , що відноситься до військової служби і прибув пізніше в житті. Питання полягає в тому, "Чи збільшується чи зменшується майбутня прибутковість в армії?" Вони досліджують це питання …

4
Чи є тест на опущені змінні зміщення в OLS?
Мені відомо тест Ramset Reset, який може виявити нелінійні залежності. Однак якщо ви просто викинете один з коефіцієнтів регресії (просто лінійні залежності), ви можете отримати зміщення, залежно від кореляцій. Очевидно, тест Скидання не виявляється. Я не знайшов тест для цього випадку, але це твердження: "Ви не можете перевірити OVB, крім …

2
Чому мішковане / випадкове лісове дерево має більший ухил, ніж одне дерево рішень?
Якщо ми розглянемо повне вирощене дерево рішень (тобто дерево без рішення), воно має велику дисперсію та низький ухил. Баггінг та випадкові ліси використовують ці моделі з високою дисперсією та агрегують їх, щоб зменшити дисперсію та, таким чином, підвищити точність прогнозування. І Baging, і випадкові ліси використовують вибірку Bootstrap, і як …

2
Плюси і мінуси завантаження
Щойно я дізнався про концепцію завантажувального завантаження, і надумалося наївне запитання: якщо ми завжди можемо генерувати численні зразки завантажувальних даних з наших даних, навіщо взагалі турбуватися отримувати більше "реальних" даних? Я думаю, що у мене є пояснення, будь ласка, скажіть мені, чи я прав: я думаю, що процес завантаження зменшує …

3
Чому оцінювач OLS коефіцієнта AR (1) упереджений?
Я намагаюся зрозуміти, чому OLS дає необ’єктивну оцінку процесу AR (1). Розглянемо У цій моделі порушена сувора екзогенність, тобто та співвідносяться, але та є некорельованими. Але якщо це правда, то чому не виконується наступне просте виведення? утϵт= α + βуt - 1+ϵт,∼я i dN( 0 , 1 ) .yt=α+βyt−1+ϵt,ϵt∼iidN(0,1). \begin{aligned} …

4
Як можна пояснити, що є неупередженим оцінювачем для лайперсона?
Припустимо, є неупередженим оцінювачем для . Тоді звичайно, . ; & thetasE[ & thetas ; |thetas]=thetasθ^θ^\hat{\theta}θθ\thetaЕ [ θ^∣ θ ] = θE[θ^∣θ]=θ\mathbb{E}[\hat{\theta} \mid \theta] = \theta Як пояснити це лайперсону? У минулому я вже говорив, що якщо ви середньо оцінюєте купу значень , оскільки розмір вибірки збільшується, ви отримуєте кращу …

3
Чому в резюме оцінюється тестова помилка Недооцінка фактичної помилки тесту?
Наскільки я розумію, що оцінка перехресної перевірки k-кратної помилки тесту зазвичай недооцінює фактичну помилку тесту. Я розгублений, чому це так. Я бачу, чому помилка навчання зазвичай нижча, ніж помилка тесту - адже ви тренуєте модель за тими самими даними, на яких ви оцінюєте помилку! Але це не так для перехресної …

2
Чи зміщення є властивістю оцінювача чи конкретних оцінок?
Як приклад, я часто зустрічаю студентів, які знають, що спостережуване є упередженим оцінювачем населення . Потім, пишучи свої звіти, вони говорять про такі речі:R2R2R^2R2R2R^2 "Я обчислив спостережувані та скориговані , і вони були досить схожими, що передбачає лише невелику кількість зміщення в отриманому нами значення спостережуваного ".R2R2R^2R2R2R^2R2R2R^2 Я розумію, що, …

1
Завантажувальна програма: оцінка знаходиться за межами довірчого інтервалу
Я робив завантажувальну роботу зі змішаною моделлю (кілька змінних з взаємодією та одна випадкова величина). Я отримав цей результат (лише частковий): > boot_out ORDINARY NONPARAMETRIC BOOTSTRAP Call: boot(data = a001a1, statistic = bootReg, R = 1000) Bootstrap Statistics : original bias std. error t1* 4.887383e+01 -1.677061e+00 4.362948e-01 t2* 3.066825e+01 1.264024e+00 …

1
Як оцінювач, що мінімізує зважену суму квадратичного зміщення та дисперсії, вписується в теорію рішення?
Гаразд - моє оригінальне повідомлення не вдалося отримати відповідь; так, дозвольте мені поставити питання по-іншому. Почну з пояснення свого розуміння оцінки з теоретичної точки зору рішення. Я не маю жодної формальної підготовки, і це не здивувало б мене, якщо моє мислення якимось чином має помилки. Припустимо, у нас є деяка …

1
Упередження оцінок максимальної ймовірності для логістичної регресії
Я хотів би зрозуміти пару фактів щодо максимальної оцінки ймовірності (MLE) для логістичних регресій. Чи правда, що загалом MLE для логістичної регресії є упередженим? Я б сказав «так». Я знаю, наприклад, що розмір вибірки пов'язаний з асимптотичним зміщенням MLE. Чи знаєте ви якісь елементарні приклади цього явища? Якщо MLE упереджений, …

2
Декомпозиція дисперсії зміщення: термін для очікуваної помилки прогнозу в квадраті за вирахуванням помилки
Хасті та ін. "Елементи статистичного навчання" (2009) розглядають процес формування даних Y= f( X) + εY=f(X)+ε Y = f(X) + \varepsilon з E (ε)=0E(ε)=0\mathbb{E}(\varepsilon)=0 і Var ( ε ) =σ2εVar(ε)=σε2\text{Var}(\varepsilon)=\sigma^2_{\varepsilon}. Вони представляють наступне розмежування дисперсійної дисперсії очікуваної помилки прогнозу в квадраті в точці х0x0x_0 (с. 223, формула 7.9): Помилка (х0)= …

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.