Запитання з тегом «steins-phenomenon»

Феномен (парадокс) Штейна стверджує, що коли одночасно оцінюється три або більше параметрів, то є більш точні оцінки, ніж середнє значення для всіх спостережень.

5
Єдиний погляд на усадку: яке співвідношення (якщо воно є) між парадоксом Штейна, регресією хребта та випадковими ефектами у змішаних моделях?
Розглянемо наступні три явища. Парадокс Штейна: з огляду на деякі дані багатовимірного нормального розподілу в , середнє значення вибірки не є дуже хорошим оцінником справжнього середнього. Оцінку можна отримати з нижньою середньою помилкою у квадраті, якщо зменшити всі координати середнього зразка у напрямку до нуля [або до їх середнього значення, …

2
Інтуїція, чому парадокс Штейна застосовується лише в розмірах
Приклад Штейна показує, що максимальна оцінка ймовірності nnn нормально розподілених змінних із значеннями μ1,…,μnμ1,…,μn\mu_1,\ldots,\mu_n та дисперсіями 111 є неприпустимою (за функцією квадратних втрат) iff n≥3n≥3n\ge 3 . Для чіткого доказу дивіться першу главу великомасштабного умовиводу: Емпіричні методи Байєса для оцінки, тестування та прогнозування Бредлі Ефрона. x∼N(μ,1)x∼N(μ,1)x \sim \mathcal N(\mu,1)E∥x∥2≈∥μ∥2+nE‖x‖2≈‖μ‖2+n\mathbb{E}\|x\|^2\approx \|\mu\|^2+n …

1
Чи зберігається парадокс Стейна, коли використовується норма замість норми ?
Парадокс Штейна показує, що коли оцінюються одночасно три чи більше параметрів, існують комбіновані оцінки в середньому точніші (тобто мають нижчу очікувану середню квадратичну помилку), ніж будь-який метод, який обробляє параметри окремо. Це дуже контрінтуїтивний результат. Чи є той самий результат, якщо замість норми (очікувана середня помилка у квадраті) ми використовуємо …

4
Які правильні значення для точності та відкликання у кращих випадках?
Точність визначається як: p = true positives / (true positives + false positives) Чи правильно, що як true positivesі false positivesпідхід 0, точність наближається до 1? Те саме запитання для відкликання: r = true positives / (true positives + false negatives) Зараз я впроваджую статистичний тест, де мені потрібно обчислити …
20 precision-recall  data-visualization  logarithm  references  r  networks  data-visualization  standard-deviation  probability  binomial  negative-binomial  r  categorical-data  aggregation  plyr  survival  python  regression  r  t-test  bayesian  logistic  data-transformation  confidence-interval  t-test  interpretation  distributions  data-visualization  pca  genetics  r  finance  maximum  probability  standard-deviation  probability  r  information-theory  references  computational-statistics  computing  references  engineering-statistics  t-test  hypothesis-testing  independence  definition  r  censoring  negative-binomial  poisson-distribution  variance  mixed-model  correlation  intraclass-correlation  aggregation  interpretation  effect-size  hypothesis-testing  goodness-of-fit  normality-assumption  small-sample  distributions  regression  normality-assumption  t-test  anova  confidence-interval  z-statistic  finance  hypothesis-testing  mean  model-selection  information-geometry  bayesian  frequentist  terminology  type-i-and-ii-errors  cross-validation  smoothing  splines  data-transformation  normality-assumption  variance-stabilizing  r  spss  stata  python  correlation  logistic  logit  link-function  regression  predictor  pca  factor-analysis  r  bayesian  maximum-likelihood  mcmc  conditional-probability  statistical-significance  chi-squared  proportion  estimation  error  shrinkage  application  steins-phenomenon 

1
Чому оцінку Джеймса-Штейна називають оцінкою "усадки"?
Я читав про оцінку Джеймса-Штейна. У цій примітці вона визначена як θ^= ( 1 - р - 2∥ X∥2) Xθ^=(1-p-2‖Х‖2)Х \hat{\theta}=\left(1 - \frac{p-2}{\|X\|^2}\right)X Я прочитав доказ, але не розумію наступного твердження: Геометрично оцінювач Джеймса – Штейна зменшує кожну складову напрямку походження ...ХХX Що саме означає "скорочення кожного компонента ХХX до …

2
Оцінювач Джеймса-Штейна: Як Ефрон та Морріс обчислили в коефіцієнті усадки для їх прикладу бейсболу?
У мене виникає питання щодо обчислення коефіцієнта усадки Джеймса-Штейна в науковому американському документі Бредлі Ефрона та Карла Морріса 1977 року, "Парадокс Штейна в статистиці" . Я зібрав дані для бейсболістів, і вони наведені нижче: Name, avg45, avgSeason Clemente, 0.400, 0.346 Robinson, 0.378, 0.298 Howard, 0.356, 0.276 Johnstone, 0.333, 0.222 Berry, …

5
Усадка Джеймса-Штейна "в дикій природі"?
Мене сприймає ідея усадки Джеймса-Штейна (тобто, що нелінійна функція одного спостереження за вектором, можливо, незалежних нормалей може бути кращим оцінником засобів випадкових величин, де «краще» вимірюється квадратичною помилкою ). Однак я ніколи не бачив цього в прикладній роботі. Ясно, що я недостатньо добре читаю. Чи є класичні приклади, коли Джеймс-Штейн …

1
Чи існує зв’язок між емпіричним Байесом та випадковими ефектами?
Нещодавно мені траплялося читати про емпіричний Байєс (Casella, 1985, Вступ до емпіричного аналізу даних Байєса), і це виглядало дуже як модель випадкових ефектів; в тому, що обидві мають оцінки, зменшені до середнього значення. Але я не читав це наскрізь ... Хтось має уявлення про схожість та відмінності між ними?

1
Оцінювач Джеймса-Штейна з неоднаковими варіаціями
Кожне твердження, що я знаходжу оцінника Джеймса-Штейна, передбачає, що випадкові змінні, що оцінюються, мають однакову (і одиничну) дисперсію. Але всі ці приклади також згадують, що оцінювач JS може бути використаний для оцінки величин, що не мають нічого спільного. Приклад вікіпедії - швидкість світла, споживання чаю на Тайвані та вага свиней …
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.