Запитання з тегом «frequentist»

У частістському підході до висновку статистичні процедури оцінюються за їх ефективністю протягом гіпотетичного тривалого повторення процесу, який, як вважається, генерував дані.

6
Байєсівські та частофілістські інтерпретації ймовірності
Чи може хтось дати добру рентабельність відмінностей між байесівськими та частістськими підходами до ймовірності? З того, що я розумію: Подання часто відвідувачів полягає в тому, що дані є повторюваною випадковою вибіркою (випадковою змінною) із певною частотою / ймовірністю (яка визначається як відносна частота події, оскільки кількість випробувань наближається до нескінченності). …

5
Чи дбають працюючі статистики про різницю між частою і байєсівською висновками?
Як стороння людина, виявляється, що існує два конкуруючих погляди на те, як слід здійснювати статистичні умовиводи. Чи обидва ці методи вважаються дійсними діючими статистиками? Вибір одного вважається більше філософським питанням? Або нинішня ситуація вважається проблематичною і намагаються якось уніфікувати різні підходи?

5
Думайте, як байєсий, перевіряйте як частолюбиця: Що це означає?
Я дивлюся на деякі слайди лекцій з курсу інформатики, які можна знайти тут: https://github.com/cs109/2015/blob/master/Lectures/01-Introduction.pdf Я, на жаль, не можу побачити відео для цієї лекції, і в один момент на слайді ведучий має такий текст: Деякі основні принципи Думайте, як байєсий, переконайтесь, як часто лікар (примирення) Хтось знає, що це насправді …

8
Чи варто спочатку навчати байєсівській чи частолістській статистиці?
Я допомагаю своїм хлопцям, які зараз знаходяться в середній школі, розуміючи статистику, і я розглядаю початок з простих прикладів, не ігноруючи деякі погляди до теорії. Моєю метою було б дати їм найбільш інтуїтивний, але інструментально конструктивний підхід до вивчення статистики з нуля, щоб стимулювати їх інтерес до подальшої статистики та …

5
Що довірчі інтервали говорять про точність (якщо вона є)?
Morey et al (2015) стверджують, що інтервали довіри вводять в оману і є багато ухилів, пов'язаних з їх розумінням. Серед іншого вони описують точність помилок таким чином: Точність помилок Ширина довірчого інтервалу вказує на точність наших знань про параметр. Вузькі інтервали довіри показують точні знання, тоді як широкі довірчі помилки …

5
Як боротися з ієрархічними / вкладеними даними в машинному навчанні
Я поясню свою проблему на прикладі. Припустимо, ви хочете передбачити дохід фізичної особи за деякими ознаками: {Вік, стать, країна, регіон, місто}. У вас такий навчальний набір даних train <- data.frame(CountryID=c(1,1,1,1, 2,2,2,2, 3,3,3,3), RegionID=c(1,1,1,2, 3,3,4,4, 5,5,5,5), CityID=c(1,1,2,3, 4,5,6,6, 7,7,7,8), Age=c(23,48,62,63, 25,41,45,19, 37,41,31,50), Gender=factor(c("M","F","M","F", "M","F","M","F", "F","F","F","M")), Income=c(31,42,71,65, 50,51,101,38, 47,50,55,23)) train CountryID RegionID …
29 regression  machine-learning  multilevel-analysis  correlation  dataset  spatial  paired-comparisons  cross-correlation  clustering  aic  bic  dependent-variable  k-means  mean  standard-error  measurement-error  errors-in-variables  regression  multiple-regression  pca  linear-model  dimensionality-reduction  machine-learning  neural-networks  deep-learning  conv-neural-network  computer-vision  clustering  spss  r  weighted-data  wilcoxon-signed-rank  bayesian  hierarchical-bayesian  bugs  stan  distributions  categorical-data  variance  ecology  r  survival  regression  r-squared  descriptive-statistics  cross-section  maximum-likelihood  factor-analysis  likert  r  multiple-imputation  propensity-scores  distributions  t-test  logit  probit  z-test  confidence-interval  poisson-distribution  deep-learning  conv-neural-network  residual-networks  r  survey  wilcoxon-mann-whitney  ranking  kruskal-wallis  bias  loss-functions  frequentist  decision-theory  risk  machine-learning  distributions  normal-distribution  multivariate-analysis  inference  dataset  factor-analysis  survey  multilevel-analysis  clinical-trials 


3
Чи є якась різниця між частотологом і байесівським щодо визначення ймовірності?
Деякі джерела кажуть, що ймовірність функції не є умовною ймовірністю, деякі кажуть, що вона є. Це дуже бентежить мене. Згідно з більшістю джерел, які я бачив, вірогідність розподілу з параметром θθ\theta повинна бути добутком функцій масової ймовірності, заданих nnn зразками xixix_i : L(θ)=L(x1,x2,...,xn;θ)=∏i=1np(xi;θ)L(θ)=L(x1,x2,...,xn;θ)=∏i=1np(xi;θ)L(\theta) = L(x_1,x_2,...,x_n;\theta) = \prod_{i=1}^n p(x_i;\theta) Наприклад, у …

4
Які правильні значення для точності та відкликання у кращих випадках?
Точність визначається як: p = true positives / (true positives + false positives) Чи правильно, що як true positivesі false positivesпідхід 0, точність наближається до 1? Те саме запитання для відкликання: r = true positives / (true positives + false negatives) Зараз я впроваджую статистичний тест, де мені потрібно обчислити …
20 precision-recall  data-visualization  logarithm  references  r  networks  data-visualization  standard-deviation  probability  binomial  negative-binomial  r  categorical-data  aggregation  plyr  survival  python  regression  r  t-test  bayesian  logistic  data-transformation  confidence-interval  t-test  interpretation  distributions  data-visualization  pca  genetics  r  finance  maximum  probability  standard-deviation  probability  r  information-theory  references  computational-statistics  computing  references  engineering-statistics  t-test  hypothesis-testing  independence  definition  r  censoring  negative-binomial  poisson-distribution  variance  mixed-model  correlation  intraclass-correlation  aggregation  interpretation  effect-size  hypothesis-testing  goodness-of-fit  normality-assumption  small-sample  distributions  regression  normality-assumption  t-test  anova  confidence-interval  z-statistic  finance  hypothesis-testing  mean  model-selection  information-geometry  bayesian  frequentist  terminology  type-i-and-ii-errors  cross-validation  smoothing  splines  data-transformation  normality-assumption  variance-stabilizing  r  spss  stata  python  correlation  logistic  logit  link-function  regression  predictor  pca  factor-analysis  r  bayesian  maximum-likelihood  mcmc  conditional-probability  statistical-significance  chi-squared  proportion  estimation  error  shrinkage  application  steins-phenomenon 

5
Коли можна використовувати критерії, засновані на даних, для визначення моделі регресії?
Я чув, що коли багато специфікацій регресійної моделі (скажімо, в OLS) розглядаються як можливості для набору даних, це спричиняє багаторазові проблеми порівняння, а значення p та значення інтервалів вже не є надійними. Одним з крайніх прикладів цього є покрокова регресія. Коли я можу використовувати самі дані для уточнення моделі, а …

2
Що таке / є неявними пріоритетами у частотистській статистиці?
Я чув почуття, що Джейнес стверджує, що лікарі-оператори працюють з "неявним попереднім". Що це або є ці неявні пріори? Чи означає це, що періодичні моделі - це все особливі випадки байєсівських моделей, які чекають їх пошуку?

2
Чому саме оцінка максимальної вірогідності вважається частою методикою
Статистична статистика для мене є синонімом для спроб прийняти рішення, яке підходить для всіх можливих вибірок. Тобто, правило частого прийняття рішення завжди повинне намагатися мінімізувати ризик , що залежить від функції втрати та справжнього стану природи :δδ\deltaLLLθ0θ0\theta_0 Rfr e q= Еθ0( L ( θ0, δ( Y) )Rfrеq=Еθ0(L(θ0,δ(Y))R_\mathrm{freq}=\mathbb{E}_{\theta_0}(L(\theta_0,\delta(Y)) Як максимальна ймовірність …

2
Якщо принцип ймовірності зіткнеться з частою частотою ймовірності, тоді ми відкинемо одну з них?
У коментарі, нещодавно опублікованому тут, один із коментаторів вказав на блог Ларрі Вассермана, який зазначає (без жодних джерел), що частота виводки суперечить принципу ймовірності. Принцип ймовірності просто говорить, що експерименти, що дають подібні функції ймовірності, повинні давати аналогічні умовиводи. Дві частини цього питання: Які частини, аромат чи школа частого виведення …

3
Чи справді байєсівська статистика є поліпшенням порівняно з традиційною (частою) статистикою для поведінкових досліджень?
Під час відвідування конференцій прихильники байєсівської статистики мали певний поштовх для оцінки результатів експериментів. Він оцінюється як більш чутливий, відповідний та вибірковий щодо справжніх висновків (менше помилкових позитивних результатів), ніж частофілістська статистика. Я дещо дослідив цю тему, і поки що я не переконаний у користі використання байєсівської статистики. Байесівські аналізи …

4
Коли Баєсові методи переважніші перед частотологами?
Мені дуже хочеться дізнатися про байєсівські методики, тому я намагався трохи навчити себе. Однак мені важко бачити, коли використання байєсівських методів коли-небудь надає перевагу перед частотологічними методами. Наприклад: Я бачив у літературі трохи про те, як одні використовують інформативні пріори, тоді як інші використовують неінформативні попередні. Але якщо ви використовуєте …

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.