Запитання з тегом «information-geometry»

4
Які правильні значення для точності та відкликання у кращих випадках?
Точність визначається як: p = true positives / (true positives + false positives) Чи правильно, що як true positivesі false positivesпідхід 0, точність наближається до 1? Те саме запитання для відкликання: r = true positives / (true positives + false negatives) Зараз я впроваджую статистичний тест, де мені потрібно обчислити …
20 precision-recall  data-visualization  logarithm  references  r  networks  data-visualization  standard-deviation  probability  binomial  negative-binomial  r  categorical-data  aggregation  plyr  survival  python  regression  r  t-test  bayesian  logistic  data-transformation  confidence-interval  t-test  interpretation  distributions  data-visualization  pca  genetics  r  finance  maximum  probability  standard-deviation  probability  r  information-theory  references  computational-statistics  computing  references  engineering-statistics  t-test  hypothesis-testing  independence  definition  r  censoring  negative-binomial  poisson-distribution  variance  mixed-model  correlation  intraclass-correlation  aggregation  interpretation  effect-size  hypothesis-testing  goodness-of-fit  normality-assumption  small-sample  distributions  regression  normality-assumption  t-test  anova  confidence-interval  z-statistic  finance  hypothesis-testing  mean  model-selection  information-geometry  bayesian  frequentist  terminology  type-i-and-ii-errors  cross-validation  smoothing  splines  data-transformation  normality-assumption  variance-stabilizing  r  spss  stata  python  correlation  logistic  logit  link-function  regression  predictor  pca  factor-analysis  r  bayesian  maximum-likelihood  mcmc  conditional-probability  statistical-significance  chi-squared  proportion  estimation  error  shrinkage  application  steins-phenomenon 

3
Чи має диференціальна геометрія щось спільне зі статистикою?
Я займаюся майстром статистики і мені рекомендують вивчити диференційну геометрію. Мені було б щасливіше почути про статистичні програми для диференціальної геометрії, оскільки це зробило б мене мотивацією. Хтось знає програми для диференціальної геометрії в статистиці?

4
Питання щодо розбіжності KL?
Я порівнюю два розподіли з дивергенцією KL, що повертає мені нестандартне число, яке, відповідно до того, що я читав про цей захід, є кількістю інформації, необхідної для перетворення однієї гіпотези в іншу. У мене є два питання: a) Чи існує спосіб кількісної оцінки розбіжності KL, щоб вона мала більш змістовну …

3
Використання інформаційної геометрії для визначення відстаней та обсягів… корисно?
Я натрапив на велику кількість літератури, яка виступає за використання метрики Інформації Фішера як природної локальної метрики в просторі розподілів ймовірностей, а потім інтегруючи її за визначенням відстаней і обсягів. Але чи справді ці "інтегровані" кількості корисні для чого-небудь? Я не знайшов теоретичних виправдань і дуже мало практичних застосувань. Одним …

1
Визначальна інформація про Фішера
(Я подібне питання розмістив на math.se. ) В інформаційній геометрії визначник інформаційної матриці Фішера є природною формою об'єму на статистичному колекторі, тому він має приємну геометричну інтерпретацію. Той факт, що він виявляється у визначенні Джефріса до, наприклад, пов'язаний з його інваріантністю в рамках репараметризації, яка є (імхо) геометричною властивістю. Але …

2
Графічна інтуїція статистики на колекторі
У цій публікації ви можете прочитати заяву: Моделі зазвичай представлені точками на кінцевому розмірному колекторі.θθ\theta Щодо диференціальної геометрії та статистики Майкла К. Мюррея та Джона У Райса, ці поняття пояснюються в прозовій формі, читаючи навіть ігноруючи математичні вирази. На жаль, ілюстрацій дуже мало. Те саме стосується цієї публікації в MathOverflow. …

1
Уточнення в геометрії інформації
Це питання стосується статті " Диференціальна геометрія криволінійних експоненціальних сімей-кривизни та втрати інформації " Амарі. Текст йде так. Нехай - n -вимірне множина розподілів ймовірностей з системою координат θ = ( θ 1 , … , θ n ) , де p θ ( x ) > 0Sн= { рθ}Sn={pθ}S^n=\{p_{\theta}\}нnnθ …
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.