Запитання з тегом «kernel-smoothing»

Методи згладжування ядра, такі як оцінка щільності ядра (KDE) та регресія ядра Nadaraya-Watson, оцінюють функції за допомогою локальної інтерполяції з точок даних. Не плутати з [kernel-фокусом] для ядер, які використовуються, наприклад, у SVM.

1
Що таке довгострокова дисперсія?
Як визначається довгострокова дисперсія в області аналізу часових рядів? Я розумію, він використовується в тому випадку, якщо в даних є структура кореляції. Отже, наш стохастичний процес не був би сімейством iid випадкових змінних, а лише ідентично розподіленим?X1,X2…X1,X2…X_1, X_2 \dots Чи можу я мати стандартне посилання як вступ до концепції та …

1
Як називається метод оцінки щільності, де всі можливі пари використовуються для створення нормального розподілу суміші?
Я просто думав про акуратний (не обов'язково хороший) спосіб створення однієї розмірної оцінки щільності, і моє питання: Чи має цей метод оцінки щільності назву? Якщо ні, то це особливий випадок якогось іншого методу в літературі? Ось метод: У нас є вектор який, як ми вважаємо, виведений з якогось невідомого розподілу, …

4
Оцінка щільності ядра, що включає невизначеності
Під час візуалізації одновимірних даних звичайно використовувати техніку оцінки щільності ядра для врахування неправильно вибраних ширини відрізка. Коли мій одномірний набір даних має невизначеність вимірювань, чи існує стандартний спосіб включення цієї інформації? Наприклад (і вибачте мене, якщо моє розуміння не є наївним) KDE поєднує профіль Гаусса з дельта-функціями спостережень. Це …

1
Співвідношення ймовірностей та відношення PDF-файлів
Я використовую Байєса для вирішення проблеми кластеризації. Після деяких обчислень я закінчую необхідність отримати співвідношення двох ймовірностей: P(A)/P(B)P(A)/P(B)P(A)/P(B) мати можливість отримати . Ці ймовірності отримуються шляхом інтеграції двох різних двовимірних KDE, як пояснено у цій відповіді :P(H|D)P(H|D)P(H|D) P ( B ) = ∬ х Керівництво , Y : G ( …

2
Інтеграція оцінювача щільності ядра в 2D
Я виходжу з цього питання на випадок, якщо хтось захоче піти слідом. В основному у мене є набір даних складається з об'єктів, де кожен об'єкт має задане число вимірюваних значень, приєднаних до нього (у цьому випадку два):NΩΩ\OmegaNNN Ω = o1[ х1, у1] , о2[ х2, у2] , . . . …

1
Обчислення довірчих інтервалів для режиму?
Я шукаю посилання на обчислення довірчих інтервалів для режиму (загалом). Завантаження завантажувача може здатися першим природним вибором, але, як обговорюється Романо (1988), стандартний завантажувальний пристрій виходить з ладу для режиму, і він не пропонує простого рішення. Чи щось змінилося після цього документу? Який найкращий спосіб обчислити довірчі інтервали для режиму? …

1
Як встановити приблизний PDF (тобто: оцінювання щільності), використовуючи перші k (емпіричні) моменти?
У мене є ситуація, коли я в змозі оцінити (перші) моменти набору даних, і хотів би використовувати його для оцінки функції функції щільності.kkk Я вже натрапив на розподіл Пірсона , але зрозумів, що він покладається лише на перші 4 моменти (з деякими обмеженнями на можливі поєднання моментів). Я також розумію, …

1
Який правильний спосіб обчислення оцінки щільності ядра за географічними координатами?
Я повинен обчислити 2d оцінку щільності ядра (kde) зі списку координат широти та довготи. Але один градус широти не є такою ж відстані, як один градус по довготі, це означає, що окремі ядра були б овальними, особливо чим далі точка від екватора. У моєму випадку всі точки досить близькі один …

4
Як я можу отримати значення випадковим чином з оцінки щільності ядра?
У мене є деякі спостереження, і я хочу імітувати вибірку на основі цих спостережень. Тут я розглядаю непараметричну модель, зокрема, я використовую згладжування ядра, щоб оцінити CDF з обмежених спостережень. Тоді я малюю значення навмання з отриманого CDF. Далі - мій код (ідея полягає в тому, щоб отримати випадкову сукупність …

2
Оцінка щільності ядра на асиметричних розподілах
Нехай - спостереження, отримані з невідомого (але, безумовно, асиметричного) розподілу ймовірностей.{ х1, … , ХN}{х1,…,хN}\{x_1,\ldots,x_N\} Я хотів би знайти розподіл ймовірностей за допомогою підходу KDE: Однак я спробував використовувати ядро ​​Гаусса, але воно було погано, оскільки воно симетричне. Таким чином, я бачив, що деякі роботи щодо ядер Gamma та Beta …

4
Анімація ефекту зміни ширини ядра в R
У мене є деякі дані в R, які зберігаються в списку. Подумайте d <- c(1,2,3,4) хоча це не мої дані. Якщо я тоді ввійду в команду plot(density(d, kernel="gaussian", width=1)) то я отримую оцінку щільності ймовірності ядра, де ядро ​​є нормальним. Якщо я заміню 1 на інші цифри, звичайно картинка змінюється. …

2
Пропускна здатність ядра при оцінці щільності ядра
Я роблю деяку оцінку щільності ядра з встановленою зваженою точкою (тобто, кожен зразок має вагу, яка не є необхідною), у N розмірах. Крім того, ці зразки знаходяться просто в метричному просторі (тобто ми можемо визначити відстань між ними), але нічого іншого. Наприклад, ми не можемо визначити середнє значення зразків балів, …

1
Чому випадкові риси Фур’є є негативними?
Випадкові функції Фур'є забезпечують наближення до функцій ядра. Вони використовуються для різних методів ядра, таких як SVM та процеси Гаусса. Сьогодні я спробував використовувати реалізацію TensorFlow, і я отримав від’ємні значення для половини моїх функцій. Як я розумію, цього не повинно статися. Тож я повернувся до оригінального документу , який …

3
Найкращий спосіб оцінити методи оцінки PDF
Я хочу перевірити деякі свої ідеї, які, на мою думку, кращі за все, що я бачив. Я можу помилятися, але я хотів би перевірити свої ідеї і перемогти свої сумніви більш певними спостереженнями. Що я думав зробити, це наступне: Аналітично визначте набір розподілів. Деякі з них є такими легкими, як …

2
Обчисліть криву ROC для даних
Отже, у мене є 16 випробувань, в яких я намагаюся ідентифікувати людину з біометричної ознаки за допомогою дистанції Hamming. Мій поріг встановлено на 3,5. Мої дані нижче, і лише пробна версія 1 - справжнє Позитивне: Trial Hamming Distance 1 0.34 2 0.37 3 0.34 4 0.29 5 0.55 6 0.47 …
9 mathematical-statistics  roc  classification  cross-validation  pac-learning  r  anova  survival  hazard  machine-learning  data-mining  hypothesis-testing  regression  random-variable  non-independent  normal-distribution  approximation  central-limit-theorem  interpolation  splines  distributions  kernel-smoothing  r  data-visualization  ggplot2  distributions  binomial  random-variable  poisson-distribution  simulation  kalman-filter  regression  lasso  regularization  lme4-nlme  model-selection  aic  r  mcmc  dlm  particle-filter  r  panel-data  multilevel-analysis  model-selection  entropy  graphical-model  r  distributions  quantiles  qq-plot  svm  matlab  regression  lasso  regularization  entropy  inference  r  distributions  dataset  algorithms  matrix-decomposition  regression  modeling  interaction  regularization  expected-value  exponential  gamma-distribution  mcmc  gibbs  probability  self-study  normality-assumption  naive-bayes  bayes-optimal-classifier  standard-deviation  classification  optimization  control-chart  engineering-statistics  regression  lasso  regularization  regression  references  lasso  regularization  elastic-net  r  distributions  aggregation  clustering  algorithms  regression  correlation  modeling  distributions  time-series  standard-deviation  goodness-of-fit  hypothesis-testing  statistical-significance  sample  binary-data  estimation  random-variable  interpolation  distributions  probability  chi-squared  predictor  outliers  regression  modeling  interaction 
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.