Запитання з тегом «k-nearest-neighbour»

k-Найближчі-сусідні класифікатори Ці класифікатори засновані на пам’яті та не потребують придатності жодної моделі. Давши запит x0, ми знаходимо k навчальних балів x (r), r = 1, ..., k, найближчих до відстані до x0, а потім класифікуємо, використовуючи більшість голосів серед k сусідів.


2
Як побудувати межу рішення k-найближчого класифікатора сусіда з елементів статистичного навчання?
Я хочу створити сюжет, описаний у книзі ElemStatLearn "Елементи статистичного навчання: видобуток даних, висновок та прогнозування. Друге видання" Тревор Хасті та Роберт Тібширані та Джером Фрідман. Сюжет: Мені цікаво, як я можу створити цей точний графік R, особливо зверніть увагу на сітку графіку та обчислення, щоб показати межу.

1
Обчислювальна повторюваність ефектів від lmer-моделі
Я щойно натрапив на цю статтю , в якій описано, як обчислити повторюваність (він же - надійність, також внутрішньокласова кореляція) вимірювання за допомогою моделювання змішаних ефектів. R-код буде: #fit the model fit = lmer(dv~(1|unit),data=my_data) #obtain the variance estimates vc = VarCorr(fit) residual_var = attr(vc,'sc')^2 intercept_var = attr(vc$id,'stddev')[1]^2 #compute the unadjusted …
28 mixed-model  reliability  intraclass-correlation  repeatability  spss  factor-analysis  survey  modeling  cross-validation  error  curve-fitting  mediation  correlation  clustering  sampling  machine-learning  probability  classification  metric  r  project-management  optimization  svm  python  dataset  quality-control  checking  clustering  distributions  anova  factor-analysis  exponential  poisson-distribution  generalized-linear-model  deviance  machine-learning  k-nearest-neighbour  r  hypothesis-testing  t-test  r  variance  levenes-test  bayesian  software  bayesian-network  regression  repeated-measures  least-squares  change-scores  variance  chi-squared  variance  nonlinear-regression  regression-coefficients  multiple-comparisons  p-value  r  statistical-significance  excel  sampling  sample  r  distributions  interpretation  goodness-of-fit  normality-assumption  probability  self-study  distributions  references  theory  time-series  clustering  econometrics  binomial  hypothesis-testing  variance  t-test  paired-comparisons  statistical-significance  ab-test  r  references  hypothesis-testing  t-test  normality-assumption  wilcoxon-mann-whitney  central-limit-theorem  t-test  data-visualization  interactive-visualization  goodness-of-fit 

4
Навіщо хтось використовувати KNN для регресії?
З того, що я розумію, ми можемо побудувати лише регресійну функцію, яка лежить в інтервалі навчальних даних. Наприклад (потрібна лише одна з панелей): Як би я передбачив майбутнє за допомогою регресора KNN? Знову ж таки, здається, лише приблизна функція, яка лежить в інтервалі навчальних даних. Моє запитання: Які переваги використання …

3
Поєднання моделей машинного навчання
Я начебто новачок у передачі даних / машинне навчання / тощо. і читав про пару способів поєднання декількох моделей і циклів однієї моделі для покращення прогнозів. Моє враження від прочитання декількох статей (які часто цікаві та чудові в теорії та грецьких літерах, але короткий код та фактичні приклади) полягає в …

2
Коли сьогодні має значення "Найближчий сусід"?
У 1999 р. Beyer et al. запитав, коли має значення "Найближчий сусід"? Чи є кращі способи аналізу та візуалізації ефекту площини відстані на пошук NN з 1999 року? Чи дає [даний] набір даних змістовні відповіді на проблему 1-NN? Проблема 10-NN? Проблема 100 NN? Як би Ви сьогодні підходили до цього …

1
k-NN обчислювальна складність
Яка часова складність алгоритму k -NN з наївно-підхідним пошуком (без kd дерева чи аналогів)? Мене цікавить її часова складність, враховуючи також гіперпараметр k . Я знайшов суперечливі відповіді: O (nd + kn), де n - простота навчального набору і d - розмірність кожного зразка. [1] O (ndk), де знову n …


3
Вибір оптимального K для КНН
Я здійснив 5-кратне резюме, щоб вибрати оптимальний K для KNN. І здається, що чим більший K отримує, тим менша помилка ... Вибачте, у мене не було легенди, але різні кольори представляють різні випробування. Всього їх 5, і, здається, між ними мало варіацій. Помилка завжди здається зменшуватися, коли K стає більше. …

4
Справа з зв'язками, гирями та голосуванням в kNN
Я програмую kNN алгоритм і хотів би знати наступне: Перерви у краватці: Що станеться, якщо чіткого переможця в голосуванні більшості немає? Наприклад, всі k найближчі сусіди є з різних класів, або для k = 4 є 2 сусіди з класу A і 2 сусіди з класу B? Що станеться, якщо …

2
Для чого потрібно масштабувати дані в КНН
Чи не могли б хтось пояснити мені, чому потрібно нормалізувати дані при використанні K найближчих сусідів. Я намагався розібратися в цьому, але все ще не можу його зрозуміти. Я знайшов таке посилання: https://discuss.analyticsvidhya.com/t/why-it-is-ne необходимо-to-normalize-in-knn/2715 Але в цьому поясненні я не розумію, чому більший діапазон в одній з особливостей впливає на …

1
Чи впливає прокляття розмірності на деякі моделі більше, ніж на інші?
Місця, які я читав про прокляття розмірності, пояснюють це в поєднанні насамперед з kNN та лінійними моделями взагалі. Я регулярно бачу найкращих рейтингів у Kaggle, використовуючи тисячі функцій на наборі даних, які навряд чи мають 100k балів даних. Вони, в основному, використовують бусте дерева та NN, серед інших. Це багато …

5
Імпутація пакетів KNN R
Я шукаю пакет імпутації KNN. Я дивився на пакет імпутації ( http://cran.r-project.org/web/packages/imputation/imputation.pdf ), але чомусь функція імпутації KNN (навіть якщо наслідувати приклад із опису) лише здається присвоїти нульові значення (як зазначено нижче). Я озирався, але ще не можу щось знайти, і тому цікавився, чи є у когось інші пропозиції щодо …

4
Яка мета нормалізації рядків
Я розумію міркування щодо нормалізації стовпців, оскільки це призводить до того, що характеристики зважуються однаково, навіть якщо вони не вимірюються в одній шкалі - проте, часто в найближчій сусідній літературі обидва стовпці та рядки нормалізуються. Для чого / для чого нормалізувати рядки? Зокрема, як результат нормалізації рядків впливає на подібність …

3
Адаптивні оцінки щільності ядра?
Чи може хто-небудь повідомити про свій досвід роботи з адаптивним оцінювачем щільності ядра? (Є багато синонімів: адаптивний | змінної | змінної ширини, KDE | гістограма | інтерполятор ...) Змінна оцінка щільності ядра говорить, що "ми змінюємо ширину ядра в різних областях вибіркового простору. Існують два методи ..." насправді більше: сусіди …

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.