Запитання з тегом «euclidean»

Евклідова відстань - це інтуїтивне поняття "прямолінійної" відстані між двома точками в евклідовому просторі.

7
Евклідова відстань, як правило, не корисна для розріджених даних?
Десь я бачив, що класичні відстані (наприклад, евклідова відстань) стають слабко дискримінантними, коли ми маємо багатовимірні та розріджені дані. Чому? Чи є у вас приклад двох розріджених векторів даних, де евклідова відстань не працює добре? У цьому випадку яку подібність ми повинні використати?

6
Чому алгоритм кластеризації k-означає використовує тільки евклідову метрику відстані?
Чи є конкретна мета з точки зору ефективності чи функціональності, чому алгоритм k-засобів не використовує, наприклад, подібність косинуса (dis) як метрику відстані, а може використовувати лише евклідову норму? Загалом, чи відповідає метод К-засобів та чи буде правильним, якщо розглядаються чи використовуються інші відстані, ніж Евклідова? [Доповнення від @ttnphns. Питання двозначне. …

2
Чи однакова косинусна схожість на нормалізовану l2 евклідову відстань?
Ідентичний сенс, що він буде робити ідентичні результати для ранжирування подібності між вектором ¯u і набором векторами V . У мене є векторна космічна модель, яка в якості параметрів має міру відстані (евклідова відстань, схожість косинусів) і техніку нормалізації (немає, l1, l2). Наскільки я розумію, результати налаштувань [косинус, жоден] повинні …

1
Перетворення матриці подібності в матрицю відстані (евклідова)
У алгоритмі випадкових лісів Брейман (автор) будує матрицю подібності таким чином: Надсилайте всі приклади навчання вниз по кожному дереву в лісі Якщо два приклади приземляються в один приріст листя, відповідний елемент у матриці подібності на 1 Нормалізуйте матрицю з кількістю дерев Він каже: Близькість між випадками n і k утворює …

5
Як я можу конвертувати відстань (евклідову) в оцінку подібності
Я використовую означає кластеризацію для голосу кластера динаміків. Коли я порівнюю висловлювання з кластерними даними динаміків, я отримую (евклідову відстань) середнє спотворення. Ця відстань може бути в межах . Я хочу перетворити цю відстань у показник подібності . Підкажіть будь ласка про те, як я можу цього досягти.kkk[0,∞][0,∞][0,\infty][0,1][0,1][0,1]

1
Плюси дистанції Джефріса Матусіта
Згідно з деякою книгою, яку я читаю, зазвичай використовується дистанція Джефріса та Матусіти. Але я не зміг знайти багато інформації про нього, окрім наведеної нижче формули JMD (x, y) = ∑(xi−−√2−yi−−√2)2−−−−−−−−−−−−−√2∑(xi2−yi2)22\sqrt[2]{\sum(\sqrt[2]{x_i}-\sqrt[2]{y_i})^2} Він схожий на евклідову відстань за винятком квадратного кореня E (x, y) = ∑(xi−yi)2−−−−−−−−−−√2∑(xi−yi)22\sqrt[2]{\sum(x_i-y_i)^2} Вважається, що відстань JM є …

3
Яку відстань використовувати? наприклад, Манхеттен, Евклідовий, Брей-Кертіс тощо
Я не є екологом громади, але сьогодні працюю над даними екології громади. Те, що я не міг зрозуміти, окрім математики цих відстаней, - це критерії для кожної дистанції, яку потрібно використати, і в яких ситуаціях вона може бути застосована. Наприклад, що використовувати з даними підрахунку? Як перетворити кут нахилу між …

1
Чому Anova () та drop1 () надали різні відповіді для GLMM?
У мене є GLMM форми: lmer(present? ~ factor1 + factor2 + continuous + factor1*continuous + (1 | factor3), family=binomial) Під час використання drop1(model, test="Chi")я отримую інші результати, ніж якщо я використовую Anova(model, type="III")з автомобільного пакета або summary(model). Ці два останні дають однакові відповіді. Використовуючи купу сфабрикованих даних, я виявив, що …
10 r  anova  glmm  r  mixed-model  bootstrap  sample-size  cross-validation  roc  auc  sampling  stratification  random-allocation  logistic  stata  interpretation  proportion  r  regression  multiple-regression  linear-model  lm  r  cross-validation  cart  rpart  logistic  generalized-linear-model  econometrics  experiment-design  causality  instrumental-variables  random-allocation  predictive-models  data-mining  estimation  contingency-tables  epidemiology  standard-deviation  mean  ancova  psychology  statistical-significance  cross-validation  synthetic-data  poisson-distribution  negative-binomial  bioinformatics  sequence-analysis  distributions  binomial  classification  k-means  distance  unsupervised-learning  euclidean  correlation  chi-squared  spearman-rho  forecasting  excel  exponential-smoothing  binomial  sample-size  r  change-point  wilcoxon-signed-rank  ranks  clustering  matlab  covariance  covariance-matrix  normal-distribution  simulation  random-generation  bivariate  standardization  confounding  z-statistic  forecasting  arima  minitab  poisson-distribution  negative-binomial  poisson-regression  overdispersion  probability  self-study  markov-process  estimation  maximum-likelihood  classification  pca  group-differences  chi-squared  survival  missing-data  contingency-tables  anova  proportion 

1
Моя нейронна мережа навіть не може вивчити евклідову відстань
Тому я намагаюся навчити себе нейронних мереж (для регресійних застосувань, а не для класифікації зображень котів). Першими моїми експериментами було навчання мережі для впровадження фільтра FIR та дискретної трансформації Фур'є (тренування сигналів "до" та "після"), оскільки це обидві лінійні операції, які можуть бути реалізовані одним шаром без функції активації. Обидва …
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.