Запитання з тегом «clustering»

Аналіз кластеру або кластеризація - це завдання згрупувати набір об'єктів таким чином, що об'єкти в одній групі (званої кластером) більше схожі (у певному або іншому сенсі) один на одного, ніж на інші в інших групах (кластери) . Це основне завдання розвідувальних даних і загальна методика статистичного аналізу даних, що використовується в багатьох сферах, включаючи машинне навчання, розпізнавання образів, аналіз зображень, пошук інформації тощо.

13
K-засоби кластеризації для змішаних числових та категоричних даних
Мій набір даних містить ряд числових атрибутів та один категоричний. Скажіть NumericAttr1, NumericAttr2, ..., NumericAttrN, CategoricalAttr, де CategoricalAttrприймає один з трьох можливих значень: CategoricalAttrValue1, CategoricalAttrValue2або CategoricalAttrValue3. Я використовую реалізацію алгоритму кластеризації k-означає за замовчуванням для Octave https://blog.west.uni-koblenz.de/2012-07-14/a-working-k-means-code-for-octave/ . Він працює лише з числовими даними. Отже, моє запитання: чи правильно розділити …

8
Кластеризація географічних координат (lat, довгі пари)
Який правильний підхід та алгоритм кластеризації для кластеризації геолокацій? Я використовую наступний код для кластеризації геолокаційних координат: import numpy as np import matplotlib.pyplot as plt from scipy.cluster.vq import kmeans2, whiten coordinates= np.array([ [lat, long], [lat, long], ... [lat, long] ]) x, y = kmeans2(whiten(coordinates), 3, iter = 20) plt.scatter(coordinates[:,0], coordinates[:,1], …

1
Яка найкраща модель Кераса для багатокласової класифікації?
Я працюю на дослідження, де необхідно класифікувати один з WINNER три події = ( win, draw, lose) WINNER LEAGUE HOME AWAY MATCH_HOME MATCH_DRAW MATCH_AWAY MATCH_U2_50 MATCH_O2_50 3 13 550 571 1.86 3.34 4.23 1.66 2.11 3 7 322 334 7.55 4.1 1.4 2.17 1.61 Моя поточна модель: def build_model(input_dim, output_classes): …

1
Чому xgboost так швидше, ніж sklearn GradientBoostingClassifier?
Я намагаюся підготувати градієнтну модель для збільшення градієнта на 50 к. Прикладах із 100 числовими функціями. XGBClassifierобробляє 500 дерев протягом 43 секунд на моїй машині, тоді як GradientBoostingClassifierобробляє лише 10 дерев (!) за 1 хвилину і 2 секунди :( Я не намагався виростити 500 дерев, як це займе години. Я …
29 scikit-learn  xgboost  gbm  data-mining  classification  data-cleaning  machine-learning  reinforcement-learning  data-mining  bigdata  dataset  nlp  language-model  stanford-nlp  machine-learning  neural-network  deep-learning  randomized-algorithms  machine-learning  beginner  career  xgboost  loss-function  neural-network  software-recommendation  naive-bayes-classifier  classification  scikit-learn  feature-selection  r  random-forest  cross-validation  data-mining  python  scikit-learn  random-forest  churn  python  clustering  k-means  machine-learning  nlp  sentiment-analysis  machine-learning  programming  python  scikit-learn  nltk  gensim  visualization  data  csv  neural-network  deep-learning  descriptive-statistics  machine-learning  supervised-learning  text-mining  orange  data  parameter-estimation  python  pandas  scraping  r  clustering  k-means  unsupervised-learning 

3
K - означає некогерентну поведінку, вибираючи K методом Elbow, BIC, дисперсією та силуетом
Я намагаюся кластеризувати деякі вектори з 90 можливостями за допомогою K-засобів. Оскільки цей алгоритм задає мені кількість кластерів, я хочу підтвердити свій вибір якоюсь приємною математикою. Я очікую, що буде від 8 до 10 кластерів. Особливості масштабуються на Z-бал. Роз'яснено ліктьовий метод та дисперсію from scipy.spatial.distance import cdist, pdist from …

4
Чи потрібно стандартизувати ваші дані перед кластеризацією?
Чи потрібно стандартизувати ваші дані перед кластером? У прикладі scikit learnпро DBSCAN, ось вони роблять це у рядку: X = StandardScaler().fit_transform(X) Але я не розумію, для чого це потрібно. Зрештою, кластеризація не передбачає особливого розповсюдження даних - це непідвладний метод навчання, тому його мета - вивчити дані. Чому потрібно було …

5
Розрахунок дивергенції KL в Python
Я досить новачок у цьому і не можу сказати, що я маю повне розуміння теоретичних концепцій, що стоять за цим. Я намагаюся обчислити розбіжність KL між декількома списками точок у Python. Я використовую http://scikit-learn.org/stable/modules/generated/sklearn.metrics.mutual_info_score.html, щоб спробувати це зробити. Проблема, з якою я стикаюся, полягає в тому, що повернене значення є …

2
Як боротися з часовими рядами, які змінюються сезонністю чи іншими моделями?
Фон Я працюю над набором даних часових рядів показань лічильника енергії. Тривалість серії варіюється в залежності від метра - для одних у мене кілька років, інших - лише кілька місяців і т. Д. Багато хто демонструє значну сезонність, а часто і багатошаровість - протягом дня, тижня чи року. Однією з …

1
Word2Vec проти Sentence2Vec проти Doc2Vec
Нещодавно я натрапив на терміни Word2Vec , Sentence2Vec і Doc2Vec, і я щось плутаю , оскільки я новачок у векторній семантиці. Чи може хтось, будь ласка, детально прояснити відмінності цих методів. Які найбільш підходящі завдання для кожного методу?

5
Кращий практичний алгоритм подібності речень
У мене є два речення, S1 і S2, обидва з яких мають кількість слів (як правило) нижче 15. Назвіть найбільш практично корисні та успішні алгоритми (машинне навчання), які, можливо, легко здійснити (нейронна мережа справна, якщо архітектура не така складна, як Google Inception тощо). Я шукаю алгоритм, який буде добре працювати, …

4
Кластеризація на основі балів подібності
Припустимо, що ми маємо набір елементів E і подібність ( не відстань ) функції sim (ei, ej) між двома елементами ei, ej ∈ E . Як ми могли (ефективно) кластеризувати елементи E , використовуючи sim ? k- значить, наприклад, вимагає заданого k , для кластеризації Canopy потрібно два порогових значення. …

1
Алгоритми кластеризації тексту
У мене є проблема об’єднання величезної кількості речень у групи за їх значеннями. Це схоже на проблему, коли у вас є багато речень і хочете згрупувати їх за значеннями. Які алгоритми пропонуються для цього? Я не знаю кількість кластерів заздалегідь (а оскільки надходить більше даних, кластери також можуть змінюватися), які …

4
К-значить: Які хороші способи вибрати ефективний набір початкових центроїдів?
Коли використовується випадкова ініціалізація центроїдів, різні прогони K-засобів виробляють різні загальні SSE. І це має вирішальне значення у виконанні алгоритму. Які ефективні підходи до вирішення цієї проблеми? Останні підходи оцінюються.

5
збільшують теплову карту для новонароджених
Я створюю corr()df з оригінального df. corr()ДФ вийшов 70 X 70 і неможливо уявити собі Heatmap ... sns.heatmap(df). Якщо я спробую відобразити corr = df.corr()таблицю, таблиця не відповідає екрану, і я бачу всі кореляції. Це спосіб або надрукувати весь, dfнезалежно від його розміру, або контролювати розмір теплової карти?
17 visualization  pandas  plotting  machine-learning  neural-network  svm  decision-trees  svm  efficiency  python  linear-regression  machine-learning  nlp  topic-model  lda  named-entity-recognition  naive-bayes-classifier  association-rules  fuzzy-logic  kaggle  deep-learning  tensorflow  inception  classification  feature-selection  feature-engineering  machine-learning  scikit-learn  tensorflow  keras  encoding  nlp  text-mining  nlp  rnn  python  neural-network  feature-extraction  machine-learning  predictive-modeling  python  r  linear-regression  clustering  r  ggplot2  neural-network  neural-network  training  python  neural-network  deep-learning  rnn  predictive-modeling  databases  sql  programming  distribution  dataset  cross-validation  neural-network  deep-learning  rnn  machine-learning  machine-learning  python  deep-learning  data-mining  tensorflow  visualization  tools  sql  embeddings  orange  feature-extraction  unsupervised-learning  gan  machine-learning  python  data-mining  pandas  machine-learning  data-mining  bigdata  apache-spark  apache-hadoop  deep-learning  python  convnet  keras  aggregation  clustering  k-means  r  random-forest  decision-trees  reference-request  visualization  data  pandas  plotting  neural-network  keras  rnn  theano  deep-learning  tensorflow  inception  predictive-modeling  deep-learning  regression  sentiment-analysis  nlp  encoding  deep-learning  python  scikit-learn  lda  convnet  keras  predictive-modeling  regression  overfitting  regression  svm  prediction  machine-learning  similarity  word2vec  information-retrieval  word-embeddings  neural-network  deep-learning  rnn 

2
K-засоби проти онлайн-K-засоби
K-засоби - це добре відомий алгоритм кластеризації, але існує також он-лайн варіант такого алгоритму (онлайн-K-засоби). Які плюси і мінуси цих підходів і коли слід віддавати перевагу кожному?

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.