Запитання з тегом «multidimensional-scaling»

Методика, яка робить спостережувані чи обчислені (не) подібності між об'єктами на відстані в низькомірному просторі (як правило, Евклідова). Таким чином, вона будує розміри для даних; об'єкти можуть бути намічені та концептуалізовані в цих вимірах


3
Здійснювати нормалізацію функції до або в процесі перевірки моделі?
Поширена практика в машинному навчанні полягає в нормалізації характеристик або стандартизації даних змінних прогнозника, саме так, центрувати дані, що віднімають середнє значення, і нормалізувати його діленням на дисперсію (або стандартне відхилення теж). Для стримування самопочуття і, наскільки я розумію, ми робимо це для досягнення двох головних речей: Уникайте зайвих малих …

7
Нормалізація даних і стандартизація в нейронних мережах
Я намагаюся передбачити результат складної системи за допомогою нейронних мереж (ANN). Значення результату (залежно) коливаються від 0 до 10000. Різні вхідні змінні мають різні діапазони. Усі змінні мають приблизно нормальний розподіл. Я розглядаю різні варіанти масштабування даних перед тренуванням. Один із варіантів - масштабувати вхідні (незалежні) та вихідні (залежні) змінні …

3
чи слід змінити масштаб індикаторів / бінарних / фіктивних прогнокторів для LASSO
Для LASSO (та інших процедур вибору моделі) дуже важливо змінити масштаби прогнозів. Загальна рекомендація я дотримуюся просто використовувати 0, 1 середнє стандартне відхилення нормалізації для безперервних змінних. Але що тут робити з манекенами? Наприклад, кілька прикладних прикладів тієї ж (чудової) літньої школи, яку я пов’язував із перерахунком змінних безперервних змінних, …

1
t-SNE проти MDS
Останнім часом читав кілька запитань щодо t-SNE ( t-Distributed Stochastic Neighbor Embedding ), а також відвідав декілька питань щодо MDS ( багатовимірного масштабування ). Вони часто використовуються аналогічно, тому здавалося, що непогано змусити це запитання, побачивши, що тут є багато питань як щодо, так і окремо (або порівняно з PCA …

5
Чи є версії t-SNE для потокового передавання даних?
Моє розуміння t-SNE та наближення Барнса-Хата полягає в тому, що потрібні всі точки даних, щоб можна було обчислити всі силові взаємодії одночасно, і кожну точку можна відрегулювати на 2d (або нижній розмірній) карті. Чи існують версії t-sne, які можуть ефективно справлятися з потоковими даними? Тож якщо мої спостереження надходять одне …

3
Яка роль МДС у сучасній статистиці?
Нещодавно я натрапив на багатовимірне масштабування. Я намагаюся краще зрозуміти цей інструмент та його роль у сучасній статистиці. Ось ось декілька провідних питань: На які питання він відповідає? Які дослідники часто зацікавлені в його використанні? Чи є інші статистичні методи, які виконують подібні функції? Яка теорія розроблена навколо неї? Як …

1
RandomForest - інтерпретація сюжету MDS
Я використовував randomForest, щоб класифікувати 6 поведінки тварин (наприклад, стоячи, ходити, плавати тощо) на основі 8 змінних (різні пози тіла та руху). MDSplot в пакеті randomForest дає мені цей результат, і у мене виникають проблеми з інтерпретацією результату. Я зробив PCA на одних і тих же даних і отримав приємне …

4
Виконання PCA лише матрицею відстані
Я хочу об'єднати масивний набір даних, для якого у мене є лише попарні відстані. Я реалізував алгоритм k-medoids, але це займає занадто багато часу, тому я хотів би почати, зменшивши розмір моєї проблеми, застосувавши PCA. Однак єдиним способом, яким я знаю виконати цей метод, є використання матриці коваріації, якої у …

3
Як проектувати простір високого розміру в двовимірну площину?
У мене є набір точок даних у N-мірному просторі. Крім того, у мене також є центроїд в цьому ж N-мірному просторі. Чи є підходи, які можуть дозволити мені проектувати ці точки даних у двовимірний простір, зберігаючи їх відносну інформацію про відстань у вихідному просторі. PCA є правильним?

2
Візуалізація багатовимірних даних (LSI) у 2D
Я використовую приховану семантичну індексацію, щоб знайти схожість між документами ( спасибі, JMS! ) Після зменшення розміру я спробував кластеризувати k-засоби, щоб згрупувати документи в кластери, що працює дуже добре. Але я хотів би піти трохи далі і візуалізувати документи як набір вузлів, де відстань між будь-якими двома вузлами обернено …

2
Скорочене зменшення розмірів
Враховуючи кількість функцій постійними, Barnes-Hut t-SNE має складністьO(nlogn)O(nlog⁡n)O(n\log n), випадкові прогнози та PCA мають складністьO(n)O(n)O(n) робить їх "доступними" для дуже великих наборів даних. З іншого боку, методи, що спираються на багатовимірне масштабування, мають:O(n2)O(n2)O(n^2) складність. Чи існують інші прийоми зменшення розмірів (крім тривіальних, як дивитись на перший kkk колонки, звичайно), складність …

1
Нормалізація введення для нейронів ReLU
Згідно з "Efficient Backprop" від LeCun et al. (1998), є хорошою практикою нормалізувати всі входи, щоб вони були зосереджені навколо 0 і лежали в межах максимальної другої похідної. Так, наприклад, ми використали [-0,5,0,5] для функції "Tanh". Це допоможе досягти прогресу в просуванні, коли гессея стає стабільнішою. Однак я не був …
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.