Запитання з тегом «manifold-learning»

3
Що таке колектор?
У техніці зменшення розмірності, такі як аналіз основних компонентів, LDA тощо, часто використовується термін колектор. Що таке багатоманіття в нетехнічному терміні? Якщо точка належить до сфери, розмірність якої я хочу , щоб зменшити, а якщо є шум у і х і у є корельованими, то фактичні точки х будуть далеко …

2
Як зрозуміти "нелінійне" як "нелінійне зменшення розмірності"?
Я намагаюся зрозуміти відмінності між методами зменшення лінійної розмірності (наприклад, PCA) та нелінійними (наприклад, Isomap). Я не можу повністю зрозуміти, що означає (не) лінійність у цьому контексті. Я прочитав з Вікіпедії це Для порівняння, якщо PCA (алгоритм зменшення лінійних розмірностей) використовується для зменшення цього ж набору даних на два виміри, …

2
Яке багаторазове припущення в навчанні, яке знаходиться під наглядом?
Я намагаюся розібратися, що означає багатозначне припущення в навчанні, яке знаходиться під наглядом. Чи може хтось пояснити простим способом? Я не можу за цим зрозуміти інтуїцію. Це говорить про те, що ваші дані лежать на низькомірному колекторі, вбудованому у простор більш високого розміру. Я не зрозумів, що це означає.

1
Як вибрати ядро ​​для PCA ядра?
Які способи вибрати, яке ядро ​​призведе до гарного поділу даних у кінцевому виведенні даних за допомогою PCA ядра (аналіз основних компонентів), і які способи оптимізації параметрів ядра? Якщо можливо, умови Лаймана були б дуже вдячні, і посилання на документи, що пояснюють такі методи, також були б непоганими.

2
Графічна інтуїція статистики на колекторі
У цій публікації ви можете прочитати заяву: Моделі зазвичай представлені точками на кінцевому розмірному колекторі.θθ\theta Щодо диференціальної геометрії та статистики Майкла К. Мюррея та Джона У Райса, ці поняття пояснюються в прозовій формі, читаючи навіть ігноруючи математичні вирази. На жаль, ілюстрацій дуже мало. Те саме стосується цієї публікації в MathOverflow. …

1
Яка різниця між навчанням різноманітності та нелінійним зменшенням розмірності?
Яка різниця між навчанням різноманітності та нелінійним зменшенням розмірності ? Я бачив, як ці два терміни використовуються взаємозамінно. Наприклад: http://www.cs.cornell.edu/~kilian/research/manifold/manifold.html : Навчання в колективі (часто його також називають нелінійним зменшенням розмірності) переслідує мету вбудувати дані, які спочатку лежать у просторі з високим розміром, у просторі з меншими розмірами, зберігаючи характерні …

2
Як довести, що припущення колектора правильне?
У машинному навчанні часто передбачається, що набір даних лежить на гладкому низькомірному колекторі (припущення про колектор), але чи є якийсь спосіб довести, що при дотриманні певних умов виконано, то набір даних справді (приблизно) генерується від маломірного гладкого колектора? Наприклад, задана послідовність даних де (скажімо послідовність зображень обличчя під різними кутами) …
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.