Запитання з тегом «machine-learning»

Алгоритми машинного навчання будують модель навчальних даних. Термін «машинне навчання» нечітко визначений; вона включає те, що також називається статистичним навчанням, підкріпленням навчання, непідвладним навчанням і т. д. ВЖЕ ДОДАЙТЕ БІЛЬШЕ СПЕЦИФІЧНУ МЕТОДУ.

3
Перший головний компонент не розділяє класи, але це роблять інші ПК; як це можливо?
Я запустив PCA на 17 кількісних змінних, щоб отримати менший набір змінних, що є основними компонентами, які будуть використовуватися в контрольованому машинному навчанні для класифікації примірників на два класи. Після PCA на PC1 припадає 31% дисперсії даних, PC2 - 17%, PC3 - 10%, PC4 - 8%, PC5 - 7%, а …

1
Навчання нейронної мережі згортки
Зараз я працюю над програмним забезпеченням для розпізнавання облич, яке використовує нейронні мережі згортки для розпізнавання облич. Спираючись на свої читання, я зрозумів, що звивиста нейронна мережа має загальну вагу, щоб заощадити час під час тренувань. Але як адаптувати зворотне розповсюдження, щоб його можна було використовувати в нейромережі згортки. Для …

2
Гранічний графік рішення для перцептрона
Я намагаюся побудувати межу рішення алгоритму перцептрона, і я дуже заплутаний у кількох речах. Мої вхідні екземпляри мають форму , в основному 2D вхідний екземпляр ( і ) і цільове значення двійкового класу ( ) [1 або 0].х 1 х 2 у[ ( х1, х2) , у][(x1,x2),y][(x_{1},x_{2}), y]х1x1x_{1}х2x2x_{2}уyy Звідси мій …

1
Мотивація за кроками випадкових лісових алгоритмів
Метод, який я знайомий для побудови випадкового лісу, полягає в наступному: (від http://www.stat.berkeley.edu/~breiman/RandomForests/cc_home.htm ) Щоб побудувати дерево в лісі: Завантажте зразок розміру N, де N - розмір нашого навчального набору. Використовуйте цей зразок завантаження як навчальний набір для цього дерева. На кожному вузлі дерева випадковим чином виберіть m наших M …

1
Як передбачити нові дані за допомогою сплайну / плавної регресії
Чи може хто-небудь допомогти дати концептуальне пояснення того, як робляться прогнози для нових даних при використанні гладких / сплайнів для прогнозної моделі? Наприклад, враховуючи модель, створену за gamboostдопомогою mboostпакету в R, з p-сплайнами, як робляться прогнози для нових даних? Що використовується з даних про навчання? Скажіть, що є нове значення …

1
Оцінка класифікаторів: криві навчання та криві ROC
Я хотів би порівняти два різних класифікатори для проблеми класифікації багатокласового тексту, які використовують великі набори навчальних даних. Я сумніваюся, чи варто використовувати криві ROC або криві навчання для порівняння двох класифікаторів. З одного боку, криві навчання корисні для визначення розміру навчального набору даних, оскільки ви можете знайти розмір набору …

2
Обчислення VC-виміру нейронної мережі
Якщо у мене є якась фіксована непотокована (DAG) топологія (фіксований набір вузлів і ребер, але алгоритм навчання може змінювати вагу по краях) сигмовидних нейронів з вхідними нейронами, які можуть приймати рядки лише в як вхідний і веде до одного виходу (що виводить реальне значення, яке ми округляємо до 1 або …

2
Як покращити стабільність нейронної мережі?
Я використовую Neuralnet в R, щоб побудувати мережу NN з 14 входами і одним виходом. Я будую / треную мережу кілька разів, використовуючи одні й ті ж вхідні дані навчання та ті ж мережеві архітектури / налаштування. Після створення кожної мережі я використовую її на окремому наборі тестових даних для …

4
Чому ми просто не вивчимо гіпер параметри?
Я реалізовував досить популярний документ " ПОЯСНЕННЯ ТА ПІДПРИЄМСТВО ДОСЛІДНИХ ПРИКЛАДІВ ", і в роботі він тренує протиборчу цільову функцію J '' (θ) = αJ (θ) + (1 - α) J '(θ). Це трактує α як гіперпараметр. α може бути 0,1, 0,2, 0,3 і т.д. Незалежно від цього конкретного документу, …


1
Питання про віднімання середнього значення на поїзді / дійсному / тестовому комплекті
Я роблю попередню обробку даних і після цього збираюся створювати конвонети на своїх даних. Моє запитання: Скажіть, у мене є загальний набір даних зі 100 зображеннями, я обчислював середнє значення для кожного з 100 зображень, а потім віднімав його з кожного з зображень, потім розділяв це на набір поїздів і …

2
Чому PCA максимізує загальну дисперсію проекції?
Крістофер Бішоп пише у своїй книзі Розпізнавання візерунків та машинне навчання доказом того, що кожен послідовний головний компонент максимізує дисперсію проекції до одного виміру після того, як дані проектуються в ортогональний простір до вибраних раніше компонентів. Інші демонструють подібні докази. Однак це лише доводить, що кожна послідовна складова є найкращою …

2
Чи f-міра є синонімом точності?
Я розумію, що f-міра (заснована на точності та відкликання) - це оцінка того, наскільки точним є класифікатор. Крім того, f-міра віддається перевазі точності, коли у нас є неврівноважений набір даних. У мене просте запитання (яке стосується скоріше використання правильної термінології, ніж щодо технології). У мене незбалансований набір даних і я …

1
Коли не використовувати перехресну перевірку?
Коли я читаю на сайті, більшість відповідей свідчать про те, що крос-валідація повинна здійснюватися в алгоритмах машинного навчання. Однак, читаючи книгу "Розуміння машинного навчання", я побачив, що існує вправа, що іноді краще не використовувати перехресну перевірку. Я справді розгублений. Коли алгоритм тренінгу для всіх даних кращий, ніж перехресне підтвердження? Чи …

1
Чи є теорема відносного контрасту від Beyer et al. стаття: "Про дивну поведінку метрики відстані у просторі великого розміру" вводить в оману?
Це цитується дуже часто, коли згадується прокляття розмірності і йде (формула праворуч називається відносним контрастом) limd→∞var(||Xd||kE[||Xd||k])=0,then:Dmaxkd−DminkdDminkd→0limd→∞var(||Xd||kE[||Xd||k])=0,then:Dmaxdk−DmindkDmindk→0 \lim_{d\rightarrow \infty} \text{var} \left(\frac{||X_d||_k}{E[||X_d||_k]} \right) = 0, \text{then}: \frac{D_{\max^{k}_{d}} - D_{\min^{k}_{d}}}{D_{\min^{k}_{d}}} \rightarrow 0 Результат теореми показує, що різниця між максимальною та мінімальною відстаніми до заданої точки запиту не збільшується так швидко, як найближча відстань …

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.