Запитання з тегом «machine-learning»

Алгоритми машинного навчання будують модель навчальних даних. Термін «машинне навчання» нечітко визначений; вона включає те, що також називається статистичним навчанням, підкріпленням навчання, непідвладним навчанням і т. д. ВЖЕ ДОДАЙТЕ БІЛЬШЕ СПЕЦИФІЧНУ МЕТОДУ.

4
Як функція прямолінійної активації вирішує проблему градієнта, що зникає, в нейронних мережах?
Я виявив, що випрямлена лінійна одиниця (ReLU) отримала високу оцінку в декількох місцях як рішення проблеми, що втрачає градієнт, для нейронних мереж. Тобто, людина використовує max (0, x) як функцію активації. Коли активація позитивна, очевидно, що це краще, ніж, скажімо, сигмоїдна активаційна функція, оскільки її деривація завжди дорівнює 1 замість …

2
Заходи змінного значення у випадкових лісах
Я граю з випадковими лісами за регресом і мені важко розібратися, що саме означають два важливі заходи, і як їх слід тлумачити. importance()Функція дає два значення для кожної змінної: %IncMSEі IncNodePurity. Чи є прості тлумачення цих двох значень? Бо, IncNodePurityзокрема, це просто сума збільшення RSS після видалення цієї змінної?

7
Нормалізація даних і стандартизація в нейронних мережах
Я намагаюся передбачити результат складної системи за допомогою нейронних мереж (ANN). Значення результату (залежно) коливаються від 0 до 10000. Різні вхідні змінні мають різні діапазони. Усі змінні мають приблизно нормальний розподіл. Я розглядаю різні варіанти масштабування даних перед тренуванням. Один із варіантів - масштабувати вхідні (незалежні) та вихідні (залежні) змінні …

3
Різниця між випадковим лісом і надзвичайно рандомізованими деревами
Я зрозумів, що випадкові ліси та надзвичайно рандомізовані дерева відрізняються тим, що розщеплення дерев у Випадковому лісі є детермінованими, тоді як вони є випадковими у випадку надзвичайно рандомізованих дерев (якщо бути точнішим, наступний розкол - найкращий розкол серед випадкових рівномірних розщеплень у вибраних змінних для поточного дерева). Але я не …

5
LDA vs word2vec
Я намагаюся зрозуміти, що схоже між латентним розподілом Діріхле і word2vec для обчислення схожості слів. Як я розумію, LDA карти слів вектора ймовірностей латентних тим, в той час як word2vec відображає їх у вектор дійсних чисел (пов'язаних з сингулярного розкладання точкової взаємної інформації см О. Леві, Ю. Голдберг, «Neural Слово …

6
Чому я отримую дерево рішень на 100% точності?
Я отримую 100% точність для свого дерева рішень. Що я роблю неправильно? Це мій код: import pandas as pd import json import numpy as np import sklearn import matplotlib.pyplot as plt data = np.loadtxt("/Users/Nadjla/Downloads/allInteractionsnum.csv", delimiter=',') x = data[0:14] y = data[-1] from sklearn.cross_validation import train_test_split x_train = x[0:2635] x_test = …

3
Настанова щодо вибору гіперпараметрів у програмі глибокого навчання
Я шукаю документ, який міг би допомогти в наданні настанови про те, як вибрати гіперпараметри глибокої архітектури, як-от складені автокодери або глибокі мережі. Гіперпараметрів дуже багато, і я дуже розгублений у тому, як їх вибрати. Також використання перехресної перевірки не є можливим, оскільки навчання дійсно займає багато часу!

3
Інтернет проти офлайн навчання?
Яка різниця між офлайн і онлайн-навчанням ? Це лише питання навчання за всім набором даних (офлайн) порівняно з навчанням поступово (по одному екземпляру)? Які приклади алгоритмів використовуються в обох?

4
Що таке інваріантність перекладу в комп'ютерному зорі та конволюційній нейромережі?
У мене немає фону з комп’ютерним зором, але коли я читаю деякі статті та документи, пов'язані з обробкою зображень та конволюційними нейронними мережами, постійно стикаюся з терміном translation invariance, або translation invariant. Або я читаю багато, що забезпечує згортання translation invariance? !! що це означає? Я сам завжди перекладав це …

3
Які відмінності між "епохою", "партією" та "міні-партією"?
Наскільки мені відомо, коли приймається Stochastic Gradient Descent як алгоритм навчання, хтось використовує 'epoch' для повного набору даних та 'batch' для даних, що використовуються в одному кроці оновлення, в той час як інший використовує відповідно 'batch' і 'minibatch', і інші використовують "епоху" та "міні-серію". Це приводить до великої плутанини під …

3
Різниця кратних оцінок перехресної перевірки як : яка роль "стабільності"?
TL, DR: Схоже, що, всупереч часто повторюваним порадам, перехресне підтвердження виходу-один-один (LOO-CV) - тобтократне CV з(кількість складок), що дорівнює(число навчальних спостережень) - дає оцінку похибки узагальнення, яка є найменшою змінною для будь-якого, не найбільш змінною, припускаючи певнуумову стабільності або моделі / алгоритму, набору даних, або обох (я не впевнений, який …

6
Удосконалити класифікацію за допомогою багатьох категоричних змінних
Я працюю над набором даних з 200 000+ зразків і приблизно 50 особливостей на вибірку: 10 безперервних змінних, а інші ~ 40 - категоричні змінні (країни, мови, наукові галузі тощо). Для цих категоричних змінних у вас є, наприклад, 150 різних країн, 50 мов, 50 наукових галузей тощо ... Поки мій …

4
Чи є сильним фоном у математиці загальний реквізит для ML?
Я починаю хочу просунути свій власний набір навичок, і мене завжди захоплювало машинне навчання. Однак шість років тому, замість того, щоб цим займатися, я вирішив взяти зовсім непов’язаний ступінь з інформатикою. Я розробляю програмне забезпечення та додатки вже близько 8-10 років, тому в мене є хороша ручка, але я просто …

3
Застосування методів машинного навчання на веб-сайтах StackExchange
У цьому семестрі у мене є курс машинного навчання, і професор попросив нас знайти реальну проблему та вирішити її одним із методів машинного навчання, що вводяться в класі, як: Дерева рішень Штучні нейронні мережі Підтримка векторних машин Навчання на основі екземплярів ( kNN , LWL ) Байєсські мережі Підсилення навчання …

2
Якщо інтерес представляє лише прогнозування, навіщо використовувати ласо через хребет?
На сторінці 223 у вступі до статистичного навчання автори узагальнюють відмінності між регресією хребта та ласо. Вони наводять приклад (рис. 6.9) того, коли "ласо має тенденцію перевершити регресію хребта в плані зміщення, дисперсії та MSE". Я розумію, чому ласо може бути бажаним: це призводить до рідкісних рішень, оскільки він зменшує …

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.