Запитання з тегом «machine-learning»

Алгоритми машинного навчання будують модель навчальних даних. Термін «машинне навчання» нечітко визначений; вона включає те, що також називається статистичним навчанням, підкріпленням навчання, непідвладним навчанням і т. д. ВЖЕ ДОДАЙТЕ БІЛЬШЕ СПЕЦИФІЧНУ МЕТОДУ.

3
Чи може бути використаний випадковий ліс для вибору ознак при множинній лінійній регресії?
Оскільки РФ може обробляти нелінійність, але не може надати коефіцієнтів, чи було б розумно використовувати випадковий ліс для збору найважливіших характеристик, а потім підключити ці функції до множинної лінійної регресійної моделі для отримання їх коефіцієнтів?

8
Книга для читання перед елементами статистичного навчання?
Грунтуючись на цій публікації , я хочу переварити елементи статистичного навчання. На щастя, вона доступна безкоштовно, і я почав її читати. У мене недостатньо знань, щоб це зрозуміти. Чи можете ви порекомендувати книгу, яка є кращим ознайомленням із темами книги? Сподіваюся, щось, що дасть мені знання, необхідні для його розуміння? …

3
Кластеризація K-Means та EM: як вони пов'язані?
Я вивчив алгоритми кластеризації даних (без нагляду): EM та k-засоби. Я продовжую читати наступне: k-засоби - це варіант ЕМ, з припущеннями, що кластери сферичні. Чи може хтось пояснити вищезгадане речення? Я не розумію, що таке сферичні засоби, і як пов'язані kmeans та EM, оскільки один робить імовірнісне призначення, а інший …

4
Поріг ймовірності класифікації
У мене взагалі питання щодо класифікації. Нехай f - класифікатор, який виводить набір ймовірностей, заданих деякими даними D. Зазвичай, можна сказати: добре, якщо P (c | D)> 0,5, ми призначимо клас 1, інакше 0 (нехай це буде двійковий класифікація). Моє запитання полягає в тому, що якщо я дізнаюся, що якщо …

1
Яким повинен бути розмір партії для стохастичного градієнтного спуску?
Я розумію, що стохастичний градієнтний спуск може бути використаний для оптимізації нейронної мережі за допомогою зворотного розповсюдження шляхом оновлення кожної ітерації іншим зразком навчального набору даних. Яким повинен бути розмір партії?


3
Рекурентні проти рекурсивні нейронні мережі: що краще для НЛП?
Існують рекурентні нейронні мережі та рекурсивні нейронні мережі. Обидва зазвичай позначаються однаковим абревіатурою: RNN. Згідно з Вікіпедією , періодичні NN насправді є рекурсивними NN, але я не дуже розумію пояснення. Більше того, я не вважаю, що краще (із прикладами чи так) для обробки природних мов. Справа в тому, що, хоча …

7
З чого почати зі статистики для досвідченого розробника
Протягом першої половини 2015 року я пройшов курс машинного навчання (Ендрю Нг, ВЕЛИКИЙ курс). А також засвоїли основи машинного навчання (лінійна регресія, логістична регресія, SVM, нейронні мережі ...) Також я був розробником 10 років, тому вивчення нової мови програмування не було б проблемою. Останнім часом я почав вивчати R з …

4
Дисбаланс класу в контрольованому машинному навчанні
Це взагалі питання, не характерне для будь-якого методу чи набору даних. Як ми маємо справу з проблемою дисбалансу класу в контрольованому машинному навчанні, де число 0 становить близько 90%, а число 1 - близько 10% у вашому наборі даних. Як ми оптимально навчаємо класифікатор. Один із способів, за якими я …

3
Розуміння наївного Байєса
( Statisoft, Inc.) (2013), Підручник з електронної статистики , "Класифікатор Naive Bayes" : Щоб продемонструвати концепцію класифікації наївних баїв, розглянемо приклад, показаний на ілюстрації вище. Як зазначено, об'єкти можна класифікувати як ЗЕЛЕНІ або ЧЕРВЕНІ. Моє завдання - класифікувати нові випадки по мірі їх надходження, тобто вирішувати, до якої мітки класу …

2
Чому конволюційні нейронні мережі не використовують класифікаційний векторний апарат підтримки?
В останні роки конволюційні нейронні мережі (CNN) стали найсучаснішим для розпізнавання об'єктів в комп'ютерному зорі. Зазвичай CNN складається з декількох згорткових шарів, за якими слідують два повністю з'єднані шари. Інтуїція, що стоїть за цим, полягає в тому, що згорткові шари навчаються кращому представленню вхідних даних, а повністю пов'язані шари потім …

3
Чи залежить оптимальна кількість дерев у випадковому лісі від кількості предикторів?
Чи може хтось пояснити, навіщо нам потрібна велика кількість дерев у випадкових лісах, коли кількість предикторів велика? Як можна визначити оптимальну кількість дерев?

1
Розуміння "майже весь локальний мінімум має дуже подібне значення функції до глобального оптимуму"
У недавньому дописі блогу Ронге Ге сказано, що: Вважається, що для багатьох проблем, включаючи вивчення глибоких мереж, майже всі локальні мінімуми мають дуже схоже значення функції з глобальним оптимумом, а значить, знайти локальний мінімум досить добре. Звідки походить ця віра?

6
Які альтернативи Gradient Descent?
Градієнтний спуск має проблему застрягти в локальних мінімумах. Для того, щоб знайти глобальні мінімуми, нам потрібно запустити експоненціальний час градієнта спуску. Хто-небудь може розповісти мені про будь-які альтернативи градієнтного спуску, що застосовуються в навчанні нейронної мережі, а також їх плюси та мінуси.

1
Різниця між GradientDescentOptimizer та AdamOptimizer (TensorFlow)?
Я написав простий MLP в TensorFlow, який моделює XOR-ворота . Отже для: input_data = [[0., 0.], [0., 1.], [1., 0.], [1., 1.]] він повинен виробляти наступне: output_data = [[0.], [1.], [1.], [0.]] Мережа має вхідний шар, прихований шар та вихідний шар з 2, 5 та 1 нейроном кожен. В даний …

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.