Запитання з тегом «machine-learning»

Методи та принципи побудови "комп'ютерних систем, які автоматично вдосконалюються з досвідом".

1
Реалізація t-SNE Python: розбіжність Kullback-Leibler
t-SNE, як у [1], працює шляхом поступового зменшення розбіжності Куллбека-Лейблера (KL) до досягнення певної умови. Творці t-SNE пропонують використовувати дивергенцію KL як критерій продуктивності візуалізацій: ви можете порівняти розбіжності Kullback-Leibler, про які повідомляє t-SNE. Цілком чудово запустити t-SNE десять разів і вибрати рішення з найнижчою різницею KL [2] Я спробував …


3
Що таке LSTM, BiLSTM і коли їх використовувати?
Я дуже новачок у глибокому навчанні, і мені особливо цікаво знати, що таке LSTM та BiLSTM та коли їх використовувати (основні сфери застосування). Чому LSTM і BILSTM популярніші за RNN? Чи можемо ми використовувати ці архітектури глибокого навчання у непідконтрольних проблемах?

4
Машинне навчання проти глибокого навчання
Мене трохи бентежить різниця між термінами "машинне навчання" та "глибоке навчання". Я погуглив його і прочитав багато статей, але мені це все ще не дуже зрозуміло. Відоме визначення машинного навчання Тома Мітчелла: Комп'ютерна програма називається витягти з досвіду Е щодо деякого класу задач T і вимірювання продуктивності P , якщо …

4
Переповнення / недостатність розміру даних
На графіку нижче x-ось => Розмір набору даних y-ось => Оцінка перехресної перевірки Червона лінія призначена для навчальних даних Зелена лінія призначена для тестування даних У підручнику, про який я говорю, автор говорить, що точка, де червона та зелена лінія перетинаються, означають, Збір більше даних навряд чи збільшить ефективність узагальнення, …

1
Що відбувається, коли ми тренуємо лінійний SVM на нелінійно відокремлюваних даних?
Що відбувається, коли ми тренуємо основну машину підтримки вектора (лінійне ядро ​​та відсутність м'якого запасу) на нелінійно відокремлюваних даних? Проблема оптимізації неможлива, тому що повертає алгоритм мінімізації?

1
Вплив НЕ зміни ваги фільтрів CNN під час заднього ходу
Який ефект НЕ змінює ваги фільтрів CNN під час зворотного розповсюдження? Я змінив лише повністю пов'язані ваги шару під час тренування на наборі даних MNIST і все-таки досяг майже 99-відсоткової точності.

3
Кращі мови для наукових обчислень [закрито]
Закрито . Це питання має бути більш зосередженим . Наразі відповіді не приймаються. Хочете вдосконалити це питання? Оновіть питання, щоб воно зосередило увагу на одній проблемі, лише відредагувавши цю публікацію . Закрито 5 років тому . Здається, що більшість мов мають деяку кількість бібліотек наукових обчислень. Python має Scipy Rust …
10 efficiency  statistics  tools  knowledge-base  machine-learning  neural-network  deep-learning  optimization  hyperparameter  machine-learning  time-series  categorical-data  logistic-regression  python  visualization  bigdata  efficiency  classification  binary  svm  random-forest  logistic-regression  data-mining  sql  experiments  bigdata  efficiency  performance  scalability  distributed  bigdata  nlp  statistics  education  knowledge-base  definitions  machine-learning  recommender-system  evaluation  efficiency  algorithms  parameter  efficiency  scalability  sql  statistics  visualization  knowledge-base  education  machine-learning  r  python  r  text-mining  sentiment-analysis  machine-learning  machine-learning  python  neural-network  statistics  reference-request  machine-learning  data-mining  python  classification  data-mining  bigdata  usecase  apache-hadoop  map-reduce  aws  education  feature-selection  machine-learning  machine-learning  sports  data-formats  hierarchical-data-format  bigdata  apache-hadoop  bigdata  apache-hadoop  python  visualization  knowledge-base  classification  confusion-matrix  accuracy  bigdata  apache-hadoop  bigdata  efficiency  apache-hadoop  distributed  machine-translation  nlp  metadata  data-cleaning  text-mining  python  pandas  machine-learning  python  pandas  scikit-learn  bigdata  machine-learning  databases  clustering  data-mining  recommender-system 

3
Як я можу класифікувати категоричні дані, які не виправлені?
У мене є проблема класифікації як категоричних, так і числових даних. Проблема, з якою я стикаюся, полягає в тому, що мої категоричні дані не виправлені, це означає, що новий кандидат, ярлик якого я хочу передбачити, може мати нову категорію, яку раніше не спостерігали. Наприклад, якщо мої категоричні дані були sexєдино …

3
Рання зупинка на втраті перевірки чи на точності?
В даний час я навчаю нейронну мережу, і не можу вирішити, що використовувати для реалізації своїх критеріїв раннього припинення: втрата валідації або такі показники, як точність / f1score / auc / незалежно від обчислених наборів перевірки. У своєму дослідженні я натрапив на статті, що захищають обидві точки зору. Здається, Керас …

1
Що таке «новий алгоритм навчання підкріплення» в AlphaGo Zero?
Чомусь AlphaGo Zero не отримує такої реклами, як оригінальний AlphaGo, незважаючи на неймовірні результати. Починаючи з нуля, він вже переміг AlphaGo Master і пройшов численні інші орієнтири. Ще неймовірніше, що це робиться за 40 днів. Google називає це ", мабуть, найкращим гравцем Go у світі" . DeepMind стверджує, що це …

2
Чому навчання на моєму графічному процесорі займає так довго?
Деталі: GPU : GTX 1080 Навчання : ~ 1,1 млн. Зображень, що належать до 10 класів Перевірка : ~ 150 тис. Зображень, що належать до 10 класів Час за епоху : ~ 10 годин Я налаштував CUDA, cuDNN і Tensorflow (також Tensorflow GPU). Я не думаю, що моя модель є …

2
Спроба використовувати TensorFlow для прогнозування даних про фінансові часові ряди
Я новачок у ML та TensorFlow (я почав близько декількох годин тому), і я намагаюся використовувати його для прогнозування наступних кількох точок даних у часовій серії. Я беру свій внесок і роблю це з цим: /----------- x ------------\ .-------------------------------. | 0 | 1 | 2 | 3 | 4 | …

2
Як перевірити наявність мертвих нейронів релу
Передумови: Під час встановлення нейронних мереж з активацією relu я виявив, що іноді прогноз стає майже постійним. Я вважаю, що це пов’язано з нейронами relu, що гинуть під час тренувань, про що йдеться тут. ( Яка проблема "вмираючої ReLU" в нейронних мережах? ) Питання: Що я сподіваюся зробити, це здійснити …

3
Рецидивна (CNN) модель на даних ЕЕГ
Мені цікаво, як інтерпретувати повторювану архітектуру в контексті EEG. Конкретно я думаю про це як про рецидивуючу CNN (на відміну від таких архітектур, як LSTM), але, можливо, це стосується і інших типів рекурентних мереж Коли я читаю про R-CNN, вони зазвичай пояснюються в контекстах класифікації зображень. Вони зазвичай описуються як …

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.