Запитання з тегом «machine-learning»

Алгоритми машинного навчання будують модель навчальних даних. Термін «машинне навчання» нечітко визначений; вона включає те, що також називається статистичним навчанням, підкріпленням навчання, непідвладним навчанням і т. д. ВЖЕ ДОДАЙТЕ БІЛЬШЕ СПЕЦИФІЧНУ МЕТОДУ.

1
Чому мої випадкові лісові результати такі мінливі?
Я намагаюся перевірити здатність випадкових лісів класифікувати вибірки між 2 групами; Для класифікації використовується 54 зразки та різна кількість змінних. Мені було цікаво, чому підрахунки "OOB" можуть змінюватись на 5% один від одного, навіть коли я використовую дерева з 50 кб? Це щось, у чому може допомогти завантажувальна програма?

3
Що означають статистики, коли вони кажуть, що ми не розуміємо, як працює LASSO (регуляризація)?
Нещодавно я був на кількох переговорах зі статистикою щодо Лассо (регуляризація), і ми говоримо про те, що ми не дуже розуміємо, чому працює Лассо або чому він працює так добре. Мені цікаво, на що йдеться в цьому твердженні. Очевидно, я розумію, чому Лассо працює технічно, запобігаючи надмірному оснащенню за рахунок …

1
Що обґрунтовує цей обчислення похідної матричної функції?
У курсі машинного навчання Ендрю Нг він використовує цю формулу: ∇Аt r ( A B AТС) = СA B + CТА БТ∇Atr(ABATC)=CAB+CTABT\nabla_A tr(ABA^TC) = CAB + C^TAB^T і він робить швидкий доказ, який показано нижче: ∇Аt r ( A B AТС)= ∇Аt r ( f( А ) АТС)= ∇∘t r …

4
різниця між нейронною мережею та глибоким навчанням
З точки зору різниці між нейронною мережею та глибоким навчанням, ми можемо перелічити декілька предметів, таких як включено більше шарів, масивний набір даних, потужне комп'ютерне обладнання, щоб зробити навчання складною моделлю можливою. Окрім них, чи є більш детальне пояснення щодо різниці між NN та DL?

2
Чи графічні моделі та машини Больцмана пов'язані математично?
Хоча я фактично займався програмуванням з машинами Больцмана на уроці фізики, я не знайомий з їх теоретичною характеристикою. Навпаки, я знаю скромну кількість про теорію графічних моделей (про перші кілька розділів книги « Графічні моделі» Лаурітцена ). Запитання: Чи є якісь змістовні зв’язки між графічними моделями та машиною Больцмана? Чи …

5
Чому показник f beta визначає бета так?
Це показник F бета: Fβ=(1+β2)⋅precision⋅recall(β2⋅precision)+recallFβ=(1+β2)⋅precision⋅recall(β2⋅precision)+recallF_\beta = (1 + \beta^2) \cdot \frac{\mathrm{precision} \cdot \mathrm{recall}}{(\beta^2 \cdot \mathrm{precision}) + \mathrm{recall}} У статті Вікіпедії зазначено, що .FβFβF_\beta "measures the effectiveness of retrieval with respect to a user who attaches β times as much importance to recall as precision" Я не здобув ідеї. Чому так …

3
Чи можна навчити нейронну мережу малювати зображення в певному стилі?
Чи можна навчити нейронну мережу малювати зображення в певному стилі? (Отже, він знімає зображення і перемальовує його у стилі, для якого він був навчений.) Чи є якась затверджена технологія для такого роду речі? Я знаю про алгоритм DeepArt. Добре заповнити основне зображення певним малюнком (наприклад, vangoghify image), але я шукаю …

1
Чи нейронні мережі зазвичай потребують певного часу, щоб "піднятися" під час тренувань?
Я намагаюся навчити глибоку нейронну мережу для класифікації, використовуючи зворотне поширення. Зокрема, я використовую звивисту нейронну мережу для класифікації зображень, використовуючи бібліотеку потоків тензорів. Під час тренувань я відчуваю якусь дивну поведінку, і мені просто цікаво, чи це типово, чи я можу робити щось не так. Отже, моя конволюційна нейронна …

2
Матриця зворотної коваріації проти матриці коваріації в PCA
Чи має значення PCA, якщо ми вибираємо основні компоненти матриці зворотної коваріації АБО, якщо ми відкидаємо власні вектори матриці коваріації, що відповідають великим власним значенням? Це пов’язано з обговоренням у цій публікації .

1
Запобігання відбору зразків важливої ​​важливості Pareto (PSIS-LOO) не виходить з ладу
Нещодавно я почав використовувати випробування з виборкою важливістю Pareto важливої ​​вибіркової перехресної перевірки (PSIS-LOO), описаної в цих роботах: Vehtari, A., & Gelman, A. (2015). Парето вирівнював важливість вибірки. додрук arXiv ( посилання ). Vehtari, A., Gelman, A., & Gabry, J. (2016). Практичне оцінювання байесівської моделі з використанням перехресної валідації "відключення" …

3
Випадки використання RBF SVM (проти логістичної регресії та випадкового лісу)
Підтримка векторних машин з радіально-базовим функціональним ядром є класифікатором, що контролюється загальним призначенням. Хоча я знаю теоретичні основи цих СВМ та їхніх сильних моментів, я не знаю випадків, коли вони є кращим методом. Отже, чи існує клас проблем, за допомогою яких RBF SVM перевершує інші методи ML? (Або з точки …


1
Що розуміється під PCA збереженням лише великих парних відстаней?
Зараз я читаю техніку візуалізації t-SNE, і було зазначено, що одним із недоліків використання аналізу основних компонентів (PCA) для візуалізації високомірних даних є те, що він зберігає лише великі парні відстані між точками. Значущі точки, які знаходяться далеко в просторі великого розміру, також з'являтимуться далеко в низькомірному підпросторі, окрім того, …

1
Розуміння використання логарифмів у логарифмі TF-IDF
Я читав: https://en.wikipedia.org/wiki/Tf%E2%80%93idf#Definition Але я не можу точно зрозуміти, чому формула була побудована такою, якою вона є. Що я розумію: iDF повинен на якомусь рівні вимірювати, як часто термін S з'являється в кожному з документів, зменшуючи значення, оскільки термін з'являється частіше. З цієї точки зору iDF(S)=# of Documents# of Documents …

1
Випадковий ліс проти Адабоост
У розділі 7 статті " Випадкові ліси" (Брейман, 1999) автор констатує таку гіпотезу: "Адабоост - випадковий ліс". Хтось довів чи спростував це? Що було зроблено для підтвердження чи спростування цієї посади 1999 року?

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.