Запитання з тегом «machine-learning»

Алгоритми машинного навчання будують модель навчальних даних. Термін «машинне навчання» нечітко визначений; вона включає те, що також називається статистичним навчанням, підкріпленням навчання, непідвладним навчанням і т. д. ВЖЕ ДОДАЙТЕ БІЛЬШЕ СПЕЦИФІЧНУ МЕТОДУ.


3
Виконайте лінійну регресію, але змушуйте рішення пройти через деякі конкретні точки даних
Я знаю, як виконати лінійну регресію на множині точок. Тобто я знаю, як поліном, який я обрав, до заданого набору даних (у значенні LSE). Однак те, що я не знаю, - це як змусити моє рішення пройти певні конкретні моменти мого вибору. Я бачив, як це робилося раніше, але я …

3
Які повинні бути оптимальні параметри для класифікатора випадкових лісів?
В даний час я використовую RF інструментарій на MATLAB для проблеми бінарної класифікації Набір даних: 50000 зразків та понад 250 функцій Отже, якою має бути кількість дерев та випадково обрана функція на кожному розрізі, щоб виростити дерева? може будь-який інший параметр сильно впливає на результати?

2
Як Naive Bayes працює з безперервними змінними?
На моє (дуже базове) розуміння, Naive Bayes оцінює ймовірності на основі частоти класів кожної функції у навчальних даних. Але як він обчислює частоту безперервних змінних? І коли робите прогнозування, як воно класифікує нове спостереження, яке може не мати однакових значень у будь-якого спостереження у навчальному наборі? Він використовує якусь міру …


6
Оцінка MLE проти MAP, коли використовувати який?
MLE = Максимальна оцінка ймовірності MAP = Максимум a posteriori MLE інтуїтивно зрозумілий / наївний тим, що він починається лише з ймовірності спостереження за даним параметром (тобто функцією ймовірності) і намагається знайти параметр, що найкраще відповідає спостереженню . Але це не враховує попередніх знань. MAP видається більш розумним, оскільки він …

2
Класифікація з галасливими мітками?
Я намагаюся навчити нейронну мережу для класифікації, але мітки, які у мене є, досить шумні (близько 30% міток неправильні). Втрата перехресної ентропії справді працює, але мені було цікаво, чи є в цьому випадку якісь альтернативи? чи оптимальна втрата перехресної ентропії? Я не впевнений, але я думаю про те, щоб дещо …

2
Чи є поріг рішення гіперпараметром при логістичній регресії?
Прогнозовані класи від (бінарної) логістичної регресії визначаються за допомогою порогу щодо ймовірностей членства в класі, породжених моделлю. Як я розумію, типово 0,5 використовується за замовчуванням. Але зміна порогу змінить передбачувані класифікації. Чи означає це поріг - гіперпараметр? Якщо так, то чому (наприклад) неможливо легко здійснити пошук по сітці порогів за …

3
Чому корисна завантажувальна програма?
Якщо все, що ви робите, - це повторний відбір з емпіричного розподілу, чому б не просто вивчити емпіричний розподіл? Наприклад, замість вивчення змінності за допомогою повторного відбору проб, чому б не просто кількісно оцінити мінливість від емпіричного розподілу?

1
Порівняння двох моделей, коли криві ROC перетинаються одна з одною
Однією загальною мірою, яка використовується для порівняння двох або більше моделей класифікації, є використання площі під кривою ROC (AUC) як спосіб опосередкованої оцінки їх ефективності. У цьому випадку модель з більшою AUC зазвичай трактується як краща, ніж модель з меншою AUC. Але, за даними Vihinen, 2012 ( https://www.ncbi.nlm.nih.gov/pmc/articles/PMC3303716/ ), коли …

2
Оптимізація та машинне навчання
Мені хотілося знати, наскільки машинне навчання вимагає оптимізації. З того, що я чув, статистика є важливою математичною темою для людей, які працюють з машинним навчанням. Так само, наскільки важливо, щоб хтось, хто працює з машинним навчанням, дізнався про опуклу або невипуклу оптимізацію?

2
Нейрові мережі: одночасна змінна переважна безперервна?
У мене є вихідні дані, які містять близько 20 стовпців (20 функцій). Десять із них - це суцільні дані, 10 з них - категоричні. Деякі з категоричних даних можуть мати приблизно 50 різних значень (США). Після того як я попередньо обробляла дані, 10 безперервних стовпців стають 10 підготовленими стовпцями, а …

1
Чому навчання з глибокого підкріплення нестабільне?
У статті DeepMind за 2015 рік про глибоке підкріплення навчання йдеться про те, що "попередні спроби поєднати RL з нейронними мережами значною мірою зазнали невдачі через нестабільне навчання". Потім у статті перераховані деякі причини цього на основі співвідношень спостережень. Скажіть, будь ласка, хтось пояснить, що це означає? Це форма надмірного …

3
Вибір гіперпараметрів з використанням T-SNE для класифікації
В якості специфічної проблеми, з якою я працюю (конкуренція), у мене є наступне налаштування: 21 функція (числовий на [0,1]) та двійковий вихід. У мене близько 100 К рядків. Налаштування здається дуже галасливим. Я та інші учасники впродовж певного часу застосовуємо генерацію функцій, і вбудована стохастична сусідська вбудована версія t виявилася …

2
Чому нейронні мережі легко обдурити?
Я прочитав кілька статей про створення вручну зображень, щоб "обдурити" нейронну мережу (див. Нижче). Це тому, що мережі лише моделюють умовну ймовірність ? Якщо мережа може моделювати спільну ймовірність p ( y , x ) , чи все ж такі випадки будуть мати місце?p(y|x)p(y|x)p(y|x)p(y,x)p(y,x)p(y,x) Я здогадуюсь, що такі штучно створені …

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.