Запитання з тегом «statistical-learning»

Алгоритми машинного навчання будують модель навчальних даних. Термін "машинне навчання" визначений неясно; воно включає те, що також називають статистичним навчанням, навчанням підкріпленням, навчанням без нагляду тощо. ЗАВЖДИ ДОДАЙТЕ БІЛЬШ СПЕЦИФІЧНУ ТЕГУ.

5
Як працює підтримка векторної машини (SVM)?
Як працює векторна машина підтримки (SVM) і чим вона відрізняється від інших лінійних класифікаторів, таких як лінійний рецептор , лінійний дискримінантний аналіз або логістична регресія ? * (* Думаю з точки зору основної мотивації алгоритму, стратегій оптимізації, можливостей узагальнення та складності виконання )

2
Чому регресію хребта називають "хребет", чому він потрібен і що відбувається, коли переходить до нескінченності?
Оцінка коефіцієнта регресії хребта - значення, що мінімізують значенняβ^Rβ^R\hat{\beta}^R RSS+λ∑j=1pβ2j.RSS+λ∑j=1pβj2. \text{RSS} + \lambda \sum_{j=1}^p\beta_j^2. Мої запитання: Якщо , ми бачимо, що вираз вище зводиться до звичайного RSS. Що робити, якщо ? Я не розумію в підручнику пояснення поведінки коефіцієнтів.λ=0λ=0\lambda = 0λ→∞λ→∞\lambda \to \infty Для того, щоб допомогти зрозуміти поняття, що …

3
Керована кластеризація чи класифікація?
Друге питання полягає в тому, що я виявив, що в дискусії десь в Інтернеті говорив про "контрольовану кластеризацію", наскільки я знаю, кластеризація без нагляду, тож який саме сенс стоїть під "контрольованим кластеризацією"? Яка різниця щодо "класифікації"? Про це багато посилань: http://www.cs.uh.edu/docs/cosc/technical-reports/2005/05_10.pdf http://books.nips.cc/papers/files/nips23/NIPS2010_0427.pdf http://engr.case.edu/ray_soumya/mlrg/supervid_clustering_finley_joachims_icml05.pdf http://www.public.asu.edu/~kvanlehn/Stringent/PDF/05CICL_UP_DB_PWJ_KVL.pdf http://www.machinelearning.org/proceedings/icml2007/papers/366.pdf http://www.cs.cornell.edu/~tomf/publications/supervid_kmeans-08.pdf http://jmlr.csail.mit.edu/papers/volume6/daume05a/daume05a.pdf тощо ...

3
Що таке змішування даних?
Цей термін часто з’являється у потоках, пов’язаних із методом . Чи поєднуються конкретний метод у вивченні даних та статистичному навчанні? Я не можу отримати релевантний результат від google. Здається, суміш поєднує результати багатьох моделей і призводить до кращого результату. Чи є якийсь ресурс, який допомагає мені більше знати про це?

1
Чому ми повинні обговорювати поведінку конвергенції різних оцінювачів у різних топологіях?
У першому розділі книги « Алгебраїчна геометрія та теорія статистичного навчання», в якому йдеться про конвергенцію оцінок у різних функціональних просторах, згадується, що байєсова оцінка відповідає топології розподілу Шварца, тоді як оцінка максимальної вірогідності відповідає топології над норми (на сторінці 7): Наприклад, над-норма, -норма, слабка топологія простору Гільберта L 2 …

2
Як вектор змінних може представляти гіперплощину?
Я читаю Елементи статистичного навчання і на сторінці 12 (розділ 2.3) лінійну модель позначають як: Yˆ=XTβˆY^=XTβ^\widehat{Y} = X^{T} \widehat{\beta} ... де - це транспозиція вектора стовпців предикторів / незалежних змінних / входів. (Він раніше зазначав, що "всі вектори вважаються векторами стовпців", тож чи не це зробить вектором рядків і векторним …

1
Логістична регресія для даних розподілу Пуассона
З деяких записок машинного навчання, що розповідають про деякі дискримінаційні методи класифікації, зокрема логістичну регресію, де y - мітка класу (0 або 1), а x - дані, сказано, що: якщо , і x | y = 1 \ sim \ mathrm {Poisson} (λ_1) , то p (y | x) буде …

1
Розширення 2-класових моделей на багатокласні проблеми
У цьому документі про Adaboost наведено кілька пропозицій та код (стор. 17) щодо поширення 2-класових моделей на проблеми K-класу. Я хотів би узагальнити цей код таким чином, щоб я міг легко підключити різні моделі 2 класу та порівняти результати. Оскільки більшість моделей класифікації мають інтерфейс формули та predictметод, деякі з …

1
Уточнення в геометрії інформації
Це питання стосується статті " Диференціальна геометрія криволінійних експоненціальних сімей-кривизни та втрати інформації " Амарі. Текст йде так. Нехай - n -вимірне множина розподілів ймовірностей з системою координат θ = ( θ 1 , … , θ n ) , де p θ ( x ) > 0Sн= { рθ}Sn={pθ}S^n=\{p_{\theta}\}нnnθ …

1
Статистична теорія навчання VS обчислювальна теорія навчання?
Які зв’язки та відмінності між статистичною теорією навчання та теорією обчислювального навчання ? Вони приблизно однієї теми? Вирішуйте ті самі проблеми і використовуйте ті самі методи? Наприклад, перший говорить, що це теорія передбачення (регресія, класифікація, ...).
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.