Запитання з тегом «pac-learning»

PAC - це, мабуть, приблизно правильне навчання

20
Дві культури: статистика проти машинного навчання?
Минулого року я прочитав допис у блозі від Брендана О'Коннора під назвою "Статистика проти машинного навчання, боріться!" які обговорювали деякі відмінності між двома полями. Ендрю Гельман відповів на це позитивно : Саймон Бломберг: З пакету статей R: Якщо перефразовувати провокаційно, "машинне навчання - це статистика за вирахуванням будь-якої перевірки моделей …

3
Що означає "слабкий учень"?
Хтось може сказати мені, що розуміється під фразою «слабкий учень»? Це має бути слабкою гіпотезою? Мене плутає зв’язок між слабким учнем та слабким класифікатором. Обидва однакові чи є якась різниця? У AdaBoost алгоритму T=10. Що мається на увазі під цим? Чому ми обираємо T=10?

4
Вступ до машинного навчання математиків
У певному сенсі це мій перехрестя з math.stackexchange , і я маю відчуття, що цей сайт може забезпечити широку аудиторію. Шукаю математичне вступ до машинного навчання. Зокрема, багато літератури, яку можна знайти, є відносно неточною, і багато сторінок витрачаються без будь-якого змісту. Однак, виходячи з такої літератури, я відкрив курси …

6
Яка «основна» ідея машинного навчання для оцінки параметрів?
"Основна" ідея статистики для оцінки параметрів - максимальна ймовірність . Мені цікаво, яка відповідна ідея в машинному навчанні. Qn 1. Було б справедливо сказати, що "фундаментальною" ідеєю в машинному навчанні для оцінки параметрів є: "Функції втрати" [Примітка. Мені здається, що алгоритми машинного навчання часто оптимізують функцію втрат і, отже, вищезазначене …

1
Чому ми вважаємо, що помилка зазвичай розподіляється?
Цікаво, чому ми використовуємо припущення Гаусса при моделюванні помилки. У курсі МЛ Стенфорда професор Нг описує це в основному двома способами: Це математично зручно. (Це пов'язано з розміщенням найменших квадратів і їх легко вирішити за допомогою псевдоінверси) Зважаючи на теорему центрального ліміту, ми можемо вважати, що існує безліч фактів, що …

2
Які альтернативи VC-виміру для вимірювання складності нейронних мереж?
Я натрапив на кілька основних способів вимірювання складності нейронних мереж: Наївні та неформальні: підраховують кількість нейронів, прихованих нейронів, шарів чи прихованих шарів VC-вимір (Eduardo D. Sontag [1998] "VC-розмір нейронних мереж" [ pdf ].) ОбчислювальнаТС0гТСг0TC^0_d та асимптотична обчислювальна складність вимірювання за еквівалентністю . Чи є інші альтернативи? Краще: Якщо показник складності …

2
Що означає теорія навчання PAC?
Я новачок у машинному навчанні. Я вивчаю курс машинного навчання (Стенфордський університет) і не зрозумів, що означає ця теорія і в чому її корисність. Мені цікаво, чи міг би хтось детально розказати цю теорію для мене. Ця теорія заснована на цьому рівнянні.

1
Комплексний аналіз, функціональний аналіз для глибшого розуміння машинного навчання
Я хочу заглибитися в машинне навчання (теорія та застосування у фінансах). Хочу запитати, наскільки релевантні комплексний аналіз та функціональний аналіз як основа машинного навчання? Чи потрібно мені вивчати ці предмети чи слід зосередитись на іншій темі (якщо так, то на якій?)

2
Обчисліть криву ROC для даних
Отже, у мене є 16 випробувань, в яких я намагаюся ідентифікувати людину з біометричної ознаки за допомогою дистанції Hamming. Мій поріг встановлено на 3,5. Мої дані нижче, і лише пробна версія 1 - справжнє Позитивне: Trial Hamming Distance 1 0.34 2 0.37 3 0.34 4 0.29 5 0.55 6 0.47 …
9 mathematical-statistics  roc  classification  cross-validation  pac-learning  r  anova  survival  hazard  machine-learning  data-mining  hypothesis-testing  regression  random-variable  non-independent  normal-distribution  approximation  central-limit-theorem  interpolation  splines  distributions  kernel-smoothing  r  data-visualization  ggplot2  distributions  binomial  random-variable  poisson-distribution  simulation  kalman-filter  regression  lasso  regularization  lme4-nlme  model-selection  aic  r  mcmc  dlm  particle-filter  r  panel-data  multilevel-analysis  model-selection  entropy  graphical-model  r  distributions  quantiles  qq-plot  svm  matlab  regression  lasso  regularization  entropy  inference  r  distributions  dataset  algorithms  matrix-decomposition  regression  modeling  interaction  regularization  expected-value  exponential  gamma-distribution  mcmc  gibbs  probability  self-study  normality-assumption  naive-bayes  bayes-optimal-classifier  standard-deviation  classification  optimization  control-chart  engineering-statistics  regression  lasso  regularization  regression  references  lasso  regularization  elastic-net  r  distributions  aggregation  clustering  algorithms  regression  correlation  modeling  distributions  time-series  standard-deviation  goodness-of-fit  hypothesis-testing  statistical-significance  sample  binary-data  estimation  random-variable  interpolation  distributions  probability  chi-squared  predictor  outliers  regression  modeling  interaction 
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.