Останнім часом я працюю з великими наборами даних і знайшов чимало паперів потокових методів. Назвати декілька:
- Слідкуйте за регульованим лідером та дзеркальним походженням: теорії еквівалентності та регуляризація L1 ( http://jmlr.org/proceedings/papers/v15/mcmahan11b/mcmahan11b.pdf )
- Потокове навчання: однопрохідні SVM ( http://www.umiacs.umd.edu/~hal/docs/daume09onepass.pdf )
- Pegasos: Первинна оцінка під-GrAdient SOlver для SVM http://ttic.uchicago.edu/~nati/Publications/PegasosMPB.pdf
- або тут: Чи може SVM робити потокове навчання одним прикладом?
- Потокові випадкові ліси ( http://research.cs.queensu.ca/home/cords2/ideas07.pdf )
Однак мені не вдалося знайти жодної документації щодо їх порівняння. Кожна прочитана стаття, здається, проводить експерименти на різних наборах даних.
Я знаю про sofia-ml, vowpal wabbit, але вони, здається, реалізують дуже мало методів, порівняно з величезною кількістю існуючих методів!
Хіба менш поширені алгоритми недостатньо ефективні? Чи є якась стаття, яка намагається переглянути якомога більше методів?