Запитання з тегом «train»

навчання (або оцінка) статистичних моделей або алгоритмів.

5
Розмір партії компромісу порівняно з кількістю ітерацій для тренування нейронної мережі
Тренуючи нейронну мережу, яку різницю має встановити: розмір партії до і кількість повторень bаaaбbb порівняно з розміром партії до та кількістю повторень dcccгdd де ?a b = c dab=cd ab = cd Інакше кажучи, припускаючи, що ми навчаємо нейронну мережу з однаковою кількістю прикладів тренувань, як встановити оптимальний розмір партії …

1
Переваги стратифікованої та випадкової вибірки для генерування навчальних даних у класифікації
Мені хотілося б знати, чи є якісь / якісь переваги використання стратифікованого вибірки замість випадкової вибірки під час поділу оригінального набору даних на навчальний та тестовий набір для класифікації. Крім того, чи вводить стратифікований вибірковий отвір більше класифікації в класифікатор, ніж випадковий вибірки Додаток, для якого я хотів би використовувати …

3
Імпутація до або після розбиття на поїзд та випробування?
У мене є набір даних з N ~ 5000 і близько 1/2 відсутня принаймні одна важлива змінна. Основним аналітичним методом будуть пропорційні небезпеки Кокса. Я планую використовувати багаторазову імпутацію. Я також буду розбиватися на поїзд і тестовий набір. Чи слід розділяти дані, а потім імпультувати окремо, або імпутувати, а потім …

2
Правильний шлях Scikit для калібрування класифікаторів за допомогою CalibratedClassifierCV
У Scikit є CalibratedClassifierCV , що дозволяє нам калібрувати наші моделі на певній парі X, y. Він також чітко стверджує, щоdata for fitting the classifier and for calibrating it must be disjoint. Якщо вони повинні бути непересічними, чи законно навчати класифікатора наступним чином? model = CalibratedClassifierCV(my_classifier) model.fit(X_train, y_train) Я побоююся, …

4
Точність машини для підвищення градієнта зменшується зі збільшенням кількості ітерацій
Я експериментую з алгоритмом машини для підвищення градієнта через caretпакет в Р. Використовуючи невеликий набір даних про вступ до коледжу, я застосував такий код: library(caret) ### Load admissions dataset. ### mydata <- read.csv("http://www.ats.ucla.edu/stat/data/binary.csv") ### Create yes/no levels for admission. ### mydata$admit_factor[mydata$admit==0] <- "no" mydata$admit_factor[mydata$admit==1] <- "yes" ### Gradient boosting machine …
15 machine-learning  caret  boosting  gbm  hypothesis-testing  t-test  panel-data  psychometrics  intraclass-correlation  generalized-linear-model  categorical-data  binomial  model  intercept  causality  cross-correlation  distributions  ranks  p-value  z-test  sign-test  time-series  references  terminology  cross-correlation  definition  probability  distributions  beta-distribution  inverse-gamma  missing-data  paired-comparisons  paired-data  clustered-standard-errors  cluster-sample  time-series  arima  logistic  binary-data  odds-ratio  medicine  hypothesis-testing  wilcoxon-mann-whitney  unsupervised-learning  hierarchical-clustering  neural-networks  train  clustering  k-means  regression  ordinal-data  change-scores  machine-learning  experiment-design  roc  precision-recall  auc  stata  multilevel-analysis  regression  fitting  nonlinear  jmp  r  data-visualization  gam  gamm4  r  lme4-nlme  many-categories  regression  causality  instrumental-variables  endogeneity  controlling-for-a-variable 

2
Різні результати від randomForest за допомогою карети та базового пакету randomForest
Я трохи розгублений: як результати тренованої моделі за допомогою карети можуть відрізнятися від моделі в оригінальній упаковці? Читаю, чи потрібна попередня обробка перед прогнозуванням за допомогою FinalModel of RandomForest з пакетом caret?але я тут не використовую жодної попередньої обробки. Я навчав різні випадкові ліси, використовуючи пакет карет і налаштовуючи різні …

3
Навчання, тестування, перевірка проблеми аналізу виживання
Я переглядав різні теми тут, але не думаю, що на моє точне запитання відповіли. У мене є набір даних ~ 50 000 студентів та їх час до відмови. Я буду виконувати пропорційну регресію небезпек із великою кількістю потенційних коваріатів. Я також збираюся здійснити логістичну регресію при відмові / перебуванні. Основною …


4
Хороші приклади / книги / ресурси, щоб дізнатися про прикладне машинне навчання (не лише про саму ML)
Раніше я брав курс з МЛ, але тепер, коли я працюю з проектами, пов’язаними з МЛ, на моїй роботі я дуже намагаюся реально застосувати його. Я впевнений, що речі, якими я займаюся, були досліджені / вирішені раніше, але я не можу знайти конкретні теми. Усі приклади машинного навчання, які я …

3
Підходи при навчанні з величезних наборів даних?
В основному, існує два поширених способи навчитися проти величезних наборів даних (коли ви стикаєтесь із обмеженнями часу та простору): Обман :) - використовуйте просто "керований" підмножину для тренувань. Втрата точності може бути незначною через закон зменшення віддачі - прогнозована ефективність моделі часто вирівнюється задовго до того, як у неї будуть …
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.