Запитання з тегом «cross-validation»

Посилається на загальні процедури, які намагаються визначити узагальненість статистичного результату. Перехресне підтвердження часто виникає в контексті оцінки того, як певна модель відповідає прогнозуванню майбутніх спостережень. Методи перехресної перевірки зазвичай передбачають утримування випадкового підмножини даних під час встановлення моделі та кількісну оцінку того, наскільки прогнозовані точні дані, що утримуються, та повторення цього процесу для отримання точності прогнозування.

1
Чому xgboost так швидше, ніж sklearn GradientBoostingClassifier?
Я намагаюся підготувати градієнтну модель для збільшення градієнта на 50 к. Прикладах із 100 числовими функціями. XGBClassifierобробляє 500 дерев протягом 43 секунд на моїй машині, тоді як GradientBoostingClassifierобробляє лише 10 дерев (!) за 1 хвилину і 2 секунди :( Я не намагався виростити 500 дерев, як це займе години. Я …
29 scikit-learn  xgboost  gbm  data-mining  classification  data-cleaning  machine-learning  reinforcement-learning  data-mining  bigdata  dataset  nlp  language-model  stanford-nlp  machine-learning  neural-network  deep-learning  randomized-algorithms  machine-learning  beginner  career  xgboost  loss-function  neural-network  software-recommendation  naive-bayes-classifier  classification  scikit-learn  feature-selection  r  random-forest  cross-validation  data-mining  python  scikit-learn  random-forest  churn  python  clustering  k-means  machine-learning  nlp  sentiment-analysis  machine-learning  programming  python  scikit-learn  nltk  gensim  visualization  data  csv  neural-network  deep-learning  descriptive-statistics  machine-learning  supervised-learning  text-mining  orange  data  parameter-estimation  python  pandas  scraping  r  clustering  k-means  unsupervised-learning 

3
Чи потребує моделювання з випадковими лісами перехресне підтвердження?
Наскільки я бачив, думки щодо цього зазвичай відрізняються. Найкраща практика, безумовно, диктує використання перехресної перевірки (особливо якщо порівнювати радіочастотні сигнали з іншими алгоритмами на тому ж наборі даних). З іншого боку, першоджерело стверджує, що обчислюється похибка OOB під час навчання моделі є достатньою для показника продуктивності тестового набору. Навіть Тревор …

2
Як використовувати вихід GridSearch?
В даний час я працюю з Python та Scikit, які навчаються для цілей класифікації, і читаючи GridSearch, я подумав, що це чудовий спосіб оптимізації моїх параметрів оцінювача для отримання найкращих результатів. Моя методологія така: Розділити мої дані на навчання / тест. Використовуйте GridSearch з 5-кратною перехресною валідацією для підготовки та …

3
Об’єднання декількох фреймів даних у рядку PySpark
У мене є кадри 10 даних pyspark.sql.dataframe.DataFrame, отриманих від , randomSplitяк (td1, td2, td3, td4, td5, td6, td7, td8, td9, td10) = td.randomSplit([.1, .1, .1, .1, .1, .1, .1, .1, .1, .1], seed = 100)зараз , я хочу приєднатися до 9 td«S в один кадр даних, як я повинен робити …

4
Яка різниця між завантажувальним завантаженням і перехресною валідацією?
Я застосовував перехресну валідацію K-кратної для надійної оцінки моїх моделей машинного навчання. Але мені відомо про існування методу завантаження і для цієї мети. Однак я не бачу основної різниці між ними в оцінці ефективності. Наскільки я бачу, завантажувальне завантаження також виробляє певну кількість випадкових навчальних + тестових підмножин (хоча і …

2
Навіщо використовувати як набір перевірки, так і тестовий набір?
Розглянемо нейронну мережу: Для даного набору даних ми ділимо їх на навчальний, валідаційний та тестовий набір. Припустимо, ми робимо це в класичному співвідношенні 60:20:20, тоді ми запобігаємо надмірному встановленню, перевіряючи мережу, перевіряючи її на набір перевірки. Тоді яка необхідність перевірити його на тестовому наборі, щоб перевірити його працездатність? Чи не …

1
Як працює параметр validation_split параметру функції Keras?
Розподіл валідації в функції Кераса Послідовна модель фіксується таким чином : https://keras.io/models/sequences/ : validation_split: плаваю між 0 і 1. Фракція навчальних даних, які використовуватимуться як дані перевірки. Модель буде виділяти цю частину навчальних даних, не буде тренуватись на ній, а також оцінюватиме втрати та будь-які показники моделі на цих даних …

5
збільшують теплову карту для новонароджених
Я створюю corr()df з оригінального df. corr()ДФ вийшов 70 X 70 і неможливо уявити собі Heatmap ... sns.heatmap(df). Якщо я спробую відобразити corr = df.corr()таблицю, таблиця не відповідає екрану, і я бачу всі кореляції. Це спосіб або надрукувати весь, dfнезалежно від його розміру, або контролювати розмір теплової карти?
17 visualization  pandas  plotting  machine-learning  neural-network  svm  decision-trees  svm  efficiency  python  linear-regression  machine-learning  nlp  topic-model  lda  named-entity-recognition  naive-bayes-classifier  association-rules  fuzzy-logic  kaggle  deep-learning  tensorflow  inception  classification  feature-selection  feature-engineering  machine-learning  scikit-learn  tensorflow  keras  encoding  nlp  text-mining  nlp  rnn  python  neural-network  feature-extraction  machine-learning  predictive-modeling  python  r  linear-regression  clustering  r  ggplot2  neural-network  neural-network  training  python  neural-network  deep-learning  rnn  predictive-modeling  databases  sql  programming  distribution  dataset  cross-validation  neural-network  deep-learning  rnn  machine-learning  machine-learning  python  deep-learning  data-mining  tensorflow  visualization  tools  sql  embeddings  orange  feature-extraction  unsupervised-learning  gan  machine-learning  python  data-mining  pandas  machine-learning  data-mining  bigdata  apache-spark  apache-hadoop  deep-learning  python  convnet  keras  aggregation  clustering  k-means  r  random-forest  decision-trees  reference-request  visualization  data  pandas  plotting  neural-network  keras  rnn  theano  deep-learning  tensorflow  inception  predictive-modeling  deep-learning  regression  sentiment-analysis  nlp  encoding  deep-learning  python  scikit-learn  lda  convnet  keras  predictive-modeling  regression  overfitting  regression  svm  prediction  machine-learning  similarity  word2vec  information-retrieval  word-embeddings  neural-network  deep-learning  rnn 

3
Як вибрати класифікатор після перехресної перевірки?
Коли ми робимо k-кратну перехресну перевірку, чи слід просто використовувати класифікатор, який має найвищу точність тесту? Який, як правило, найкращий підхід для отримання класифікатора від перехресної перевірки?

2
Чи може виникнути перевиконання навіть тоді, коли втрати перевірки все ще знижуються?
У мене в Керасі згорнута модель LSTM, подібна до цієї (посилання 1), яку я використовую для змагань Kaggle. Архітектура показана нижче. Я підготував це на своєму міченому наборі з 11000 зразків (два класи, початкова поширеність становить ~ 9: 1, тому я збільшив вибірку від 1 до приблизно 1/1) протягом 50 …

1
Скільки клітин LSTM я повинен використовувати?
Чи є якісь правила (чи фактичні правила), що стосуються мінімальної, максимальної та "розумної" кількості комірок LSTM, які я повинен використовувати? Зокрема, я стосуюсь BasicLSTMCell від TensorFlow та num_unitsвласності. Будь ласка, припустіть, що у мене проблема класифікації, визначена: t - number of time steps n - length of input vector in …
12 rnn  machine-learning  r  predictive-modeling  random-forest  python  language-model  sentiment-analysis  encoding  machine-learning  deep-learning  neural-network  dataset  caffe  classification  xgboost  multiclass-classification  unbalanced-classes  time-series  descriptive-statistics  python  r  clustering  machine-learning  python  deep-learning  tensorflow  machine-learning  python  predictive-modeling  probability  scikit-learn  svm  machine-learning  python  classification  gradient-descent  regression  research  python  neural-network  deep-learning  convnet  keras  python  tensorflow  machine-learning  deep-learning  tensorflow  python  r  bigdata  visualization  rstudio  pandas  pyspark  dataset  time-series  multilabel-classification  machine-learning  neural-network  ensemble-modeling  kaggle  machine-learning  linear-regression  cnn  convnet  machine-learning  tensorflow  association-rules  machine-learning  predictive-modeling  training  model-selection  neural-network  keras  deep-learning  deep-learning  convnet  image-classification  predictive-modeling  prediction  machine-learning  python  classification  predictive-modeling  scikit-learn  machine-learning  python  random-forest  sampling  training  recommender-system  books  python  neural-network  nlp  deep-learning  tensorflow  python  matlab  information-retrieval  search  search-engine  deep-learning  convnet  keras  machine-learning  python  cross-validation  sampling  machine-learning 

4
Переповнення / недостатність розміру даних
На графіку нижче x-ось => Розмір набору даних y-ось => Оцінка перехресної перевірки Червона лінія призначена для навчальних даних Зелена лінія призначена для тестування даних У підручнику, про який я говорю, автор говорить, що точка, де червона та зелена лінія перетинаються, означають, Збір більше даних навряд чи збільшить ефективність узагальнення, …

2
Перехресне підтвердження: K-кратне та повторне випадкове під вибірку
Цікаво, який тип перехресної перевірки моделі вибрати для проблеми класифікації: K-кратна або випадкова підсемплікація (вибірка завантажувальної програми)? Моя найкраща здогадка - використовувати 2/3 набору даних (що становить ~ 1000 предметів) для навчання та 1/3 для перевірки. У цьому випадку K-кратність дає лише три ітерації (складки), що недостатньо, щоб побачити стабільну …

1
Як підійти до змагань numer.ai з анонімними масштабованими чисельними предикторами?
Numer.ai вже деякий час існує, і, як видається, в Інтернеті є лише кілька публікацій чи інших дискусій про це. Система час від часу змінювалася, і сьогодні налаштування таке: дані поїзду (N = 96K) і тестування (N = 33K) з 21 ознаками з безперервними значеннями в [0,1] і двійковою ціллю. Дані …
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.