Запитання з тегом «preprocessing»

2
Як підготувати / збільшити зображення для нейронної мережі?
Я хотів би використовувати нейронну мережу для класифікації зображень. Почну з попередньо підготовленого CaffeNet і навчу його для мого застосування. Як слід підготувати вхідні зображення? У цьому випадку всі зображення однакового об’єкта, але з варіаціями (подумайте: контроль якості). Вони знаходяться в дещо різних масштабах / дозволах / відстанях / умовах …

3
StandardScaler до і після поділу даних
Коли я читав про використання StandardScaler, більшість рекомендацій говорили про те, що слід використовувати, StandardScaler перш ніж розділяти дані на поїзд / тест, але коли я перевіряв деякі коди, розміщені в Інтернеті (за допомогою sklearn), було два основних напрямки. 1- Використання StandardScalerвсіх даних. Напр from sklearn.preprocessing import StandardScaler sc = …

4
Різний набір тестів та розподіл навчальних наборів
Я працюю над змаганнями з наукових даних, для яких розподіл мого тестового набору відрізняється від навчального набору. Я хочу підпробовувати спостереження з навчального набору, який дуже нагадує тестовий набір. Як я можу це зробити?

3
Змінення розміру зображення та обшивка для CNN
Я хочу навчити CNN для розпізнавання зображень. Зображення для тренувань не мають фіксованого розміру. Наприклад, я хочу, щоб розмір вводу для CNN становив 50x100 (висота x ширина), наприклад. Коли я змінюю розмір невеликих розмірів зображень (наприклад, 32x32) до розміру введення, вміст зображення занадто сильно розтягується по горизонталі, але для деяких …

3
Чи є якісні нестандартні мовні моделі для python?
Я прототипую додаток, і мені потрібна мовна модель, щоб обчислити здивування в деяких створених пропозиціях. Чи є якась навчена мовна модель в python, яку я можу легко використовувати? Щось на кшталт простого model = LanguageModel('en') p1 = model.perplexity('This is a well constructed sentence') p2 = model.perplexity('Bunny lamp robert junior pancake') …
11 python  nlp  language-model  r  statistics  linear-regression  machine-learning  classification  random-forest  xgboost  python  sampling  data-mining  orange  predictive-modeling  recommender-system  statistics  dimensionality-reduction  pca  machine-learning  python  deep-learning  keras  reinforcement-learning  neural-network  image-classification  r  dplyr  deep-learning  keras  tensorflow  lstm  dropout  machine-learning  sampling  categorical-data  data-imputation  machine-learning  deep-learning  machine-learning-model  dropout  deep-network  pandas  data-cleaning  data-science-model  aggregation  python  neural-network  reinforcement-learning  policy-gradients  r  dataframe  dataset  statistics  prediction  forecasting  r  k-means  python  scikit-learn  labels  python  orange  cloud-computing  machine-learning  neural-network  deep-learning  rnn  recurrent-neural-net  logistic-regression  missing-data  deep-learning  autoencoder  apache-hadoop  time-series  data  preprocessing  classification  predictive-modeling  time-series  machine-learning  python  feature-selection  autoencoder  deep-learning  keras  tensorflow  lstm  word-embeddings  predictive-modeling  prediction  machine-learning-model  machine-learning  classification  binary  theory  machine-learning  neural-network  time-series  lstm  rnn  neural-network  deep-learning  keras  tensorflow  convnet  computer-vision 

1
Як підійти до змагань numer.ai з анонімними масштабованими чисельними предикторами?
Numer.ai вже деякий час існує, і, як видається, в Інтернеті є лише кілька публікацій чи інших дискусій про це. Система час від часу змінювалася, і сьогодні налаштування таке: дані поїзду (N = 96K) і тестування (N = 33K) з 21 ознаками з безперервними значеннями в [0,1] і двійковою ціллю. Дані …
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.