Запитання з тегом «feature-selection»

Методи та принципи вибору підмножини атрибутів для використання в подальшому моделюванні

11
Що таке зменшення розмірності? Чим відрізняється вибір функції та вилучення?
З Вікіпедії, зменшення розмірності або зменшення розмірності - це процес зменшення кількості розглянутих випадкових змінних, і їх можна розділити на вибір функції та вилучення ознак. Чим відрізняється вибір функції та вилучення функції? Що таке приклад зменшення розмірності завдання з обробки природних мов?

10
Машинне навчання - функціонує інженерія з даних дати / часу
Які спільні / найкращі практики для обробки даних про час застосування машинного навчання? Наприклад, якщо в наборі даних є стовпець із часовою позначкою події, наприклад "2014-05-05", як ви можете витягти корисні функції з цього стовпця, якщо такі є? Спасибі заздалегідь!

5
Чи має алгоритм вибору / покрокової регресії в scikit-learn?
Я працюю над проблемою із занадто великою кількістю функцій, і навчання моїх моделей відбувається занадто довго. Я реалізував алгоритм вибору вперед для вибору функцій. Однак мені було цікаво, чи має scikit-learn алгоритм вибору / покрокової регресії?

1
Чому xgboost так швидше, ніж sklearn GradientBoostingClassifier?
Я намагаюся підготувати градієнтну модель для збільшення градієнта на 50 к. Прикладах із 100 числовими функціями. XGBClassifierобробляє 500 дерев протягом 43 секунд на моїй машині, тоді як GradientBoostingClassifierобробляє лише 10 дерев (!) за 1 хвилину і 2 секунди :( Я не намагався виростити 500 дерев, як це займе години. Я …
29 scikit-learn  xgboost  gbm  data-mining  classification  data-cleaning  machine-learning  reinforcement-learning  data-mining  bigdata  dataset  nlp  language-model  stanford-nlp  machine-learning  neural-network  deep-learning  randomized-algorithms  machine-learning  beginner  career  xgboost  loss-function  neural-network  software-recommendation  naive-bayes-classifier  classification  scikit-learn  feature-selection  r  random-forest  cross-validation  data-mining  python  scikit-learn  random-forest  churn  python  clustering  k-means  machine-learning  nlp  sentiment-analysis  machine-learning  programming  python  scikit-learn  nltk  gensim  visualization  data  csv  neural-network  deep-learning  descriptive-statistics  machine-learning  supervised-learning  text-mining  orange  data  parameter-estimation  python  pandas  scraping  r  clustering  k-means  unsupervised-learning 

6
Чи є інструменти для художньої інженерії?
Зокрема, я шукаю інструменти з деякою функціональністю, яка є специфічною для інженерії функцій. Я хотів би мати можливість легко згладжувати, візуалізувати, заповнювати прогалини тощо. Щось подібне до MS Excel, але ця мова має R як основну мову замість VB.

4
Чи XGBoost самостійно обробляє мультиколінеарність?
В даний час я використовую XGBoost для набору даних з 21 функцією (вибрано зі списку з приблизно 150 функцій), потім однокольоровим кодуванням їх, щоб отримати ~ 98 функцій. Деякі з цих 98 особливостей є дещо зайвими, наприклад: змінна (функція) також з'являється як і .ААAБАБА\frac{B}{A}САСА\frac{C}{A} Мої запитання: Як ( якщо? ) …

3
Як виконати інженерію функцій на невідомих функціях?
Я беру участь у змаганнях з кагл. Набір даних має близько 100 функцій і всі невідомі (з точки зору того, що насправді вони представляють). В основному це просто цифри. Люди виконують багато інженерних можливостей щодо цих функцій. Мені цікаво, як саме можна вміти виконувати інженерну програму на невідомих функціях? Може …

2
Категоризація тексту: поєднання різного роду ознак
Проблема, яку я вирішую, - класифікація коротких текстів на кілька класів. Мій сучасний підхід полягає у використанні зважених термінальних частот tf-idf та вивченні простого лінійного класифікатора (логістична регресія). Це працює досить добре (близько 90% макро F-1 на тестовому наборі, майже 100% на навчальному наборі). Великою проблемою є невидимі слова / …

4
Якісь "великі правила" щодо кількості функцій проти кількості примірників? (невеликі набори даних)
Мені цікаво, чи є евристика за кількістю ознак проти кількості спостережень. Очевидно, якщо низка особливостей дорівнює кількості спостережень, модель буде перевершувати. За допомогою розріджених методів (LASSO, еластична сітка) ми можемо усунути кілька функцій, щоб зменшити модель. Моє запитання (теоретично): перед тим, як використовувати метрики для оцінки вибору моделі, чи існують …

5
збільшують теплову карту для новонароджених
Я створюю corr()df з оригінального df. corr()ДФ вийшов 70 X 70 і неможливо уявити собі Heatmap ... sns.heatmap(df). Якщо я спробую відобразити corr = df.corr()таблицю, таблиця не відповідає екрану, і я бачу всі кореляції. Це спосіб або надрукувати весь, dfнезалежно від його розміру, або контролювати розмір теплової карти?
17 visualization  pandas  plotting  machine-learning  neural-network  svm  decision-trees  svm  efficiency  python  linear-regression  machine-learning  nlp  topic-model  lda  named-entity-recognition  naive-bayes-classifier  association-rules  fuzzy-logic  kaggle  deep-learning  tensorflow  inception  classification  feature-selection  feature-engineering  machine-learning  scikit-learn  tensorflow  keras  encoding  nlp  text-mining  nlp  rnn  python  neural-network  feature-extraction  machine-learning  predictive-modeling  python  r  linear-regression  clustering  r  ggplot2  neural-network  neural-network  training  python  neural-network  deep-learning  rnn  predictive-modeling  databases  sql  programming  distribution  dataset  cross-validation  neural-network  deep-learning  rnn  machine-learning  machine-learning  python  deep-learning  data-mining  tensorflow  visualization  tools  sql  embeddings  orange  feature-extraction  unsupervised-learning  gan  machine-learning  python  data-mining  pandas  machine-learning  data-mining  bigdata  apache-spark  apache-hadoop  deep-learning  python  convnet  keras  aggregation  clustering  k-means  r  random-forest  decision-trees  reference-request  visualization  data  pandas  plotting  neural-network  keras  rnn  theano  deep-learning  tensorflow  inception  predictive-modeling  deep-learning  regression  sentiment-analysis  nlp  encoding  deep-learning  python  scikit-learn  lda  convnet  keras  predictive-modeling  regression  overfitting  regression  svm  prediction  machine-learning  similarity  word2vec  information-retrieval  word-embeddings  neural-network  deep-learning  rnn 

2
Як вибрати функції нейронної мережі?
Я знаю, що на це запитання немає чіткої відповіді, але припустимо, що у мене величезна нейронна мережа з великою кількістю даних, і я хочу додати нову функцію у вхід. "Найкращим" способом було б протестувати мережу за допомогою нової функції та побачити результати, але чи є метод перевірити, чи функція НЕВІДОМНО …

5
Вибір функції проти вилучення функцій. Який використовувати коли?
Витяг функцій та вибір функцій суттєво зменшують розмірність даних, але вилучення функції також робить дані більш відокремленими, якщо я маю рацію. Якій техніці віддати перевагу над іншою та коли? Я думав, оскільки вибір функції не змінює вихідні дані та його властивості, я припускаю, що ви будете використовувати підбір функції, коли …

3
Як поєднувати категоричні та безперервні функції введення для тренувань нейронної мережі
Припустимо, у нас є два види вхідних функцій, категоричні та безперервні. Категоричні дані можуть бути представлені у вигляді гарячого коду A, тоді як безперервні дані є просто вектором B у просторі N розмірів. Здається, що просто використання concat (A, B) не є вдалим вибором, оскільки A, B - це абсолютно …

4
Як вказати важливі атрибути?
Припустимо набір слабко структурованих даних (наприклад, веб-таблиці / пов'язані відкриті дані), що складається з багатьох джерел даних. Немає загальної схеми, за якою слідують дані, і кожне джерело може використовувати атрибути синоніму для опису значень (наприклад, "національність" проти "bornIn"). Моя мета - знайти деякі "важливі" атрибути, які якимось чином "визначають" сутності, …

4
Які наслідки для навчання ансамблю дерев із сильно упередженими наборами даних?
У мене є дуже упереджений бінарний набір даних - у мене на 1000 разів більше прикладів негативного класу, ніж позитивного класу. Я хотів би тренувати ансамбль дерев (наприклад, додаткові випадкові дерева або випадковий ліс) за цими даними, але важко створити набори навчальних наборів, які містять достатньо прикладів позитивного класу. Якими …

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.