Запитання з тегом «feature-selection»

Методи та принципи вибору підмножини атрибутів для використання в подальшому моделюванні

2
Оцінювач Байєса несприйнятливий до вибору зміщення
Чи оцінювачі Байєса несприйнятливі до зміщення відбору? Більшість статей, в яких обговорюється оцінка високої розмірності, наприклад, дані про цілі послідовності геномів, часто порушують питання зміщення селекції. Відхилення відбору випливають з того, що, хоча у нас є тисячі потенційних прогнозів, буде вибрано лише декілька, і на декількох вибраних буде зроблено висновок. …

1
Байєсовий шип і плита проти пенізованих методів
Я читаю слайди Стівена Скотта про пакет BSTS R (їх можна знайти тут: слайди ). У якийсь момент, коли йдеться про включення багатьох регресорів у модель структурних часових рядів, він вводить коефіцієнти регресії ковзання та плити, і каже, що вони краще порівняно з пенізованими методами. Скаже Скотт, посилаючись на приклад …

1
Як інтерпретувати результати, коли і гребінець, і ласо окремо працюють добре, але дають різні коефіцієнти
Я запускаю регресійну модель як з Лассо, так і з Ріджем (для прогнозу дискретної змінної результату в межах від 0 до 5). Перш ніж запустити модель, я використовую SelectKBestметод scikit-learnзменшення набору функцій з 250 до 25 . Без початкового вибору особливостей і Лассо, і Рідж поступаються нижчим показникам точності [що …

1
Чому вибір завдань важливий для класифікаційних завдань?
Я дізнаюся про вибір функції. Я бачу, чому це було б важливо і корисно для побудови моделей. Але зупинімося на контрольованих навчальних (класифікаційних) завданнях. Чому вибір завдань важливий для класифікаційних завдань? Я бачу багато літератури, написаної про вибір функції та її використання для контрольованого навчання, але це спантеличує мене. Вибір …

1
Для якого вибору ознак можна використати тест Chi?
Тут я запитую про те, що зазвичай роблять інші, щоб використовувати тест-квадрат чи для вибору функцій wrt для вибору функцій при контрольованому навчанні. Якщо я правильно розумію, чи перевіряють вони незалежність між кожною ознакою та результатом і чи порівнюють значення p між тестами для кожної функції? У http://en.wikipedia.org/wiki/Pearson%27s_chi-squared_test , Хір-квадратний …

6
Методи в R або Python для вибору функції в непідконтрольному навчанні [закрито]
Зачинено. Це питання поза темою . Наразі відповіді не приймаються. Хочете вдосконалити це питання? Оновіть питання, щоб воно було тематичним для перехресної перевірки. Закрито 2 роки тому . Які доступні методи / реалізація в R / Python для відмови / вибору неважливих / важливих функцій у даних? Мої дані не …

2
Заходи відокремленості класу в задачах класифікації
Прикладом гарної міри відокремленості класів у лінійних дискримінантних учнів є лінійне дискримінантне відношення Фішера. Чи є інші корисні показники для визначення того, чи забезпечують набори функцій гарне розділення класів між цільовими змінними? Зокрема, мені цікаво знайти хороші багатовимірні атрибути введення для максимізації поділу цільових класів, і було б непогано мати …

1
Автоматичний вибір функції для виявлення аномалії
Який найкращий спосіб автоматичного вибору функцій для виявлення аномалії? Я зазвичай розглядаю функцію виявлення аномалії як алгоритм, де функції вибираються експертами людини: важливим є діапазон виводу (як у "ненормальному введенні - ненормальний вихід"), тому навіть при багатьох функціях ви можете створити набагато менший підмножина шляхом комбінування особливості. Однак, якщо припустити, …

1
R / mgcv: Чому тензорні вироби te () і ti () створюють різні поверхні?
У mgcvпакеті Rє дві функції для встановлення тензорних взаємодій між продуктами: te()і ti(). Я розумію основний розподіл праці між двома (встановлення нелінійної взаємодії проти декомпозиції цієї взаємодії на основні ефекти та взаємодію). Чого я не розумію, це чому te(x1, x2)і ti(x1) + ti(x2) + ti(x1, x2)може давати (трохи) різні результати. …
11 r  gam  mgcv  conditional-probability  mixed-model  references  bayesian  estimation  conditional-probability  machine-learning  optimization  gradient-descent  r  hypothesis-testing  wilcoxon-mann-whitney  time-series  bayesian  inference  change-point  time-series  anova  repeated-measures  statistical-significance  bayesian  contingency-tables  regression  prediction  quantiles  classification  auc  k-means  scikit-learn  regression  spatial  circular-statistics  t-test  effect-size  cohens-d  r  cross-validation  feature-selection  caret  machine-learning  modeling  python  optimization  frequentist  correlation  sample-size  normalization  group-differences  heteroscedasticity  independence  generalized-least-squares  lme4-nlme  references  mcmc  metropolis-hastings  optimization  r  logistic  feature-selection  separation  clustering  k-means  normal-distribution  gaussian-mixture  kullback-leibler  java  spark-mllib  data-visualization  categorical-data  barplot  hypothesis-testing  statistical-significance  chi-squared  type-i-and-ii-errors  pca  scikit-learn  conditional-expectation  statistical-significance  meta-analysis  intuition  r  time-series  multivariate-analysis  garch  machine-learning  classification  data-mining  missing-data  cart  regression  cross-validation  matrix-decomposition  categorical-data  repeated-measures  chi-squared  assumptions  contingency-tables  prediction  binary-data  trend  test-for-trend  matrix-inverse  anova  categorical-data  regression-coefficients  standard-error  r  distributions  exponential  interarrival-time  copula  log-likelihood  time-series  forecasting  prediction-interval  mean  standard-error  meta-analysis  meta-regression  network-meta-analysis  systematic-review  normal-distribution  multiple-regression  generalized-linear-model  poisson-distribution  poisson-regression  r  sas  cohens-kappa 

1
Як LASSO відбирає серед колінеарних прогнозів?
Я шукаю інтуїтивну відповідь, чому модель GLM LASSO вибирає конкретного прогноктора з групи сильно корельованих, і чому це робить інакше, ніж вибір найкращої підмножини. З геометрії LASSO, показаної на фіг.2 в Tibshirani 1996, я припускаю думку, що LASSO вибирає предиктор з більшою дисперсією. Тепер припустимо, що я використовую найкращий вибір …

2
М'яке порогове порівняно проти лассо пеналізації
Я намагаюсь узагальнити те, що я зрозумів до цього часу в пеналізованому багатоваріантному аналізі з великомірними наборами даних, і я все ще намагаюся отримати правильне визначення м'якої порогової оцінки проти Лассо (або ) пеналізації.L1L1L_1 Точніше, я використовував розріджену регресію PLS для аналізу 2-блокної структури даних, включаючи геномні дані ( одномолекулярні …

3
У чому переваги поетапної регресії?
Я експериментую з поступовою регресією заради різноманітності в моєму підході до проблеми. Отже, у мене є 2 питання: У чому переваги поетапної регресії? Які його конкретні сильні сторони? Що ви думаєте про гібридний підхід, коли ви використовуєте поетапну регресію для вибору функцій, а потім застосовуєте звичайну регресію, збираючи всі вибрані …


2
Використання LASSO лише для вибору функцій
У моєму класі машинного навчання ми дізналися про те, наскільки регресія LASSO дуже гарна при виборі функцій, оскільки використовує регуляризацію .л1л1l_1 Моє запитання: чи зазвичай люди використовують модель LASSO лише для вибору функцій (а потім переходять до скидання цих функцій в іншу модель машинного навчання), або вони зазвичай використовують LASSO …

3
Особливості ранжування в логістичній регресії
Я використовував логістичну регресію. У мене є шість функцій, я хочу знати важливі особливості цього класифікатора, які впливають на результат більше, ніж інші функції. Я використовував інформаційне посилення, але, схоже, це не залежить від використовуваного класифікатора. Чи існує якийсь метод класифікації ознак за їх важливістю на основі конкретного класифікатора (наприклад, …

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.