Запитання з тегом «classification»

Статистична класифікація - це проблема ідентифікації підгрупи, до якої належать нові спостереження, де ідентичність підгрупи невідома, на основі навчального набору даних, що містять спостереження, субпопуляція яких відома. Тому ці класифікації показуватимуть змінну поведінку, яку можна вивчити статистикою.

2
Який діапазон пошуку для визначення оптимальних параметрів С і гамма для SVM?
Я використовую SVM для класифікації і намагаюся визначити оптимальні параметри для лінійних та RBF ядер. Для лінійного ядра я використовую перехресний вибір параметрів для визначення C, а для ядра RBF я використовую пошук сітки для визначення C та гамми. У мене є 20 (числових) ознак та 70 прикладів навчання, які …

3
Як Naive Bayes є лінійним класифікатором?
Я бачив інший потік тут , але я не думаю , що відповідь задовольнила актуальне питання. Що я постійно читав, це те, що Naive Bayes є лінійним класифікатором (наприклад, тут ) (таким, що він малює лінійну межу рішення), використовуючи демонстрацію шансів журналу. Однак я імітував дві хмари Гаусса і встановив …

2
Відносна важливість набору предикторів у випадковій класифікації лісів у R
Я хотів би визначити відносну важливість наборів змінних до randomForestкласифікаційної моделі в Р. importanceФункція забезпечує MeanDecreaseGiniметрику для кожного окремого предиктора - чи це так просто, як підсумовувати це для кожного предиктора в наборі? Наприклад: # Assumes df has variables a1, a2, b1, b2, and outcome rf <- randomForest(outcome ~ ., …

3
Що є першопричиною проблеми дисбалансу класів?
Останнім часом я багато думав про "проблему дисбалансу класів" у машино-статистичному навчанні, і все глибше втягуюсь у відчуття, що просто не розумію, що відбувається. Спершу дозвольте мені визначити (або спробувати) визначити свої умови: Проблема дисбалансу класів у машинному / статистичному навчанні полягає в тому, що деякі алгоритми бінарної класифікації (*) …

3
Як визначити якість багатокласового класифікатора
Дано набір даних з екземплярами разом з класами, де кожен екземпляр належить саме одному класу N x i y ixixix_iNNNxixix_iyiyiy_i багатокласовий класифікатор Після навчання та тестування я в основному маю таблицю з справжнім класом yiyiy_i та передбачуваним класом aiaia_i для кожного екземпляра xixix_i в тестовому наборі. Отже, для кожного екземпляра …

7
Які галузі статистики?
У математиці існують такі галузі, як алгебра, аналіз, топологія тощо. У машинному навчанні існує навчання під наглядом, без нагляду та посилення. У межах кожної з цих гілок є більш тонкі гілки, які далі розділяють методи. У мене виникають проблеми провести паралель зі статистикою. Які будуть основні галузі статистики (і підгалузі)? …

4
Коли я повинен збалансувати класи в наборі даних про навчання?
У мене був онлайн-курс, де я дізнався, що незбалансовані класи в навчальних даних можуть призвести до проблем, оскільки алгоритми класифікації відповідають правилам більшості, оскільки це дає хороші результати, якщо дисбалансу занадто багато. У завданні потрібно було збалансувати дані, підкресливши мажоритарний клас. Однак у цьому блозі хтось стверджує, що збалансовані дані …

4
Площа під кривою ROC проти загальної точності
Я трохи заплутаний щодо площі під кривою (AUC) ROC та загальної точності. Чи буде AUC пропорційним загальній точності? Іншими словами, коли ми маємо більшу загальну точність, ми обов'язково отримаємо більший AUC? Або вони за визначенням позитивно співвідносяться? Якщо вони позитивно співвідносяться, чому ми турбуємося про те, щоб вони повідомляли їх …

2
Різниця між наївним Байєсом та багаточленним наївним Байєсом
Я раніше мав справу з класифікатором Naive Bayes . Я читав про багаточленних наївних байесах останнім часом. Також задня ймовірність = (попередня * ймовірність) / (докази) . Єдина головна різниця (програмуючи ці класифікатори), яку я виявив між Naive Bayes та Multinomial Naive Bayes, полягає в тому, що Мультиноміальний Naive Bayes …

6
Змінна процедура вибору для двійкової класифікації
Який вибір змінної / ознак, який ви віддаєте перевагу для двійкової класифікації, коли в навчальному наборі є набагато більше змінних / ознак, ніж спостереження? Метою тут є обговорення того, яка процедура вибору ознак дозволяє зменшити найкращу помилку класифікації. Ми можемо виправити позначення на послідовність: для , нехай є навчальним набором …

2
Як статистично порівняти ефективність класифікаторів машинного навчання?
На основі оціночної точності класифікації я хочу перевірити, чи є один класифікатор статистично кращим на базовому наборі, ніж інший класифікатор. Для кожного класифікатора я вибираю навчальний та тестовий зразок випадковим чином із базового набору, треную модель та тестую модель. Я роблю це десять разів для кожного класифікатора. Тому я маю …

3
Чому AUC вище для класифікатора, який є менш точним, ніж для більш точного?
У мене є два класифікатори A: наївна байєсівська мережа B: дерево (окремо пов'язане) байєсівської мережі Щодо точності та інших заходів, A працює порівняно гірше, ніж B. Однак, коли я використовую пакети R ROCR та AUC для аналізу ROC, виявляється, що AUC для A вище, ніж AUC для B. Чому це …

1
Обчислювальна повторюваність ефектів від lmer-моделі
Я щойно натрапив на цю статтю , в якій описано, як обчислити повторюваність (він же - надійність, також внутрішньокласова кореляція) вимірювання за допомогою моделювання змішаних ефектів. R-код буде: #fit the model fit = lmer(dv~(1|unit),data=my_data) #obtain the variance estimates vc = VarCorr(fit) residual_var = attr(vc,'sc')^2 intercept_var = attr(vc$id,'stddev')[1]^2 #compute the unadjusted …
28 mixed-model  reliability  intraclass-correlation  repeatability  spss  factor-analysis  survey  modeling  cross-validation  error  curve-fitting  mediation  correlation  clustering  sampling  machine-learning  probability  classification  metric  r  project-management  optimization  svm  python  dataset  quality-control  checking  clustering  distributions  anova  factor-analysis  exponential  poisson-distribution  generalized-linear-model  deviance  machine-learning  k-nearest-neighbour  r  hypothesis-testing  t-test  r  variance  levenes-test  bayesian  software  bayesian-network  regression  repeated-measures  least-squares  change-scores  variance  chi-squared  variance  nonlinear-regression  regression-coefficients  multiple-comparisons  p-value  r  statistical-significance  excel  sampling  sample  r  distributions  interpretation  goodness-of-fit  normality-assumption  probability  self-study  distributions  references  theory  time-series  clustering  econometrics  binomial  hypothesis-testing  variance  t-test  paired-comparisons  statistical-significance  ab-test  r  references  hypothesis-testing  t-test  normality-assumption  wilcoxon-mann-whitney  central-limit-theorem  t-test  data-visualization  interactive-visualization  goodness-of-fit 

1
Чи може ступінь свободи бути цілим числом?
Коли я використовую GAM, це дає мені залишковий коефіцієнт DF (останній рядок у коді). Що це означає? Виходячи за приклад GAM, загалом, чи може число ступенів свободи бути нецілим числом?26.626.626.6 > library(gam) > summary(gam(mpg~lo(wt),data=mtcars)) Call: gam(formula = mpg ~ lo(wt), data = mtcars) Deviance Residuals: Min 1Q Median 3Q Max …
27 r  degrees-of-freedom  gam  machine-learning  pca  lasso  probability  self-study  bootstrap  expected-value  regression  machine-learning  linear-model  probability  simulation  random-generation  machine-learning  distributions  svm  libsvm  classification  pca  multivariate-analysis  feature-selection  archaeology  r  regression  dataset  simulation  r  regression  time-series  forecasting  predictive-models  r  mean  sem  lavaan  machine-learning  regularization  regression  conv-neural-network  convolution  classification  deep-learning  conv-neural-network  regression  categorical-data  econometrics  r  confirmatory-factor  scale-invariance  self-study  unbiased-estimator  mse  regression  residuals  sampling  random-variable  sample  probability  random-variable  convergence  r  survival  weibull  references  autocorrelation  hypothesis-testing  distributions  correlation  regression  statistical-significance  regression-coefficients  univariate  categorical-data  chi-squared  regression  machine-learning  multiple-regression  categorical-data  linear-model  pca  factor-analysis  factor-rotation  classification  scikit-learn  logistic  p-value  regression  panel-data  multilevel-analysis  variance  bootstrap  bias  probability  r  distributions  interquartile  time-series  hypothesis-testing  normal-distribution  normality-assumption  kurtosis  arima  panel-data  stata  clustered-standard-errors  machine-learning  optimization  lasso  multivariate-analysis  ancova  machine-learning  cross-validation 

3
Які наслідки вибору різних функцій втрат у класифікації для приблизної втрати 0-1
Ми знаємо, що деякі об'єктивні функції легше оптимізувати, а деякі - важкі. І є багато функцій втрат, які ми хочемо використовувати, але важко використовувати, наприклад, втрата 0-1. Тож ми знаходимо деякі функції втрати проксі-сервера для виконання роботи. Наприклад, ми використовуємо втрату шарніру або логістичну втрату, щоб "приблизно" втратити 0-1. Наступний …

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.