Запитання з тегом «separation»

Поділ відбувається тоді, коли деякі класи категоріального результату можна ідеально розрізнити лінійною комбінацією інших змінних.

8
Як боротися з ідеальним розділенням при логістичній регресії?
Якщо у вас є змінна, яка ідеально відокремлює нулі та цілі в цільовій змінній, R видасть таке попереджувальне повідомлення "ідеальне або квазідосконале розділення": Warning message: glm.fit: fitted probabilities numerically 0 or 1 occurred Ми все ще отримуємо модель, але оцінки коефіцієнтів завищені. Як ви з цим справляєтесь на практиці?

1
Логістична регресія в R призвела до ідеального розділення (феномен Хока-Доннера). А тепер що?
Я намагаюся передбачити бінарний результат, використовуючи 50 безперервних пояснювальних змінних (діапазон більшості змінних становить до ). Мій набір даних має майже 24 000 рядків. Коли я бігаю в R, я отримую:−∞−∞-\infty∞∞\inftyglm Warning messages: 1: glm.fit: algorithm did not converge 2: glm.fit: fitted probabilities numerically 0 or 1 occurred Я прочитав …

2
Модель логістичної регресії не збігається
У мене є деякі дані про рейси авіакомпанії (у кадрі даних, який називається flights), і я хотів би побачити, чи впливає час польоту на ймовірність значно затримки прильоту (мається на увазі 10 і більше хвилин). Я подумав, що я буду використовувати логістичну регресію з тим, що час польоту є передбачувачем, …
39 r  logistic  separation 


1
Яка ймовірність того, що
Враховуючи nnn точок даних, кожна з яких має ddd функції, n/2n/2n/2 позначаються як 000 , інші n/2n/2n/2 позначаються як 111 . Кожна функція приймає значення від [0,1][0,1][0,1] випадковим чином (рівномірний розподіл). Яка ймовірність існування гіперплану, який може розділити два класи? Розглянемо спочатку найпростіший випадок, тобто d=1d=1d = 1 .

1
Вибір моделі з логістичною регресією Фірта
У невеликому наборі даних ( ), з яким я працюю, кілька змінних дають мені ідеальний прогноз / розділення . Тому я використовую логістичну регресію Фірта для вирішення цього питання.n ∼ 100н∼100n\sim100 Якщо я вибираю найкращу модель за допомогою AIC або BIC , чи слід включати Фірмовий штрафний строк у ймовірність …

1
Чи є інтуїтивне пояснення, чому логістична регресія не буде працювати для ідеального випадку розлуки? І чому додавання регуляризації виправить це?
У нас є багато хороших дискусій про ідеальне розділення в логістичній регресії. Такі як, Логістична регресія в R призвели до ідеального роз'єднання (феномен Хока-Доннера). А тепер що? і логістична регресійна модель не збігається . Я особисто все ще вважаю, що це не інтуїтивно, чому це буде проблема і чому додавання …

3
Інтуїція для підтримки векторних машин та гіперплану
У своєму проекті я хочу створити логістичну регресійну модель для прогнозування бінарної класифікації (1 або 0). У мене 15 змінних, 2 з яких категоричні, а решта - це суміш безперервних та дискретних змінних. Для того, щоб відповідати моделі логістичної регресії, мені порадили перевірити наявність лінійної відокремленості за допомогою SVM, перцептрон …

1
Пакет GBM проти Caret з використанням GBM
Я налаштовував модель за допомогою caret, але потім повторно запустив модель за допомогою gbmпакета. Наскільки я розумію, що caretпакет використовує gbmі вихід повинен бути однаковим. Однак, лише швидкий тестовий пробіг із застосуванням data(iris)показує невідповідність моделі приблизно 5%, використовуючи RMSE і R ^ 2 в якості метрики оцінювання. Я хочу знайти …

1
Шукаю теоретичне розуміння Фірмової логістичної регресії
Я намагаюся зрозуміти Фіртова логістичну регресію (метод управління ідеальним / повним або квазіповним розділенням у логістичній регресії), щоб я міг пояснити це іншим у спрощених термінах. Хто-небудь має занедбане пояснення того, яку модифікацію оцінку Ферта вносить у MLE? Я прочитав, як тільки міг, Ферта (1993) і розумію, що до функції …

1
Біноміальна глмм з категоричною змінною з повними успіхами
У мене запущений glmm з біноміальною змінною відповіді та категоричним предиктором. Випадковий ефект надається вкладеною конструкцією, що використовується для збору даних. Дані виглядають приблизно так: m.gen1$treatment [1] sucrose control protein control no_injection ..... Levels: no_injection control sucrose protein m.gen1$emergence [1] 1 0 0 1 0 1 1 1 1 1 …

1
R / mgcv: Чому тензорні вироби te () і ti () створюють різні поверхні?
У mgcvпакеті Rє дві функції для встановлення тензорних взаємодій між продуктами: te()і ti(). Я розумію основний розподіл праці між двома (встановлення нелінійної взаємодії проти декомпозиції цієї взаємодії на основні ефекти та взаємодію). Чого я не розумію, це чому te(x1, x2)і ti(x1) + ti(x2) + ti(x1, x2)може давати (трохи) різні результати. …
11 r  gam  mgcv  conditional-probability  mixed-model  references  bayesian  estimation  conditional-probability  machine-learning  optimization  gradient-descent  r  hypothesis-testing  wilcoxon-mann-whitney  time-series  bayesian  inference  change-point  time-series  anova  repeated-measures  statistical-significance  bayesian  contingency-tables  regression  prediction  quantiles  classification  auc  k-means  scikit-learn  regression  spatial  circular-statistics  t-test  effect-size  cohens-d  r  cross-validation  feature-selection  caret  machine-learning  modeling  python  optimization  frequentist  correlation  sample-size  normalization  group-differences  heteroscedasticity  independence  generalized-least-squares  lme4-nlme  references  mcmc  metropolis-hastings  optimization  r  logistic  feature-selection  separation  clustering  k-means  normal-distribution  gaussian-mixture  kullback-leibler  java  spark-mllib  data-visualization  categorical-data  barplot  hypothesis-testing  statistical-significance  chi-squared  type-i-and-ii-errors  pca  scikit-learn  conditional-expectation  statistical-significance  meta-analysis  intuition  r  time-series  multivariate-analysis  garch  machine-learning  classification  data-mining  missing-data  cart  regression  cross-validation  matrix-decomposition  categorical-data  repeated-measures  chi-squared  assumptions  contingency-tables  prediction  binary-data  trend  test-for-trend  matrix-inverse  anova  categorical-data  regression-coefficients  standard-error  r  distributions  exponential  interarrival-time  copula  log-likelihood  time-series  forecasting  prediction-interval  mean  standard-error  meta-analysis  meta-regression  network-meta-analysis  systematic-review  normal-distribution  multiple-regression  generalized-linear-model  poisson-distribution  poisson-regression  r  sas  cohens-kappa 

1
Величезні коефіцієнти в логістичній регресії - що це означає і що робити?
Я отримую величезні коефіцієнти під час логістичної регресії, дивіться коефіцієнти з krajULKV: > summary(m5) Call: glm(formula = cbind(ml, ad) ~ rok + obdobi + kraj + resid_usili2 + rok:obdobi + rok:kraj + obdobi:kraj + kraj:resid_usili2 + rok:obdobi:kraj, family = "quasibinomial") Deviance Residuals: Min 1Q Median 3Q Max -2.7796 -1.0958 -0.3101 …
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.