Запитання з тегом «logistic»

Загалом посилається на статистичні процедури, що використовують логістичну функцію, найчастіше різні форми логістичної регресії

4
ANOVA на біноміальних даних
Я аналізую експериментальний набір даних. Дані складаються з парного вектора типу лікування та біноміального результату: Treatment Outcome A 1 B 0 C 0 D 1 A 0 ... У стовпці результатів 1 позначає успіх, а 0 позначає невдачу. Я хотів би з’ясувати, чи суттєво варіює лікування результат. Існує 4 різних …


2
Логістична регресія: Scikit Learn vs Statsmodels
Я намагаюся зрозуміти, чому результати з логістичної регресії цих двох бібліотек дають різні результати. Я використовую набір даних з UCLA Idre підручник , прогнозуючи на admitоснові gre, gpaі rank. rankтрактується як категоріальна змінна, тому спочатку перетворюється на манекенну змінну зі rank_1скинутим. Також додається стовпчик перехоплення. df = pd.read_csv("https://stats.idre.ucla.edu/stat/data/binary.csv") y, X …

2
Коли логістична регресія вирішується в закритому вигляді?
Візьмемо і та припустимо, що ми змоделюємо завдання передбачити y задане x за допомогою логістичної регресії. Коли коефіцієнти логістичної регресії можна записати у закритому вигляді?x∈{0,1}dx∈{0,1}dx \in \{0,1\}^dy∈{0,1}y∈{0,1}y \in \{0,1\} Одним із прикладів є використання насиченої моделі. Тобто визначте , де індексує набори в наборі потужностей , а повертає 1, якщо …

4
Логістична регресія - термін помилок та її розповсюдження
Про те, чи існує термін помилки в логістичній регресії (та її припущеному розподілі), я читав у різних місцях, що: термін помилки не існує термін помилки має біноміальний розподіл (відповідно до розподілу змінної відповіді) термін помилки має логістичний розподіл Може хтось, будь ласка, уточнить?

4
Яка функція втрати є правильною для логістичної регресії?
Я читав про дві версії функції втрат для логістичної регресії, яка з них є правильною і чому? З машинного навчання Чжоу Ч. (китайською), з :β=(w,b) and βTx=wTx+bβ=(w,b) and βTx=wTx+b\beta = (w, b)\text{ and }\beta^Tx=w^Tx +b l(β)=∑i=1m(−yiβTxi+ln(1+eβTxi))(1)(1)l(β)=∑i=1m(−yiβTxi+ln⁡(1+eβTxi))l(\beta) = \sum\limits_{i=1}^{m}\Big(-y_i\beta^Tx_i+\ln(1+e^{\beta^Tx_i})\Big) \tag 1 З мого курсу коледжу, з :zi=yif(xi)=yi(wTxi+b)zi=yif(xi)=yi(wTxi+b)z_i = y_if(x_i)=y_i(w^Tx_i + b) …

6
Яка різниця між логістичною регресією та перцептроном?
Я збираюся через лекцію Ендрю Нг ноту на Machine Learning. Примітки вводять нас у логістичну регресію, а потім у перцептрон. Описуючи Perceptron, примітки кажуть, що ми просто змінюємо визначення порогової функції, що використовується для логістичної регресії. Після цього ми можемо використовувати модель Персептрона для класифікації. Отже, моє запитання - якщо …

2
Інтерпретація сюжету (glm.model)
Чи може хто-небудь сказати мені, як інтерпретувати графіки "залишки та пристосованість", "нормальні q-q", "масштаб-розташування" та "залишки проти важеля"? Я встановлюю двочленний GLM, зберігаю його, а потім малюю його.

1
Як обчислюються стандартні помилки для пристосованих значень з логістичної регресії?
Коли ви прогнозуєте відповідне значення з логістичної регресійної моделі, як обчислюються стандартні помилки? Я маю на увазі для пристосованих значень , а не для коефіцієнтів (що включає інформаційну матрицю Фішера). Я дізнався лише, як отримати числа за допомогою R(наприклад, тут на r-help або тут на переповнення стека), але не можу …

3
Яка різниця у тому, що насправді вимірюють AIC та c-статистику (AUC) для відповідності моделі?
Інформаційний критерій Akaike (AIC) та c-статистика (площа під кривою ROC) - це два заходи моделі, придатної для логістичної регресії. У мене виникають труднощі з поясненням того, що відбувається, коли результати двох заходів не узгоджуються. Я здогадуюсь, що вони вимірюють трохи різні аспекти відповідності моделі, але які ці конкретні аспекти? У …
29 logistic  roc  aic  auc 

3
Інтерпретація простих прогнозів та коефіцієнтів шансів у логістичній регресії
Я дещо новачок у використанні логістичної регресії, і трохи збентежений розбіжністю між моїми інтерпретаціями наступних значень, які, на мою думку, були б однаковими: експонентоване значення бета-версії передбачувана ймовірність результату за допомогою бета-значень. Ось спрощена версія моделі, якою я користуюсь, де недоїдання та страхування є бінарними, а багатство безперервним: Under.Nutrition ~ …

4
Інтерпретація Псевдо-R2 Макфаддена
У мене є бінарна логістична регресійна модель з псевдо-R-квадратом Макфаддена 0,192 з залежною змінною, що називається платежем (1 = платіж і 0 = відсутність платежу). Яка інтерпретація цього псевдо R-квадрата? Чи відносне порівняння для вкладених моделей (наприклад, 6-змінна модель має псевдо-R-квадрат Макфаддена 0,192, тоді як 5-змінна модель (після вилучення однієї …

4
Як походить функція витрат з логістичної регресії
Я роблю курс машинного навчання Стенфорда на Coursera. У главі з логістичної регресії функція витрат така: Потім, це похідне тут: Я намагався отримати похідну від функції витрат, але отримав щось зовсім інше. Як отримується похідна? Які є посередницькими кроками?

5
Перевищення логістичної регресійної моделі
Чи можливо перевиконати модель логістичної регресії? Я побачив відео, яке говорить про те, що якщо моя площа під кривою ROC вище 95%, то, швидше за все, це буде надмірно встановленим, але чи можна переоцінити логістичну регресійну модель?

1
Чи може ступінь свободи бути цілим числом?
Коли я використовую GAM, це дає мені залишковий коефіцієнт DF (останній рядок у коді). Що це означає? Виходячи за приклад GAM, загалом, чи може число ступенів свободи бути нецілим числом?26.626.626.6 > library(gam) > summary(gam(mpg~lo(wt),data=mtcars)) Call: gam(formula = mpg ~ lo(wt), data = mtcars) Deviance Residuals: Min 1Q Median 3Q Max …
27 r  degrees-of-freedom  gam  machine-learning  pca  lasso  probability  self-study  bootstrap  expected-value  regression  machine-learning  linear-model  probability  simulation  random-generation  machine-learning  distributions  svm  libsvm  classification  pca  multivariate-analysis  feature-selection  archaeology  r  regression  dataset  simulation  r  regression  time-series  forecasting  predictive-models  r  mean  sem  lavaan  machine-learning  regularization  regression  conv-neural-network  convolution  classification  deep-learning  conv-neural-network  regression  categorical-data  econometrics  r  confirmatory-factor  scale-invariance  self-study  unbiased-estimator  mse  regression  residuals  sampling  random-variable  sample  probability  random-variable  convergence  r  survival  weibull  references  autocorrelation  hypothesis-testing  distributions  correlation  regression  statistical-significance  regression-coefficients  univariate  categorical-data  chi-squared  regression  machine-learning  multiple-regression  categorical-data  linear-model  pca  factor-analysis  factor-rotation  classification  scikit-learn  logistic  p-value  regression  panel-data  multilevel-analysis  variance  bootstrap  bias  probability  r  distributions  interquartile  time-series  hypothesis-testing  normal-distribution  normality-assumption  kurtosis  arima  panel-data  stata  clustered-standard-errors  machine-learning  optimization  lasso  multivariate-analysis  ancova  machine-learning  cross-validation 

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.