Запитання з тегом «logistic»

Загалом посилається на статистичні процедури, що використовують логістичну функцію, найчастіше різні форми логістичної регресії

3
Який взаємозв'язок між розподілом Beta та логістичною регресійною моделлю?
Моє запитання: Який математичний зв’язок між розподілом Beta та коефіцієнтами логістичної регресійної моделі ? Для ілюстрації: логістична (сигмоїдна) функція задана f(x)=11+exp(−x)f(x)=11+exp⁡(−x)f(x) = \frac{1}{1+\exp(-x)} і використовується для моделювання ймовірностей в моделі логістичної регресії. Нехай AAA - дихотомічний (0,1)(0,1)(0,1) результат і XXX - матриця проектування. Модель логістичної регресії задана методом P(A=1|X)=f(Xβ).P(A=1|X)=f(Xβ).P(A=1|X) = …


3
Дискримінаційний аналіз проти логістичної регресії
Я знайшов деякі плюси дискримінаційного аналізу, і у мене є питання щодо них. Так: Коли класи добре розділені, оцінки параметрів логістичної регресії напрочуд нестабільні. Коефіцієнти можуть піти в нескінченність. LDA не страждає від цієї проблеми. Якщо кількість ознак невелика і розподіл предикторів ХХX приблизно нормальний у кожному з класів, лінійна …

2
Матричне позначення для логістичної регресії
У лінійній регресії (квадратичні втрати), використовуючи матрицю, ми маємо дуже стисле позначення цілі minimize ∥Ax−b∥2minimize ‖Ax−b‖2\text{minimize}~~ \|Ax-b\|^2 Де - матриця даних, - коефіцієнти, а - відповідь.x bAAAxxxbbb Чи є подібні матричні позначення для цілі логістичної регресії? Усі помічені нами позначення не можуть позбутися суми за всіма точками даних (щось на …

2
Як побудувати межу рішення в R для логістичної регресійної моделі?
Я зробив логістичну регресійну модель, використовуючи glm в R. У мене є дві незалежні змінні. Як я зможу побудувати межу рішення моєї моделі в діаграмі розкидання двох змінних. Наприклад, як можна побудувати фігуру на зразок: http://onlinecourses.science.psu.edu/stat557/node/55 Спасибі.
16 r  logistic 

2
Як логістична регресія може створювати криві, які не є традиційними функціями?
Я думаю, що у мене є деяка принципова плутанина щодо того, як функціонують функції логістичної регресії (або, можливо, просто функціонують в цілому). Як так, що функція h (x) виробляє криву, видно в лівій частині зображення? Я бачу, що це графік з двох змінних, але потім ці дві змінні (x1 & …

1
Як підібрати змішану модель із змінною відповіді між 0 та 1?
Я намагаюся використати lme4::glmer()для встановлення біноміальної узагальненої змішаної моделі (GLMM) із залежною змінною, яка є не бінарною, а суцільною змінною між нулем та одиницею. Можна вважати цю змінну як ймовірність; насправді це ймовірність того, як повідомили людських суб'єктів (в експерименті , який я допомогти аналізує). Тобто це не "дискретна" частка, …

4
Точність машини для підвищення градієнта зменшується зі збільшенням кількості ітерацій
Я експериментую з алгоритмом машини для підвищення градієнта через caretпакет в Р. Використовуючи невеликий набір даних про вступ до коледжу, я застосував такий код: library(caret) ### Load admissions dataset. ### mydata <- read.csv("http://www.ats.ucla.edu/stat/data/binary.csv") ### Create yes/no levels for admission. ### mydata$admit_factor[mydata$admit==0] <- "no" mydata$admit_factor[mydata$admit==1] <- "yes" ### Gradient boosting machine …
15 machine-learning  caret  boosting  gbm  hypothesis-testing  t-test  panel-data  psychometrics  intraclass-correlation  generalized-linear-model  categorical-data  binomial  model  intercept  causality  cross-correlation  distributions  ranks  p-value  z-test  sign-test  time-series  references  terminology  cross-correlation  definition  probability  distributions  beta-distribution  inverse-gamma  missing-data  paired-comparisons  paired-data  clustered-standard-errors  cluster-sample  time-series  arima  logistic  binary-data  odds-ratio  medicine  hypothesis-testing  wilcoxon-mann-whitney  unsupervised-learning  hierarchical-clustering  neural-networks  train  clustering  k-means  regression  ordinal-data  change-scores  machine-learning  experiment-design  roc  precision-recall  auc  stata  multilevel-analysis  regression  fitting  nonlinear  jmp  r  data-visualization  gam  gamm4  r  lme4-nlme  many-categories  regression  causality  instrumental-variables  endogeneity  controlling-for-a-variable 

3
Модель Кокса проти логістичної регресії
Скажімо, нам задається наступна проблема: Прогнозуйте, які клієнти, швидше за все, припинять купувати в нашому магазині протягом наступних 3 місяців. Для кожного клієнта ми знаємо місяць, коли його почали купувати в нашому магазині, а також ми маємо багато поведінкових особливостей у щомісячних агрегатах. "Старший" клієнт купує вже п'ятдесят місяців; позначимо …

4
Чи завжди функція logit найкраща для регресійного моделювання бінарних даних?
Я думав над цією проблемою. Звичайною логістичною функцією для моделювання двійкових даних є: Однак чи завжди найкраща для моделювання даних функція logit, що являє собою S-подібну криву? Можливо, у вас є підстави вважати, що ваші дані не відповідають звичайній S-подібній кривій, а іншому типу кривої з доменом(0,1).журнал( с1 - с) …

3
Інтуїція для підтримки векторних машин та гіперплану
У своєму проекті я хочу створити логістичну регресійну модель для прогнозування бінарної класифікації (1 або 0). У мене 15 змінних, 2 з яких категоричні, а решта - це суміш безперервних та дискретних змінних. Для того, щоб відповідати моделі логістичної регресії, мені порадили перевірити наявність лінійної відокремленості за допомогою SVM, перцептрон …

3
Логістична регресія: Scikit Learn vs glmnet
Я намагаюся дублювати результати з sklearnлогістичної регресійної бібліотеки за допомогою glmnetпакету в Р. sklearnminw,c12wTw+C∑i=1Nlog(exp(−yi(XTiw+c))+1)minw,c12wTw+C∑i=1Nlog⁡(exp⁡(−yi(XiTw+c))+1)\min_{w,c} \frac12 w^Tw + C\sum_{i=1}^N \log(\exp(-y_i(X_i^Tw+c)) + 1) З віньєток з glmnetйого реалізація мінімізує дещо інший вартість функції хвβ, β0- [ 1N∑i=1Nyi(β0+xTiβ) -log( 1 + е( β0+ хТiβ)) ] + λ [ ( α - 1 ) …

1
Гессіан логістичної функції
Мені важко вивести гессіаном цільової функції, l(θ)l(θ)l(\theta) , в логістичної регресії , де l(θ)l(θ)l(\theta) становить: l(θ)=∑i=1m[yilog(hθ(xi))+(1−yi)log(1−hθ(xi))]l(θ)=∑i=1m[yilog⁡(hθ(xi))+(1−yi)log⁡(1−hθ(xi))] l(\theta)=\sum_{i=1}^{m} \left[y_{i} \log(h_\theta(x_{i})) + (1- y_{i}) \log (1 - h_\theta(x_{i}))\right] hθ(x)hθ(x)h_\theta(x) - логістична функція. ГессіанXTDXXTDXX^T D X . Я спробував це отримати, обчисливши∂2l(θ)∂θi∂θj∂2l(θ)∂θi∂θj\frac{\partial^2 l(\theta)}{\partial \theta_i \partial \theta_j} , але тоді мені не було очевидно, …
15 logistic 

5
Чи є логістична регресія непараметричним тестом?
Нещодавно я отримав таке питання електронною поштою. Я опублікую відповідь нижче, але мені було цікаво почути, що думають інші. Ви б назвали логістичну регресію непараметричним тестом? Я розумію, що просто маркування тесту непараметричного, оскільки його дані зазвичай не розподіляються, є недостатнім. Це більше стосується браку припущень. Логістична регресія має припущення.


Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.