Запитання з тегом «regression»

Методи аналізу взаємозв'язку між однією (або більше) змінними "залежними" та "незалежними" змінними.

1
Чому в лінійній регресії регуляризація також покарає значення параметрів?
В даний час я вивчаю регресію хребта, і я трохи розгубився щодо покарання більш складних моделей (або визначення більш складної моделі). Як я розумію, складність моделі не обов'язково співвідноситься з порядком поліномів. Тому:2 + 3 + 4х2+ 5х3+ 6х42+3+4х2+5х3+6х4 2 + 3+ 4x^2 + 5x^3 + 6x^4є більш складною моделлю, …

2
Чому логістична регресія добре відкалібрована і як зруйнувати її калібрування?
У наукових документах про калібрування ймовірностей вони порівнюють логістичну регресію з іншими методами та зазначають, що випадковий ліс менш калібрований, ніж логістична регресія. Чому логістична регресія добре відкалібрована? Як можна зруйнувати калібрування логістичної регресії (не те, що хотілося б - просто як вправу)?

3
Регресування залишків логістичної регресії на інших регресорах
За допомогою регресії OLS, застосованої для безперервної реакції, можна скласти рівняння множинної регресії шляхом послідовно запущених регресій залишків на кожному коваріаті. Моє запитання: чи існує спосіб це зробити за допомогою логістичної регресії через залишки логістичної регресії ? Тобто, якщо я хочу оцінити використовуючи стандартний узагальнений підхід лінійного моделювання, чи є …

1
Регульована лінійна проти RKHS-регресія
Я вивчаю різницю між регуляризацією в регресії RKHS і лінійною регресією, але мені важко зрозуміти вирішальну різницю між ними. Дано пари введення-виведення (xi,yi)(xi,yi)(x_i,y_i), Я хочу оцінити функцію f(⋅)f(⋅)f(\cdot) наступним чином f(x)≈u(x)=∑i=1mαiK(x,xi),f(x)≈u(x)=∑i=1mαiK(x,xi),\begin{equation}f(x)\approx u(x)=\sum_{i=1}^m \alpha_i K(x,x_i),\end{equation} де K(⋅,⋅)K(⋅,⋅)K(\cdot,\cdot)є функцією ядра. Коефіцієнтиαmαm\alpha_m можна або знайти, вирішивши minα∈Rn1n∥Y−Kα∥2Rn+λαTKα,minα∈Rn1n‖Y−Kα‖Rn2+λαTKα,\begin{equation} {\displaystyle \min _{\alpha\in R^{n}}{\frac {1}{n}}\|Y-K\alpha\|_{R^{n}}^{2}+\lambda \alpha^{T}K\alpha},\end{equation} …

1
Варіантний термін у зміщенно-дисперсійному розкладі лінійної регресії
У "Елементах статистичного навчання" вираз для розкладання дисперсійної дисперсії лінійної моделі дається як де - фактична цільова функція, - дисперсія випадкової помилки в моделі і - лінійний оцінювач .Err(x0)=σ2ϵ+E[f(x0)−Ef^(x0)]2+||h(x0)||2σ2ϵ,Err(x0)=σϵ2+E[f(x0)−Ef^(x0)]2+||h(x0)||2σϵ2,Err(x_0)=\sigma_\epsilon^2+E[f(x_0)-E\hat f(x_0)]^2+||h(x_0)||^2\sigma_\epsilon^2,f(x0)f(x0)f(x_0)σ2ϵσϵ2 \sigma_\epsilon^2y=f(x)+ϵy=f(x)+ϵy=f(x)+\epsilonf^(x)f^(x)\hat f(x)f(x)f(x)f(x) Термін дисперсії мене тут хвилює, оскільки з рівняння випливає, що дисперсія буде нульовою, якщо цілі безшумні, тобтоАле для …

4
Чи можливо розкласти встановлені залишки на зміщення та дисперсію після встановлення лінійної моделі?
Я б хотів класифікувати точки даних як або потребують більш складної моделі, або не потребують більш складної моделі. Моє сучасне мислення полягає в тому, щоб підключити всі дані до простої лінійної моделі та дотримуватися розмір залишків, щоб зробити цю класифікацію. Потім я почитав про зміщення та вкладення дисперсії в помилку …

1
Чому достовірний інтервал Байєса в цій поліноміальній регресії зміщений, тоді як інтервал довіри правильний?
Розглянемо сюжет нижче, в якому я моделював дані наступним чином. Ми дивимось на двійковий результат для якого справжня ймовірність дорівнює 1 позначена чорною лінією. Функціональний взаємозв'язок між коваріатним і p (y_ {obs} = 1 | x) - поліном 3-го порядку з логістичним зв’язком (тому він є нелінійним у подвійному напрямку).уo …

1
Коли використовувати регресію Демінга
Зараз я працюю над способом перетворення двох різних значень тесту на фосфор один в одного. Фон Існує безліч методів (видобутку) для вимірювання рослинного фосфору в ґрунті. У різних країнах застосовуються різні методи, отже для порівняння P-родючості у різних країнах необхідно обчислити значення P-тесту x на основі значення P-тесту у та …

1
Яка модель глибокого навчання може класифікувати категорії, які не є взаємовиключними
Приклади: у мене є речення в описі посади: "Старший інженер Java у Великобританії". Я хочу використовувати модель глибокого навчання, щоб передбачити її як 2 категорії: English і IT jobs. Якщо я використовую традиційну модель класифікації, вона може передбачити лише 1 мітку з softmaxфункцією на останньому шарі. Таким чином, я можу …
9 machine-learning  deep-learning  natural-language  tensorflow  sampling  distance  non-independent  application  regression  machine-learning  logistic  mixed-model  control-group  crossover  r  multivariate-analysis  ecology  procrustes-analysis  vegan  regression  hypothesis-testing  interpretation  chi-squared  bootstrap  r  bioinformatics  bayesian  exponential  beta-distribution  bernoulli-distribution  conjugate-prior  distributions  bayesian  prior  beta-distribution  covariance  naive-bayes  smoothing  laplace-smoothing  distributions  data-visualization  regression  probit  penalized  estimation  unbiased-estimator  fisher-information  unbalanced-classes  bayesian  model-selection  aic  multiple-regression  cross-validation  regression-coefficients  nonlinear-regression  standardization  naive-bayes  trend  machine-learning  clustering  unsupervised-learning  wilcoxon-mann-whitney  z-score  econometrics  generalized-moments  method-of-moments  machine-learning  conv-neural-network  image-processing  ocr  machine-learning  neural-networks  conv-neural-network  tensorflow  r  logistic  scoring-rules  probability  self-study  pdf  cdf  classification  svm  resampling  forecasting  rms  volatility-forecasting  diebold-mariano  neural-networks  prediction-interval  uncertainty 

3
Визначення статистичної значущості коефіцієнта лінійної регресії за наявності мультиколінеарності
Припустимо, у мене є маса міст з різною чисельністю населення, і я хотів побачити, чи існує позитивна лінійна залежність між кількістю магазинів алкогольних напоїв у місті та кількістю ДУІ. Де я визначаю, чи є ця залежність значною чи ні, спираючись на t-тест розрахункового коефіцієнта регресії. Тепер явно поп. розмір міста …

4
Як інтерпретувати криву виживання моделі Кокса?
Як ви інтерпретуєте криву виживання з пропорційною моделлю небезпеки Кокса? У цьому прикладі іграшки, припустимо, ми маємо коксову пропорційну модель небезпеки для ageзмінної kidneyданих та генеруємо криву виживання. library(survival) fit <- coxph(Surv(time, status)~age, data=kidney) plot(conf.int="none", survfit(fit)) grid() Наприклад, на час 200200200, яке твердження вірно? або обидва помиляються? Заява 1: у …

1
Чому в роботах рідко повідомляється про те, який тип квадратів використовується в результатах Anova?
Зважаючи на мій короткий досвід статистики, здається, що тип сум квадратів (тип I, II, III, IV ...), що використовуються для отримання результатів ANOVA, може суттєво змінити результати тестів (особливо моделей із взаємодією та відсутніми дані). Однак я ще не бачив жодної статті, яка б про це повідомляла. Чому це так? …

2
Лінійна регресія: * Чому * Ви можете розділити суми квадратів?
Ця публікація стосується двовимірної лінійної регресійної моделі, . Я завжди брав розподіл загальної суми квадратів (SSTO) на суму квадратів для помилки (SSE) та суму квадратів для моделі (SSR) на вірі, але як тільки я почав реально думати про це, я не розумію чому це працює ...Yi=β0+β1xiYi=β0+β1xiY_i = \beta_0 + \beta_1x_i …

1
Зв'язок між MLE та найменшими квадратами у випадку лінійної регресії
Хасті та Тібшірані згадують у розділі 4.3.2 своєї книги, що у лінійній регресії підхід найменших квадратів насправді є особливим випадком максимальної вірогідності. Як ми можемо довести цей результат? PS: Не шкодуйте математичних деталей.

1
Сумніви щодо виведення рівнянь регресії Гаусса в рефераті
Я читаю цей передруковий документ , і у мене виникають труднощі після їх виведення рівнянь для регресії Гаусса. Вони використовують налаштування та позначення Расмуссена та Вільямса . Таким чином, адитивний, нульовий середній, стаціонарний і нормально розподілений шум з дисперсієюσ2noiseσnoise2\sigma^2_{noise} передбачається: y=f(x)+ϵ,ϵ∼N(0,σ2noise)y=f(x)+ϵ,ϵ∼N(0,σnoise2)y=f(\mathbf{x})+\epsilon, \quad \epsilon\sim N(0,\sigma^2_{noise}) Передбачається GP-попередник із нульовим середнім значенням …

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.