Запитання з тегом «regression»

Методи аналізу взаємозв'язку між однією (або більше) змінними "залежними" та "незалежними" змінними.

1
Чи слід моделювати різницю між контролем та лікуванням явно або неявно?
З огляду на наступні експериментальні установки: Кілька зразків відбирають у суб'єкта, і кожен зразок обробляється декількома способами (включаючи контрольну обробку). Що в основному цікаво, це різниця між контролем та кожним лікуванням. Я можу придумати дві прості моделі для цих даних. Зразкомiii, лікування jjj, лікування 0 як контроль, нехай Yi jYijY_{ij} …

1
Висновок у лінійній моделі з умовною гетерокедастичністю
Припустимо, я спостерігаю незалежні вектори змінних і і залежну змінну . Я хотів би помістити модель форми: де - деяка додатна величина у два рази диференційована функція, - невідомий параметр масштабування, а - нульова середня, одинична дисперсія гауссова випадкова величина (вважається незалежною від і ). Це по суті встановлення тесту …

2
В яких умовах ви б очікували, що модель, знайдена LARS, сильно відрізняється від моделі, знайденої при вичерпному пошуку?
Трохи більше інформації; припустимо, що ви заздалегідь знаєте, скільки змінних вибрати, і що ви встановили штраф складності в LARS процедурі, щоб мати саме стільки змінних з не 0 коефіцієнтами, витрати на обчислення - це не проблема (загальна кількість змінної невелика, скажімо, 50), що всі змінні (y, x) є безперервними. У …

2
Як перевірити, чи коефіцієнт регресії модерується змінною групування?
У мене регресія зроблена для двох груп вибірки на основі модерувальної змінної (скажімо, статі). Я роблю простий тест на модеруючий ефект, перевіряючи, чи втрачається значення регресії на одному наборі, а залишається в іншому. Q1: Вищенаведений метод є дійсним, чи не так? Q2: рівень довіри мого дослідження встановлений на рівні 95%. …


1
Багатовимірна ортогональна регрес полінома?
Як засіб мотивації питання розглянемо проблему регресування, яку ми прагнемо оцінити YYY з використанням спостережуваних змінних { a , b }{a,b}\{ a, b \} Роблячи багатофакторний поліноміальний регрес, я намагаюся знайти оптимальну парамітизацію функції f( у) =c1a +c2b +c3а2+c4a b +c5б2+ ⋯f(y)=c1a+c2b+c3a2+c4ab+c5b2+⋯f(y)=c_{1}a+c_{2}b+c_{3}a^{2}+c_{4}ab+c_{5}b^{2}+\cdots які найкраще відповідають даним у сенсі квадратного значення. …

1
Чи потрібно коригувати нульове підрахунок для випробування співвідношення ймовірності моделей Пуассона / Логінеар?
Якщо в таблиці непередбачених ситуацій є 0, і ми встановлюємо вкладені моделі Пуассона / Логінеар (використовуючи glmфункцію R ) для тесту на коефіцієнт вірогідності, чи потрібно нам коригувати дані до встановлення моделей GLM (наприклад, додати 1/2 до всіх підрахунки)? Очевидно, що деякі параметри неможливо оцінити без певного коригування, але як …

4
Чи має значення змінний порядок у лінійній регресії
Я досліджую взаємодію між двома змінними (х1х1x_1 і х2х2x_2). Між цими змінними існує велика лінійна кореляціяr > 0,9r>0,9r>0.9. Із природи проблеми я нічого не можу сказати про причинно-наслідкову ситуацію (чи є)х1х1x_1 причини х2х2x_2або навпаки). Мені хотілося б вивчити відхилення від лінії регресії, щоб виявити людей, що переживають людину. Для цього …

1
Випадкова перевірка перестановки для вибору функції
Мене бентежить аналіз перестановки для вибору особливостей у контексті логістичної регресії. Чи можете ви надати чітке пояснення тесту випадкової перестановки та як це застосовується до вибору функцій? Можливо, з точним алгоритмом та прикладами. Нарешті, як воно порівнюється з іншими методами усадки, такими як Лассо або ЛАР?

4
Аналітичне рішення оцінок коефіцієнта лінійної регресії
Я намагаюся зрозуміти матричне позначення та працюю з векторами та матрицями. Зараз я хотів би зрозуміти, як обчислюється вектор оцінок коефіцієнта при множинній регресії.β^β^\hat{\beta} Основне рівняння, здається, є ddβ(y−Xβ)′(y−Xβ)=0.ddβ(y−Xβ)′(y−Xβ)=0. \frac{d}{d\boldsymbol{\beta}} (\boldsymbol{y}-\boldsymbol{X\beta})'(\boldsymbol{y}-\boldsymbol{X\beta}) = 0 \>. Тепер як би я вирішив для вектора ββ\beta тут? Редагувати : Зачекайте, я застряг. Зараз я …

1
R реалізація коефіцієнта часткового визначення
У когось є пропозиції чи пакети, які підрахують коефіцієнт часткового визначення? Коефіцієнт часткового визначення може бути визначений як відсоток варіації, який неможливо пояснити у зменшеній моделі, але може бути пояснений предикторами, зазначеними в повній (ер) моделі. Цей коефіцієнт використовується для розуміння того, чи може бути корисним один чи більше додаткових …
9 r  regression  anova 

1
Використання сингулярного декомпозиції величини для обчислення матриці коваріації варіації з лінійної регресійної моделі
У мене є матриця проектування регресорів p, n спостережень, і я намагаюся обчислити вибіркову дисперсійно-коваріаційну матрицю параметрів. Я намагаюся безпосередньо обчислити це за допомогою svd. Я використовую R, коли я беру svd проектної матриці, я отримую три компоненти: матрицю UUU який n × pn×pn \times p, матриця DDD який 1 …
9 r  regression 

1
Регресія найменшого кута підтримує кореляцію монотонно зменшуваною та зв'язаною?
Я намагаюся вирішити проблему для найменшого кутового регресу (ЛАР). Це проблема 3,23 на сторінці 97 з Гесте і ін., Елементи статистичного навчання, другий. ред. (5-та друкарня) . Розглянемо проблему регресії з усіма змінними та реакцією, що мають середнє нульове та стандартне відхилення. Припустимо також, що кожна змінна має однакову абсолютну …

4
Які припущення щодо застосування регресійної моделі Тобіта?
Мої (дуже базові) знання регресійної моделі Тобіта не з класу, як я хотів би. Натомість я зібрав сюди і сюди частину інформації за допомогою кількох пошуків в Інтернеті. Я найкраще здогадуюсь про припущення для усіченої регресії, що вони дуже схожі на припущення про найменші квадрати (OLS). Я навіть не маю …

2
Обчисліть криву ROC для даних
Отже, у мене є 16 випробувань, в яких я намагаюся ідентифікувати людину з біометричної ознаки за допомогою дистанції Hamming. Мій поріг встановлено на 3,5. Мої дані нижче, і лише пробна версія 1 - справжнє Позитивне: Trial Hamming Distance 1 0.34 2 0.37 3 0.34 4 0.29 5 0.55 6 0.47 …
9 mathematical-statistics  roc  classification  cross-validation  pac-learning  r  anova  survival  hazard  machine-learning  data-mining  hypothesis-testing  regression  random-variable  non-independent  normal-distribution  approximation  central-limit-theorem  interpolation  splines  distributions  kernel-smoothing  r  data-visualization  ggplot2  distributions  binomial  random-variable  poisson-distribution  simulation  kalman-filter  regression  lasso  regularization  lme4-nlme  model-selection  aic  r  mcmc  dlm  particle-filter  r  panel-data  multilevel-analysis  model-selection  entropy  graphical-model  r  distributions  quantiles  qq-plot  svm  matlab  regression  lasso  regularization  entropy  inference  r  distributions  dataset  algorithms  matrix-decomposition  regression  modeling  interaction  regularization  expected-value  exponential  gamma-distribution  mcmc  gibbs  probability  self-study  normality-assumption  naive-bayes  bayes-optimal-classifier  standard-deviation  classification  optimization  control-chart  engineering-statistics  regression  lasso  regularization  regression  references  lasso  regularization  elastic-net  r  distributions  aggregation  clustering  algorithms  regression  correlation  modeling  distributions  time-series  standard-deviation  goodness-of-fit  hypothesis-testing  statistical-significance  sample  binary-data  estimation  random-variable  interpolation  distributions  probability  chi-squared  predictor  outliers  regression  modeling  interaction 

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.