Запитання з тегом «causality»

Зв'язок між причиною та наслідком.

1
Чому Anova () та drop1 () надали різні відповіді для GLMM?
У мене є GLMM форми: lmer(present? ~ factor1 + factor2 + continuous + factor1*continuous + (1 | factor3), family=binomial) Під час використання drop1(model, test="Chi")я отримую інші результати, ніж якщо я використовую Anova(model, type="III")з автомобільного пакета або summary(model). Ці два останні дають однакові відповіді. Використовуючи купу сфабрикованих даних, я виявив, що …
10 r  anova  glmm  r  mixed-model  bootstrap  sample-size  cross-validation  roc  auc  sampling  stratification  random-allocation  logistic  stata  interpretation  proportion  r  regression  multiple-regression  linear-model  lm  r  cross-validation  cart  rpart  logistic  generalized-linear-model  econometrics  experiment-design  causality  instrumental-variables  random-allocation  predictive-models  data-mining  estimation  contingency-tables  epidemiology  standard-deviation  mean  ancova  psychology  statistical-significance  cross-validation  synthetic-data  poisson-distribution  negative-binomial  bioinformatics  sequence-analysis  distributions  binomial  classification  k-means  distance  unsupervised-learning  euclidean  correlation  chi-squared  spearman-rho  forecasting  excel  exponential-smoothing  binomial  sample-size  r  change-point  wilcoxon-signed-rank  ranks  clustering  matlab  covariance  covariance-matrix  normal-distribution  simulation  random-generation  bivariate  standardization  confounding  z-statistic  forecasting  arima  minitab  poisson-distribution  negative-binomial  poisson-regression  overdispersion  probability  self-study  markov-process  estimation  maximum-likelihood  classification  pca  group-differences  chi-squared  survival  missing-data  contingency-tables  anova  proportion 

4
Навіщо використовувати контрольні змінні в відмінностях у відмінностях?
У мене виникає запитання щодо підходу відмінностей у відмінностях із наступним стандартним рівнянням: де treatment - фіктивна змінна для обробленої групи та посади. y=a+b1treat+b2post+b3treat⋅post+uy=a+b1treat+b2post+b3treat⋅post+u y= a + b_1\text{treat}+ b_2\text{post} + b_3\text{treat}\cdot\text{post} + u Тепер моє запитання просте: Чому більшість робіт все ще використовують додаткові контрольні змінні? Я вважав, що якщо …

1
Від ідентифікації до оцінки
Зараз я читаю твір Перла (Pearl, 2009, 2-е видання) про причинності та боротьбі за встановлення зв'язку між непараметричною ідентифікацією моделі та фактичною оцінкою. На жаль, сама Перл на цю тему дуже мовчить. Для прикладу я маю на увазі просту модель з причинним шляхом, x → z→ уx→z→yx \rightarrow z \rightarrow …

1
R лінійна регресія, категоріальна змінна значення «приховане»
Це лише приклад, на який я зустрічався кілька разів, тому у мене немає даних про вибірку. Запуск лінійної регресійної моделі в R: a.lm = lm(Y ~ x1 + x2) x1є суцільною змінною. x2категоричний і має три значення, наприклад "Низький", "Середній" та "Високий". Однак вихід, отриманий R, був би на кшталт: …
10 r  regression  categorical-data  regression-coefficients  categorical-encoding  machine-learning  random-forest  anova  spss  r  self-study  bootstrap  monte-carlo  r  multiple-regression  partitioning  neural-networks  normalization  machine-learning  svm  kernel-trick  self-study  survival  cox-model  repeated-measures  survey  likert  correlation  variance  sampling  meta-analysis  anova  independence  sample  assumptions  bayesian  covariance  r  regression  time-series  mathematical-statistics  graphical-model  machine-learning  linear-model  kernel-trick  linear-algebra  self-study  moments  function  correlation  spss  probability  confidence-interval  sampling  mean  population  r  generalized-linear-model  prediction  offset  data-visualization  clustering  sas  cart  binning  sas  logistic  causality  regression  self-study  standard-error  r  distributions  r  regression  time-series  multiple-regression  python  chi-squared  independence  sample  clustering  data-mining  rapidminer  probability  stochastic-processes  clustering  binary-data  dimensionality-reduction  svd  correspondence-analysis  data-visualization  excel  c#  hypothesis-testing  econometrics  survey  rating  composite  regression  least-squares  mcmc  markov-process  kullback-leibler  convergence  predictive-models  r  regression  anova  confidence-interval  survival  cox-model  hazard  normal-distribution  autoregressive  mixed-model  r  mixed-model  sas  hypothesis-testing  mediation  interaction 

1
Наскільки справедливо використовувати слово "передбачити" для (логістичної) регресії?
Я розумію, що навіть регресія не дає причинності. Він може давати асоціацію лише між змінною y та x змінними та, можливо, напрямом. Я прав? Я часто знаходив фрази, схожі на "x прогнозує у", навіть у більшості підручників курсу та на різних сторінках курсу в Інтернеті. І ви часто називаєте регресорів …

1
Інтервал довіри для середнього ефекту лікування від ваги показника схильності?
Я намагаюся оцінити середній ефект лікування від даних спостережень, використовуючи показник схильності (зокрема IPTW). Я думаю, що я правильно розраховую ATE, але не знаю, як обчислити довірчий інтервал ATE, враховуючи ваги зворотного схильності. Ось рівняння, яке я використовую для обчислення середнього ефекту лікування (посилання Stat Med. 10 вересня 2010; 29 …

3
Функція передачі в моделях прогнозування - інтерпретація
Я зайнятий моделюванням ARIMA, доповненим екзогенними змінними для цілей рекламного моделювання, і мені важко пояснити це діловим користувачам. У деяких випадках програмні пакети закінчуються простою функцією передачі, тобто параметром * Exogenous Variable. У цьому випадку інтерпретація є простою, тобто промоційна діяльність X (представлена ​​екзогенною бінарною змінною) впливає на залежну змінну …

3
Випадкове завдання: навіщо турбуватися?
Випадкове призначення є цінним, оскільки забезпечує незалежність лікування від потенційних результатів. Ось як це призводить до неупереджених оцінок середнього ефекту від лікування. Але інші схеми призначення можуть також систематично забезпечувати незалежність лікування від потенційних результатів. То чому нам потрібне випадкове призначення? По-іншому, у чому полягає перевага випадкового присвоєння перед не …
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.