Запитання з тегом «weighted-regression»

Регресія найменших квадратів - це узагальнення регресії OLS, що використовується, коли різні точки даних мають різне значення, або "ваги". Див. Також [зважені дані].

9
Довідник для лінійної алгебри, застосований до статистики?
Я трохи працював у R, і зіткнувся з такими речами, як PCA, SVD, QR-розкладу та багато таких лінійних результатів алгебри (при перевірці оцінки зважених регресій та подібних), тому я хотів знати, чи є у когось рекомендація щодо хорошого всебічна книга лінійної алгебри, яка не надто теоретична, але є математично суворою …

2
Як ви знаєте ваги для регресії найменш зважених квадратів?
Я трохи загубився в процесі регресії WLS. Мені було надано набір даних, і моє завдання - перевірити, чи є гетеросцедіальність, і якщо так, я повинен запустити регресію WLS. Я провів тест і виявив докази на гетероскопічність, тому мені потрібно запустити WLS. Мені сказали, що WLS - це в основному регресія …

1
Яка інтуїція за обмінними зразками під нульовою гіпотезою?
Перестановочні тести (також називаються тестом рандомизації, тестом на повторну рандомізацію або точним тестом) дуже корисні і корисні, коли припущення про нормальний розподіл, необхідне, наприклад, t-testне виконується, і при перетворенні значень за ранжуванням непараметричний тест, як-от Mann-Whitney-U-test, призведе до втрати більше інформації. Однак одне і єдине припущення не слід оминути увагою …
15 hypothesis-testing  permutation-test  exchangeability  r  statistical-significance  loess  data-visualization  normal-distribution  pdf  ggplot2  kernel-smoothing  probability  self-study  expected-value  normal-distribution  prior  correlation  time-series  regression  heteroscedasticity  estimation  estimators  fisher-information  data-visualization  repeated-measures  binary-data  panel-data  mathematical-statistics  coefficient-of-variation  normal-distribution  order-statistics  regression  machine-learning  one-class  probability  estimators  forecasting  prediction  validation  finance  measurement-error  variance  mean  spatial  monte-carlo  data-visualization  boxplot  sampling  uniform  chi-squared  goodness-of-fit  probability  mixture  theory  gaussian-mixture  regression  statistical-significance  p-value  bootstrap  regression  multicollinearity  correlation  r  poisson-distribution  survival  regression  categorical-data  ordinal-data  ordered-logit  regression  interaction  time-series  machine-learning  forecasting  cross-validation  binomial  multiple-comparisons  simulation  false-discovery-rate  r  clustering  frequency  wilcoxon-mann-whitney  wilcoxon-signed-rank  r  svm  t-test  missing-data  excel  r  numerical-integration  r  random-variable  lme4-nlme  mixed-model  weighted-regression  power-law  errors-in-variables  machine-learning  classification  entropy  information-theory  mutual-information 

2
R: функція glm із специфікацією сімейства = “бінома” та “вага”
Мене дуже плутає те, як вага працює в glm з сім'єю = "двочлен". У моєму розумінні ймовірність glm з family = "binomial" визначається так: f(y)=(nny)pny(1−p)n(1−y)=exp(n[ylogp1−p−(−log(1−p))]+log(nny))f(y)=(nny)pny(1−p)n(1−y)=exp⁡(n[ylog⁡p1−p−(−log⁡(1−p))]+log⁡(nny)) f(y) = {n\choose{ny}} p^{ny} (1-p)^{n(1-y)} = \exp \left(n \left[ y \log \frac{p}{1-p} - \left(-\log (1-p)\right) \right] + \log {n \choose ny}\right) де yyy - "частка …

1
Коефіцієнти в регресії, він же запитання щодо Kronmal
Нещодавно випадкові перегляди питань викликали пам’ять про невмілий коментар одного з моїх професорів кілька років тому попереджаючи про використання коефіцієнтів у регресійних моделях. Тож я почав читати це, ведучи врешті до Kronmal 1993. Я хочу переконатися, що я правильно інтерпретую його пропозиції щодо моделювання цих. Для моделі з співвідношенням з …

2
Гармонічне середнє мінімізує суму відносних помилок у квадраті
Я шукаю посилання, де доведено, що гармонійне значення x¯h=n∑ni=11xix¯h=n∑i=1n1xi\bar{x}^h = \frac{n}{\sum_{i=1}^n \frac{1}{x_i}} мінімізує (в ) суму відносних помилок у квадратіzzz ∑i=1n((xi−z)2xi).∑i=1n((xi−z)2xi).\sum_{i=1}^n \left( \frac{(x_i - z)^2}{x_i}\right).

5
Як виконати імпутацію значень у дуже великій кількості точок даних?
У мене дуже великий набір даних, і близько 5% випадкових значень відсутні. Ці змінні співвідносяться між собою. Наступний приклад набору даних R - це лише іграшковий приклад з манекено-корельованими даними. set.seed(123) # matrix of X variable xmat <- matrix(sample(-1:1, 2000000, replace = TRUE), ncol = 10000) colnames(xmat) <- paste ("M", …
12 r  random-forest  missing-data  data-imputation  multiple-imputation  large-data  definition  moving-window  self-study  categorical-data  econometrics  standard-error  regression-coefficients  normal-distribution  pdf  lognormal  regression  python  scikit-learn  interpolation  r  self-study  poisson-distribution  chi-squared  matlab  matrix  r  modeling  multinomial  mlogit  choice  monte-carlo  indicator-function  r  aic  garch  likelihood  r  regression  repeated-measures  simulation  multilevel-analysis  chi-squared  expected-value  multinomial  yates-correction  classification  regression  self-study  repeated-measures  references  residuals  confidence-interval  bootstrap  normality-assumption  resampling  entropy  cauchy  clustering  k-means  r  clustering  categorical-data  continuous-data  r  hypothesis-testing  nonparametric  probability  bayesian  pdf  distributions  exponential  repeated-measures  random-effects-model  non-independent  regression  error  regression-to-the-mean  correlation  group-differences  post-hoc  neural-networks  r  time-series  t-test  p-value  normalization  probability  moments  mgf  time-series  model  seasonality  r  anova  generalized-linear-model  proportion  percentage  nonparametric  ranks  weighted-regression  variogram  classification  neural-networks  fuzzy  variance  dimensionality-reduction  confidence-interval  proportion  z-test  r  self-study  pdf 

2
Теорія, що стоїть за аргументом ваг у R при використанні lm ()
Після року в середній школі моє розуміння "найменш зважених квадратів" таке: нехай y∈Rny∈Rn\mathbf{y} \in \mathbb{R}^n , XX\mathbf{X} - якась матриця дизайну n×pn×pn \times p , - параметр вектор, бути вектор помилки таким, що , де і . Тоді модель β∈Rpβ∈Rp\boldsymbol\beta \in \mathbb{R}^pϵ∈Rnϵ∈Rn\boldsymbol\epsilon \in \mathbb{R}^nϵ∼N(0,σ2V)ϵ∼N(0,σ2V)\boldsymbol\epsilon \sim \mathcal{N}(\mathbf{0}, \sigma^2\mathbf{V})V=diag(v1,v2,…,vn)V=diag(v1,v2,…,vn)\mathbf{V} = \text{diag}(v_1, v_2, …

1
Інтуїтивне пояснення зворотної ймовірності ваги лікування (IPTW) у ваговій оцінці?
Я розумію механіку обчислення ваг, використовуючи показники схильності : а потім застосувати ваги в регресійному аналізі, і те, що ваги служать для "контроль" або роз'єднання ефектів коваріатів у групах лікування та контрольних груп із змінною результату.p(xi)p(xi)p(x_i)wi,j=treatwi,j=control=1p(xi)=11−p(xi)wi,j=treat=1p(xi)wi,j=control=11−p(xi)\begin{align} w_{i, j={\rm treat}} &= \frac{1}{p(x_i)} \\[5pt] w_{i, j={\rm control}} &= \frac{1}{1-p(x_i)} \end{align} Однак на …

3
Взважена узагальнена регресія в BUGS, JAGS
В Rми можемо «до» ваги в glmрегресії через вагу параметр. Наприклад: glm.D93 <- glm(counts ~ outcome + treatment, family = poisson(), weights=w) Як це можна досягти в JAGSабоBUGS моделі моделі? Я знайшов якийсь документ, який обговорював це, але жоден з них не дає прикладу. Мене цікавлять переважно приклади Пуассона та …

1
Визначення найменш зважених квадратних ваг: R lm функція проти
Чи може хто-небудь сказати мені, чому я отримую різні результати від Rзважених найменших квадратів та ручного рішення за допомогою матриці ? Зокрема, я намагаюся вручну вирішити , де - діагональна матриця на вагах, - матриця даних, - відповідь вектор. WAx=WbWAx=Wb\mathbf W \mathbf A\mathbf x=\mathbf W \mathbf bWW\mathbf WAA\mathbf Abb\mathbf b …

2
Додавання ваг для сильно перекошених наборів даних при логістичній регресії
Я використовую стандартну версію логістичної регресії, щоб підходити мої вхідні змінні до двійкових вихідних змінних. Однак у моїй проблемі негативні результати (0s) значно перевищують позитивні результати (1s). Співвідношення 20: 1. Тому, коли я треную класифікатор, здається, що навіть функції, які наголошують на можливості позитивного виводу, все ще мають дуже низькі …
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.