Запитання з тегом «matrix-inverse»

Інверсія даної квадратної матриці, A, є матрицею A1 такий як AA1 - матриця ідентичності.

3
Чому інверсія коваріаційної матриці дає часткові кореляції між випадковими змінними?
Я чув, що часткові кореляції між випадковими змінними можна знайти, перевернувши матрицю коваріації та взявши відповідні комірки з такої результуючої матриці точності (цей факт згадується в http://en.wikipedia.org/wiki/Partial_correlation , але без доказів) . Чому це так?

1
Ефективний розрахунок оберненої матриці в R
Мені потрібно обчислити матрицю оберненою і використовую solveфункцію. Хоча це добре працює на малих матрицях, на великих матрицях, solveяк правило, дуже повільно. Мені було цікаво, чи є якась інша функція або комбінація функцій (через SVD, QR, LU чи інші функції розкладання), які можуть дати мені швидші результати.

1
Поясніть, як `eigen` допомагає інвертувати матрицю
Моє запитання стосується техніки обчислень, що експлуатується в geoR:::.negloglik.GRFабо geoR:::solve.geoR. У налаштуваннях лінійної змішаної моделі: де і - фіксовані та випадкові ефекти відповідно. Такожβ b Σ = cov ( Y )Y= Xβ+ Zb + eY=Xβ+Zb+e Y=X\beta+Zb+e ββ\betaбbbΣ = cov ( Y)Σ=cov(Y)\Sigma=\text{cov}(Y) Оцінюючи ефекти, виникає потреба в обчисленні що зазвичай можна …

3
Що таке приклад ідеальної мультиколінеарності?
Що таке приклад ідеальної колінеарності з точки зору дизайнерської матриці ?XXX Я хотів би приклад, коли неможливо оцінити, оскільки не є зворотним.β^=(X′X)−1X′Yβ^=(X′X)−1X′Y\hat \beta = (X'X)^{-1}X'Y(X′X)(X′X)(X'X)

1
Що робити, коли матриця коваріації зразка не обернена?
Я працюю над деякими методами кластеризації, де для заданого кластера d-розмірних векторів я припускаю багатоваріантне нормальне розподіл і обчислюю вибірковий d-розмірний середній вектор та матрицю коваріації вибірки. Тоді, намагаючись вирішити, чи належить новий, невидимий, d-мірний вектор до цього кластеру, я перевіряю його відстань за допомогою цієї міри: (Xi−μ^X)′σ^−1X(Xi−μ^X)>B0.95(p2,−p2)(Xi−μ^X)′σ^X−1(Xi−μ^X)>B0.95(p2,−p2)\left(X_i-\hat{\mu}_X\right)'\hat{\sigma}_X^{-1}\left(X_i-\hat{\mu}_X\right)>B_{0.95}\left(\frac{p}{2},\frac{-p}{2}\right) Що вимагає …

1
R / mgcv: Чому тензорні вироби te () і ti () створюють різні поверхні?
У mgcvпакеті Rє дві функції для встановлення тензорних взаємодій між продуктами: te()і ti(). Я розумію основний розподіл праці між двома (встановлення нелінійної взаємодії проти декомпозиції цієї взаємодії на основні ефекти та взаємодію). Чого я не розумію, це чому te(x1, x2)і ti(x1) + ti(x2) + ti(x1, x2)може давати (трохи) різні результати. …
11 r  gam  mgcv  conditional-probability  mixed-model  references  bayesian  estimation  conditional-probability  machine-learning  optimization  gradient-descent  r  hypothesis-testing  wilcoxon-mann-whitney  time-series  bayesian  inference  change-point  time-series  anova  repeated-measures  statistical-significance  bayesian  contingency-tables  regression  prediction  quantiles  classification  auc  k-means  scikit-learn  regression  spatial  circular-statistics  t-test  effect-size  cohens-d  r  cross-validation  feature-selection  caret  machine-learning  modeling  python  optimization  frequentist  correlation  sample-size  normalization  group-differences  heteroscedasticity  independence  generalized-least-squares  lme4-nlme  references  mcmc  metropolis-hastings  optimization  r  logistic  feature-selection  separation  clustering  k-means  normal-distribution  gaussian-mixture  kullback-leibler  java  spark-mllib  data-visualization  categorical-data  barplot  hypothesis-testing  statistical-significance  chi-squared  type-i-and-ii-errors  pca  scikit-learn  conditional-expectation  statistical-significance  meta-analysis  intuition  r  time-series  multivariate-analysis  garch  machine-learning  classification  data-mining  missing-data  cart  regression  cross-validation  matrix-decomposition  categorical-data  repeated-measures  chi-squared  assumptions  contingency-tables  prediction  binary-data  trend  test-for-trend  matrix-inverse  anova  categorical-data  regression-coefficients  standard-error  r  distributions  exponential  interarrival-time  copula  log-likelihood  time-series  forecasting  prediction-interval  mean  standard-error  meta-analysis  meta-regression  network-meta-analysis  systematic-review  normal-distribution  multiple-regression  generalized-linear-model  poisson-distribution  poisson-regression  r  sas  cohens-kappa 


1
Швидке обчислення / оцінка лінійної системи низького рангу
Лінійні системи рівнянь поширені в обчислювальній статистиці. Одна зі спеціальних систем, з якими я стикався (наприклад, при факторному аналізі), - це система Ax=bAx=bAx=b де Тут - діагональна матриця із строго позитивною діагоналлю, - (з ) симетрична позитивна напіввизначена матриця, і є довільною матрицею . Нас пропонують розв’язати діагональну лінійну систему …

2
Легке пояснення "чисельної стійкості інверсії матриці" в регресії хребта та його ролі у зниженні надлишків
Я розумію, що ми можемо використовувати регуляризацію в регресії як мінімум квадратів w∗=argminw[(y−Xw)T(y−Xw)+λ∥w∥2]w∗=argminw⁡[(y−Xw)T(y−Xw)+λ‖w‖2]\boldsymbol{w}^* = \operatorname*{argmin}_w \left[ (\mathbf y-\mathbf{Xw})^T(\boldsymbol{y}-\mathbf{Xw}) + \lambda\|\boldsymbol{w}\|^2 \right] і що ця проблема має рішення закритої форми як: w^=(XTX+λI)−1XTy.w^=(XTX+λI)−1XTy.\hat{\boldsymbol{w}} = (\boldsymbol{X}^T\boldsymbol{X}+\lambda\boldsymbol{I})^{-1}\boldsymbol{X}^T\boldsymbol{y}. Ми бачимо, що у другому рівнянні регуляризація просто додає λλ\lambda до діагоналі XTXXTX\boldsymbol{X}^T\boldsymbol{X} , що робиться для …
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.