Запитання з тегом «matrix-decomposition»

Розкладання матриці відноситься до процесу факторизації матриці на добуток менших матриць. Розкладаючи велику матрицю, можна ефективно виконувати багато матричних алгоритмів.

1
Зменшення розмірності (SVD або PCA) на великій розрідженій матриці
/ редагувати: подальше спостереження зараз ви можете використовувати irlba :: prcomp_irlba / редагувати: слідкувати за моєю власною публікацією. irlbaтепер є аргументи "центр" і "шкала", які дозволяють використовувати його для обчислення основних компонентів, наприклад: pc <- M %*% irlba(M, nv=5, nu=0, center=colMeans(M), right_only=TRUE)$v У мене є велика кількість розрізнених Matrixфункцій, які …

1
Яка норма помилки реконструкції мінімізована матрицею наближення низького рангу, отриманою за допомогою PCA?
З огляду на наближення PCA (або SVD) з матриці XXX з матрицею X , ми знаємо , що X є найкращим нізкоразрядним наближенням X .X^X^\hat XX^X^\hat XXXX Це відповідно до індукованої норми ∥⋅∥2∥⋅∥2\parallel \cdot \parallel_2 (тобто найбільшої норми власного значення) або відповідно до норми Frobenius ∥⋅∥F∥⋅∥F\parallel \cdot \parallel_F ?

2
Чому PCA даних за допомогою SVD даних?
Це питання стосується ефективного способу обчислення основних компонентів. Багато текстів на лінійній PCA пропонують використовувати сингулярне розкладання значення випадкових даних . Тобто, якщо ми маємо дані і хочемо замінити змінні (її стовпці ) основними компонентами, ми робимо SVD: , сингулярні значення (квадратні корені власних значень), що займають основну діагональ , …

1
Ефективний розрахунок оберненої матриці в R
Мені потрібно обчислити матрицю оберненою і використовую solveфункцію. Хоча це добре працює на малих матрицях, на великих матрицях, solveяк правило, дуже повільно. Мені було цікаво, чи є якась інша функція або комбінація функцій (через SVD, QR, LU чи інші функції розкладання), які можуть дати мені швидші результати.

5
Основні статті про матричні декомпозиції
Нещодавно я прочитав книгу Skillicorn про матричні розклади та був трохи розчарований, оскільки був орієнтований на студентську аудиторію. Я хотів би скласти (для себе та інших) коротку бібліографію істотних статей (опитування, але також проривні статті) про матричні розклади. Я маю на увазі насамперед щось на SVD / PCA (і надійні …

1
Оновлення розкладання SVD після додавання одного нового рядка до матриці
Припустимо, у мене щільна матриця розміром m × n , при розкладі SVD A = U S V ⊤ . У можна обчислити СВД наступним чином : .AA \textbf{A}m×nm×nm \times nA=USV⊤.A=USV⊤.\mathbf{A}=\mathbf{USV}^\top.Rsvd(A) Якщо до A додати новий -й ряд , чи можна обчислити нове розкладання SVD на основі старого (тобто, використовуючи …

3
Як вибрати оптимальну кількість прихованих факторів при негативній матричній факторизації?
З огляду на матрицю Vm×nVm×n\mathbf V^{m \times n} , Негативна факторизація матриць (NMF) знаходить дві негативні матриці та (тобто з усіма елементами ) представити розкладену матрицю як:H k × n ≥0Wm×kWm×k\mathbf W^{m \times k}Hk×nHk×n\mathbf H^{k \times n}≥0≥0\ge 0 V≈WH,V≈WH,\mathbf V \approx \mathbf W\mathbf H, WW\mathbf WHH\mathbf H∥V−WH∥2.‖V−WH‖2.\|\mathbf V-\mathbf W\mathbf H\|^2. …

1
Власні функції матриці суміжності часового ряду?
Розглянемо простий часовий ряд: > tp <- seq_len(10) > tp [1] 1 2 3 4 5 6 7 8 9 10 ми можемо обчислити матрицю суміжності для цього часового ряду, що представляє часові зв’язки між зразками. Обчислюючи цю матрицю, ми додаємо уявний сайт у момент часу 0, а зв'язок між …

2
Як побудувати еліпс із власних значень та власних векторів у R? [зачинено]
Зачинено. Це питання поза темою . Наразі відповіді не приймаються. Хочете вдосконалити це питання? Оновіть питання, щоб воно було тематичним для перехресної перевірки. Закрито 2 роки тому . Чи може хтось придумати R- код для побудови еліпса із власних значень та власних векторів наступної матриці А = ( 2.20,40,42.8)А=(2.20,40,42.8) \mathbf{A} …

1
Поясніть, як `eigen` допомагає інвертувати матрицю
Моє запитання стосується техніки обчислень, що експлуатується в geoR:::.negloglik.GRFабо geoR:::solve.geoR. У налаштуваннях лінійної змішаної моделі: де і - фіксовані та випадкові ефекти відповідно. Такожβ b Σ = cov ( Y )Y= Xβ+ Zb + eY=Xβ+Zb+e Y=X\beta+Zb+e ββ\betaбbbΣ = cov ( Y)Σ=cov(Y)\Sigma=\text{cov}(Y) Оцінюючи ефекти, виникає потреба в обчисленні що зазвичай можна …

1
Найсучасніша у спільній фільтрації
Я працюю над проектом спільної фільтрації (CF), тобто заповнюю частково спостережувану матрицю або загалом тензор. Я новачок у цій галузі, і для цього проекту в кінцевому підсумку я повинен порівняти наш метод з іншими відомими, які сьогодні пропонуються запропоновані методи проти них, а саме - найсучасніші у КФ. Мій пошук …

1
R / mgcv: Чому тензорні вироби te () і ti () створюють різні поверхні?
У mgcvпакеті Rє дві функції для встановлення тензорних взаємодій між продуктами: te()і ti(). Я розумію основний розподіл праці між двома (встановлення нелінійної взаємодії проти декомпозиції цієї взаємодії на основні ефекти та взаємодію). Чого я не розумію, це чому te(x1, x2)і ti(x1) + ti(x2) + ti(x1, x2)може давати (трохи) різні результати. …
11 r  gam  mgcv  conditional-probability  mixed-model  references  bayesian  estimation  conditional-probability  machine-learning  optimization  gradient-descent  r  hypothesis-testing  wilcoxon-mann-whitney  time-series  bayesian  inference  change-point  time-series  anova  repeated-measures  statistical-significance  bayesian  contingency-tables  regression  prediction  quantiles  classification  auc  k-means  scikit-learn  regression  spatial  circular-statistics  t-test  effect-size  cohens-d  r  cross-validation  feature-selection  caret  machine-learning  modeling  python  optimization  frequentist  correlation  sample-size  normalization  group-differences  heteroscedasticity  independence  generalized-least-squares  lme4-nlme  references  mcmc  metropolis-hastings  optimization  r  logistic  feature-selection  separation  clustering  k-means  normal-distribution  gaussian-mixture  kullback-leibler  java  spark-mllib  data-visualization  categorical-data  barplot  hypothesis-testing  statistical-significance  chi-squared  type-i-and-ii-errors  pca  scikit-learn  conditional-expectation  statistical-significance  meta-analysis  intuition  r  time-series  multivariate-analysis  garch  machine-learning  classification  data-mining  missing-data  cart  regression  cross-validation  matrix-decomposition  categorical-data  repeated-measures  chi-squared  assumptions  contingency-tables  prediction  binary-data  trend  test-for-trend  matrix-inverse  anova  categorical-data  regression-coefficients  standard-error  r  distributions  exponential  interarrival-time  copula  log-likelihood  time-series  forecasting  prediction-interval  mean  standard-error  meta-analysis  meta-regression  network-meta-analysis  systematic-review  normal-distribution  multiple-regression  generalized-linear-model  poisson-distribution  poisson-regression  r  sas  cohens-kappa 

1
Чому неагрегативність важлива для систем спільної фільтрації / рекомендування?
У всіх сучасних системах рекомендацій, які я бачив, які покладаються на матричну факторизацію, на матриці фільму користувача-фільму проводиться негативна факторизація матриці. Я можу зрозуміти, чому негативність має важливе значення для інтерпретації та / або якщо ви хочете розріджувати фактори. Але якщо ви дбаєте лише про ефективність прогнозування, як, наприклад, у …

1
Швидке обчислення / оцінка лінійної системи низького рангу
Лінійні системи рівнянь поширені в обчислювальній статистиці. Одна зі спеціальних систем, з якими я стикався (наприклад, при факторному аналізі), - це система Ax=bAx=bAx=b де Тут - діагональна матриця із строго позитивною діагоналлю, - (з ) симетрична позитивна напіввизначена матриця, і є довільною матрицею . Нас пропонують розв’язати діагональну лінійну систему …

2
Спільна фільтрація за допомогою матричної факторизації з логістичною функцією втрат
Розглянемо проблему спільної фільтрації. У нас є матрицяММM розміру # користувачі * #items. Мi , j= 1Мi,j=1M_{i,j} = 1 якщо користувачеві мені подобається предмет j, Мi , j= 0Мi,j=0M_{i,j} = 0 якщо користувач мені не подобається пункт j і Мi , j= ?Мi,j=?M_{i,j}=?якщо немає даних про (i, j) пари. Ми …

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.