Запитання з тегом «svd»

Синулярне розкладання значення (SVD) матриці A дається А=USV де U і V є ортогональними матрицями та S є діагональною матрицею.

3
Холеський проти ейгендекомпозиції для малювання зразків з багатовимірного нормального розподілу
Я б хотів намалювати зразок . Вікіпедія пропонує або використовувати склад Холеського, або Ейгенде , тобто або Σ = D 1 D T 1x∼N(0,Σ)x∼N(0,Σ)\mathbf{x} \sim N\left(\mathbf{0}, \mathbf{\Sigma} \right)Σ=D1DT1Σ=D1D1T \mathbf{\Sigma} = \mathbf{D}_1\mathbf{D}_1^T Σ=QΛQTΣ=QΛQT \mathbf{\Sigma} = \mathbf{Q}\mathbf{\Lambda}\mathbf{Q}^T Отже, зразок можна скласти через: або де \ mathbf {v} \ sim N \ зліва …

2
Коли ми поєднуємо зменшення розмірності з кластеризацією?
Я намагаюся виконати кластеризацію на рівні документа. Я сконструював частотну матрицю терміна-документ і намагаюся кластеризувати ці великі розмірні вектори за допомогою k-засобів. Замість того, щоб безпосередньо кластеризувати, я спершу застосував сингулярний векторний розпад LSA (Latent Semantic Analysis) для отримання матриць U, S, Vt, вибрав відповідний поріг за допомогою діаграми екрана …

1
Власні функції матриці суміжності часового ряду?
Розглянемо простий часовий ряд: > tp <- seq_len(10) > tp [1] 1 2 3 4 5 6 7 8 9 10 ми можемо обчислити матрицю суміжності для цього часового ряду, що представляє часові зв’язки між зразками. Обчислюючи цю матрицю, ми додаємо уявний сайт у момент часу 0, а зв'язок між …

1
Чи реалізує GSVD всі лінійні багатовимірні методи?
Я натрапив на статтю Ерве Абді про узагальнену СВД. Автор згадав: Узагальнений SVD (GSVD) розкладає прямокутну матрицю і враховує обмеження, накладені на рядки та стовпці матриці. GSVD дає зважену узагальнену оцінку найменшого квадрату даної матриці матрицею нижчого рангу, а тому, при адекватному виборі обмежень, GSVD реалізує всі лінійні багатоваріантні методи …


3
Які швидкі алгоритми існують для обчислення усіченого SVD?
Можливо, тут немає теми, але вже є декілька ( один , два ) пов'язаних із цим питань. Оглянувшись літературою (або пошуком Google за усіченими алгоритмами SVD), виходить багато паперів, які різними способами використовують усічені SVD, і стверджують ( страшно , часто, без цитування), що існують швидкі алгоритми її обчислення, але …

2
Чи не повинен SVD взагалі нічого пояснювати для випадкової матриці? Що я роблю неправильно?
Якщо я будую 2-D матрицю, повністю складається з випадкових даних, я б очікував, що компоненти PCA та SVD по суті нічого не пояснюють. Натомість, здається, що перший стовпець SVD пояснює 75% даних. Як це можливо? Що я роблю неправильно? Ось сюжет: Ось код R: set.seed(1) rm(list=ls()) m <- matrix(runif(10000,min=0,max=25), nrow=100,ncol=100) …
13 r  pca  svd 

1
Чому власні та svd декомпозиції матриці коваріації на основі розріджених даних дають різні результати?
Я намагаюся розкласти коваріаційну матрицю, засновану на наборі даних з обмеженою / гаптованою формою. Я зауважую, що сума лямбда (пояснена дисперсія), розрахована з svd, посилюється все більш неохайними даними. Без прогалин, svdі eigenотримуйте однакові результати. Здається, це не відбувається при eigenрозкладанні. Я схилявся до використання, svdоскільки значення лямбда завжди позитивні, …
12 r  svd  eigenvalues 

3
SVD матриці з відсутніми значеннями
Припустимо, у мене є матриця рекомендацій у стилі Netflix, і я хочу створити модель, яка передбачає потенційні майбутні рейтинги фільмів для даного користувача. Використовуючи підхід Саймона Функ, можна використовувати стохастичний градієнтний спуск, щоб мінімізувати норму Фробеніуса між повною матрицею і матрицею «за пунктом * користувач-користувач» у поєднанні з терміном регуляції …

1
Різниця між впровадженнями наукових програм PCA і TruncatedSVD
Я розумію взаємозв'язок між основним компонентним аналізом та сингулярним декомпозицією значення на алгебраїчному / точному рівні. Моє запитання щодо реалізації scikit-learn . Документація говорить: " [усіченийSVD] дуже схожий на PCA, але працює на вибіркових векторах безпосередньо, а не на коваріаційній матриці. ", Що відображало б алгебраїчну різницю між обома підходами. …
12 pca  scikit-learn  svd  scipy 

1
Як намалювати сюжетний осад у пітоні? [зачинено]
Зачинено. Це питання поза темою . Наразі відповіді не приймаються. Хочете вдосконалити це питання? Оновіть питання, щоб воно було тематичним для перехресної перевірки. Закритий минулого року . Я використовую сингулярне векторне розкладання на матриці та отримую матриці U, S та Vt. На даний момент я намагаюся вибрати поріг для кількості …

1
Чому неагрегативність важлива для систем спільної фільтрації / рекомендування?
У всіх сучасних системах рекомендацій, які я бачив, які покладаються на матричну факторизацію, на матриці фільму користувача-фільму проводиться негативна факторизація матриці. Я можу зрозуміти, чому негативність має важливе значення для інтерпретації та / або якщо ви хочете розріджувати фактори. Але якщо ви дбаєте лише про ефективність прогнозування, як, наприклад, у …

1
Які плюси та мінуси застосування точкової взаємної інформації на матриці змісту слова перед SVD?
Один з способів генерації вкладення слів є наступними ( дзеркало ): Отримайте корпорацію, наприклад, "Мені подобається літати. Мені подобається NLP. Мені подобається глибоке навчання". Побудуйте з нього матрицю потоку слова: Виконайте SVD на та збережіть перші стовпці U.XXXkkk Кожен рядок підматриці буде словом, що вбудовує слово, яке представляє рядок (рядок …

3
K - означає косинусну схожість проти евклідової відстані (LSA)
Я використовую латентний семантичний аналіз для представлення корпусу документів у просторі нижчих розмірів. Я хочу класифікувати ці документи на дві групи за допомогою k-засобів. Кілька років тому я робив це, використовуючи gensim Python і писав власний алгоритм k-означає. Я визначив центроїди кластера за евклідовою відстані, але потім згрупував кожен документ …

1
R лінійна регресія, категоріальна змінна значення «приховане»
Це лише приклад, на який я зустрічався кілька разів, тому у мене немає даних про вибірку. Запуск лінійної регресійної моделі в R: a.lm = lm(Y ~ x1 + x2) x1є суцільною змінною. x2категоричний і має три значення, наприклад "Низький", "Середній" та "Високий". Однак вихід, отриманий R, був би на кшталт: …
10 r  regression  categorical-data  regression-coefficients  categorical-encoding  machine-learning  random-forest  anova  spss  r  self-study  bootstrap  monte-carlo  r  multiple-regression  partitioning  neural-networks  normalization  machine-learning  svm  kernel-trick  self-study  survival  cox-model  repeated-measures  survey  likert  correlation  variance  sampling  meta-analysis  anova  independence  sample  assumptions  bayesian  covariance  r  regression  time-series  mathematical-statistics  graphical-model  machine-learning  linear-model  kernel-trick  linear-algebra  self-study  moments  function  correlation  spss  probability  confidence-interval  sampling  mean  population  r  generalized-linear-model  prediction  offset  data-visualization  clustering  sas  cart  binning  sas  logistic  causality  regression  self-study  standard-error  r  distributions  r  regression  time-series  multiple-regression  python  chi-squared  independence  sample  clustering  data-mining  rapidminer  probability  stochastic-processes  clustering  binary-data  dimensionality-reduction  svd  correspondence-analysis  data-visualization  excel  c#  hypothesis-testing  econometrics  survey  rating  composite  regression  least-squares  mcmc  markov-process  kullback-leibler  convergence  predictive-models  r  regression  anova  confidence-interval  survival  cox-model  hazard  normal-distribution  autoregressive  mixed-model  r  mixed-model  sas  hypothesis-testing  mediation  interaction 

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.