Запитання з тегом «svd»

Синулярне розкладання значення (SVD) матриці A дається А=USV де U і V є ортогональними матрицями та S є діагональною матрицею.

3
Зв'язок між SVD та PCA. Як використовувати SVD для виконання PCA?
Аналіз основних компонентів (PCA) зазвичай пояснюється шляхом власного розкладання коваріаційної матриці. Тим НЕ менше, він також може бути виконаний з допомогою сингулярного розкладання (SVD) матриць даних . Як це працює? Який зв’язок між цими двома підходами? Який взаємозв'язок між SVD та PCA?ХX\mathbf X Або іншими словами, як використовувати SVD матриці …

1
Як повернути PCA та реконструювати оригінальні змінні з декількох основних компонентів?
Аналіз основних компонентів (PCA) може бути використаний для зменшення розмірності. Після такого зменшення розмірності, як можна приблизно реконструювати вихідні змінні / ознаки з невеликої кількості основних компонентів? Як варіант, як можна видалити або вилучити з даних кілька основних компонентів? Іншими словами, як повернути PCA? Враховуючи, що PCA тісно пов'язаний з …

3
Приклад: регресія LASSO з використанням glmnet для двійкового результату
Я починаю балуватися з використанням glmnetз LASSO регресією , де мій результат становить інтерес дихотомический. Я створив невеликий макетний кадр даних нижче: age <- c(4, 8, 7, 12, 6, 9, 10, 14, 7) gender <- c(1, 0, 1, 1, 1, 0, 1, 0, 0) bmi_p <- c(0.86, 0.45, 0.99, 0.84, …
77 r  self-study  lasso  regression  interpretation  anova  statistical-significance  survey  conditional-probability  independence  naive-bayes  graphical-model  r  time-series  forecasting  arima  r  forecasting  exponential-smoothing  bootstrap  outliers  r  regression  poisson-distribution  zero-inflation  genetic-algorithms  machine-learning  feature-selection  cart  categorical-data  interpretation  descriptive-statistics  variance  multivariate-analysis  covariance-matrix  r  data-visualization  generalized-linear-model  binomial  proportion  pca  matlab  svd  time-series  correlation  spss  arima  chi-squared  curve-fitting  text-mining  zipf  probability  categorical-data  distance  group-differences  bhattacharyya  regression  variance  mean  data-visualization  variance  clustering  r  standard-error  association-measure  somers-d  normal-distribution  integral  numerical-integration  bayesian  clustering  python  pymc  nonparametric-bayes  machine-learning  svm  kernel-trick  hyperparameter  poisson-distribution  mean  continuous-data  univariate  missing-data  dag  python  likelihood  dirichlet-distribution  r  anova  hypothesis-testing  statistical-significance  p-value  rating  data-imputation  censoring  threshold 

3
Яка інтуїція стоїть за SVD?
Я читав про сингулярне розкладання значення (SVD). Майже у всіх підручниках зазначається, що вона розподіляє матрицю на три матриці із заданою специфікацією. Але яка інтуїція за розбиттям матриці в такій формі? PCA та інші алгоритми зменшення розмірності є інтуїтивно зрозумілими, оскільки алгоритм має властивість візуалізації, але з SVD це не …

1
PCA та кореспондентський аналіз у їхньому відношенні до Біплота
Біплот часто використовується для відображення результатів аналізу основних компонентів (та відповідних методик). Це подвійне або накладення розсіювання показуючи компонентів навантаження і компонентів оцінки одночасно. Сьогодні мене повідомив @amoeba, що він дав відповідь, відходячи від мого коментаря, на запитання, яке запитує про те, як виробляються / масштабуються координати біплотів; і його …

2
Теорія за частковою регресією найменших квадратів
Чи може хтось порекомендувати гарне виклад теорії за частковою регресією найменших квадратів (доступна в Інтернеті) для тих, хто розуміє SVD та PCA? Я переглянув багато джерел в Інтернеті і не знайшов нічого, що мав би правильне поєднання суворості та доступності. Я розглянув "Елементи статистичного навчання" , що було запропоновано в …

1
Зменшення розмірності (SVD або PCA) на великій розрідженій матриці
/ редагувати: подальше спостереження зараз ви можете використовувати irlba :: prcomp_irlba / редагувати: слідкувати за моєю власною публікацією. irlbaтепер є аргументи "центр" і "шкала", які дозволяють використовувати його для обчислення основних компонентів, наприклад: pc <- M %*% irlba(M, nv=5, nu=0, center=colMeans(M), right_only=TRUE)$v У мене є велика кількість розрізнених Matrixфункцій, які …

1
Як центрування впливає на значення PCA (для розпаду SVD та власних властивостей)?
Яку різницю мають центрирування (або де-значення) ваших даних для PCA? Я чув, що це полегшує математику або що перешкоджає домінуванню на першому ПК засобами змінних, але я відчуваю, що ще не зміг зрозуміти цю концепцію. Наприклад, головна відповідь тут Як центрування даних позбавляється від перехоплення в регресії та PCA? описується, …
30 r  pca  svd  eigenvalues  centering 

5
Як використовувати SVD для спільної фільтрації?
Я трохи заплутаний у тому, як SVD використовується при спільній фільтрації. Припустимо, у мене є соціальний графік, і я будую матрицю суміжності з країв, а потім беруть SVD (забудемо про регуляризацію, швидкість навчання, оптимізацію обмеженості тощо), як я можу використовувати цей SVD для вдосконалення своїх рекомендацій? Припустимо, мій соціальний графік …

1
SVD корельованої матриці має бути добавкою, але, здається, не є
Я просто намагаюся повторити заяву, викладену в наступному документі, знаходження корельованих бікластерів з даних даних про вираження генів , а саме: Пропозиція 4. Якщо . то ми маємо:ХЯJ= RЯСТJXIJ=RICJTX_{IJ}=R_{I}C^{T}_{J} i. Якщо є ідеальним бікластером з адитивною моделлю, то - це ідеальний бікластер з кореляцією по стовпцях; ii. Якщо - ідеальний …

4
Чому Ендрю Нг вважає за краще використовувати SVD, а не EIG коваріаційної матриці для PCA?
Я вивчаю PCA з курсу Coursera Ендрю Нґ та інших матеріалів. У першому завданні курсу Stanford NLP cs224n , а в лекційному відео від Ендрю Нг вони роблять сингулярне розкладання значення замість власного вектора розкладання коваріаційної матриці, і Ng навіть говорить, що SVD чисельно стабільніше, ніж ейгендекомпозиція. З мого розуміння, …

1
Яка норма помилки реконструкції мінімізована матрицею наближення низького рангу, отриманою за допомогою PCA?
З огляду на наближення PCA (або SVD) з матриці XXX з матрицею X , ми знаємо , що X є найкращим нізкоразрядним наближенням X .X^X^\hat XX^X^\hat XXXX Це відповідно до індукованої норми ∥⋅∥2∥⋅∥2\parallel \cdot \parallel_2 (тобто найбільшої норми власного значення) або відповідно до норми Frobenius ∥⋅∥F∥⋅∥F\parallel \cdot \parallel_F ?

2
Чому LDA, що вивчає Scitit Python, не працює належним чином і як він обчислює LDA за допомогою SVD?
Я використовував лінійний дискримінантний аналіз (LDA) з scikit-learnбібліотеки машинного навчання (Python) для зменшення розмірності і трохи цікавився результатами. Мені зараз цікаво, чим scikit-learnзаймається LDA , щоб результати виглядали інакше, ніж, наприклад, ручний підхід або LDA, зроблені в Р. Було б чудово, якби хтось міг дати мені тут деяку інформацію. Що …

2
Як обчислити SVD величезної розрідженої матриці?
Який найкращий спосіб обчислити сингулярне розкладання величини (SVD) дуже великої позитивної матриці (65M x 3.4M), де дані надзвичайно рідкі? Менше 0,1% матриці не дорівнює нулю. Мені потрібен спосіб, який: впишеться в пам'ять (я знаю, що існують онлайн-методи) буде обчислено у розумний час: 3,4 дня буде досить точним, проте точність не …
26 svd  numerics 

7
Тестування на лінійну залежність серед стовпців матриці
У мене є кореляційна матриця повернень безпеки, детермінант якої дорівнює нулю. (Це трохи дивно, оскільки матриця кореляції вибірки та відповідна коваріаційна матриця теоретично повинні бути певними.) Моя гіпотеза полягає в тому, що принаймні один цінний папір лінійно залежить від інших цінних паперів. Чи є в R функція, яка послідовно перевіряє …

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.