Запитання з тегом «eigenvalues»

З питань, що стосуються обчислення чи тлумачення власних значень чи власних векторів.

28
Ознайомлення з аналізом основних компонентів, власних векторів та власних значень
У сьогоднішньому класі розпізнавання шаблонів мій професор розповів про PCA, власні вектори та власні значення. Я зрозумів математику цього. Якщо мене попросять знайти власні значення тощо. Я зроблю це правильно, як машина. Але я цього не зрозумів . Я не зрозумів цього. Я не відчував цього. Я дуже вірю в …

3
Чому кореляційна матриця повинна бути позитивною напіввизначеною і що це означає бути чи не бути позитивною напіввизначеною?
Я досліджував значення позитивної напіввизначеної властивості кореляційних або коваріаційних матриць. Я шукаю будь-яку інформацію про Визначення позитивної напіввизначеності; Його важливі властивості, практичні наслідки; Наслідок негативного детермінанта, впливу на результати багатоваріантного аналізу чи моделювання тощо.

1
Якщо я генерую випадкову симетричну матрицю, то який шанс це визначено позитивно?
У мене виникло дивне запитання, коли я експериментував з деякими опуклими оптимізаціями. Питання: Припустимо, я випадковим чином (скажімо, звичайний нормальний розподіл) генерує симетричну матрицю (наприклад, я генерую верхню трикутну матрицю і заповнюю нижню половину, щоб переконатися, що вона симетрична), який шанс це є позитивним матриця? Чи є можливість обчислити ймовірність?N×NN×NN …

1
Як центрування впливає на значення PCA (для розпаду SVD та власних властивостей)?
Яку різницю мають центрирування (або де-значення) ваших даних для PCA? Я чув, що це полегшує математику або що перешкоджає домінуванню на першому ПК засобами змінних, але я відчуваю, що ще не зміг зрозуміти цю концепцію. Наприклад, головна відповідь тут Як центрування даних позбавляється від перехоплення в регресії та PCA? описується, …
30 r  pca  svd  eigenvalues  centering 

4
Чому Ендрю Нг вважає за краще використовувати SVD, а не EIG коваріаційної матриці для PCA?
Я вивчаю PCA з курсу Coursera Ендрю Нґ та інших матеріалів. У першому завданні курсу Stanford NLP cs224n , а в лекційному відео від Ендрю Нг вони роблять сингулярне розкладання значення замість власного вектора розкладання коваріаційної матриці, і Ng навіть говорить, що SVD чисельно стабільніше, ніж ейгендекомпозиція. З мого розуміння, …

1
Чому існують лише основних компонентів для даних, якщо кількість вимірів ?
У PCA, коли кількість розмірів більша (або навіть дорівнює) кількості зразків , чому саме у вас буде не більше власних векторів ? Іншими словами, ранг коваріаційної матриці серед розмірів - .dddNNNN−1N−1N-1d≥Nd≥Nd\ge NN−1N−1N-1 Приклад: ваші зразки - це векторизовані зображення розміром , але у вас лише зображень.d=640×480=307200d=640×480=307200d = 640\times480 = 307\,200N=10N=10N=10

1
У чому значення власних векторів взаємної інформаційної матриці?
Дивлячись на власні вектори матриці коваріації, ми отримуємо напрями максимальної дисперсії (перший власний вектор - це напрямок, у якому дані найбільше змінюються тощо); це називається основним компонентним аналізом (PCA). Мені було цікаво, що значить би дивитись на власні вектори / значення матриці взаємної інформації, чи вказували б вони у напрямку …

1
Поясніть, як `eigen` допомагає інвертувати матрицю
Моє запитання стосується техніки обчислень, що експлуатується в geoR:::.negloglik.GRFабо geoR:::solve.geoR. У налаштуваннях лінійної змішаної моделі: де і - фіксовані та випадкові ефекти відповідно. Такожβ b Σ = cov ( Y )Y= Xβ+ Zb + eY=Xβ+Zb+e Y=X\beta+Zb+e ββ\betaбbbΣ = cov ( Y)Σ=cov(Y)\Sigma=\text{cov}(Y) Оцінюючи ефекти, виникає потреба в обчисленні що зазвичай можна …

1
Чому власні та svd декомпозиції матриці коваріації на основі розріджених даних дають різні результати?
Я намагаюся розкласти коваріаційну матрицю, засновану на наборі даних з обмеженою / гаптованою формою. Я зауважую, що сума лямбда (пояснена дисперсія), розрахована з svd, посилюється все більш неохайними даними. Без прогалин, svdі eigenотримуйте однакові результати. Здається, це не відбувається при eigenрозкладанні. Я схилявся до використання, svdоскільки значення лямбда завжди позитивні, …
12 r  svd  eigenvalues 

3
Чи визначена кожна кореляційна матриця позитивною?
Я говорю тут про матриці кореляцій Пірсона. Я часто чув, як це говорило, що всі кореляційні матриці повинні бути позитивними напівмісячними. Я розумію, що позитивні певні матриці повинні мати власні значення , тоді як позитивні напівфінітні матриці повинні мати власні значення ≥ 0 . Це змушує мене думати, що моє …

2
Чому PCA максимізує загальну дисперсію проекції?
Крістофер Бішоп пише у своїй книзі Розпізнавання візерунків та машинне навчання доказом того, що кожен послідовний головний компонент максимізує дисперсію проекції до одного виміру після того, як дані проектуються в ортогональний простір до вибраних раніше компонентів. Інші демонструють подібні докази. Однак це лише доводить, що кожна послідовна складова є найкращою …

1
Плутати у візуальному поясненні власних векторів: як візуально різні набори даних мають однакові власні вектори?
Багато підручників зі статистикою дають інтуїтивну ілюстрацію того, що являють собою власні вектори матриці коваріації: Вектори u і z утворюють власні вектори (ну, ейенакси). Це має сенс. Але одне, що мене бентежить, - це те, що ми отримуємо власні вектори з кореляційної матриці, а не з необроблених даних. Крім того, …

1
У статті згадується «моделювання Монте-Карло для визначення кількості основних компонентів»; як це працює?
Я роблю аналіз Matlab на даних МРТ, де я провів PCA на матриці розміром 10304x236, де 10304 - кількість вокселів (вважайте їх пікселями), а 236 - кількість часових точок. PCA дає мені 236 власних значень та пов'язаних з ними коефіцієнтів. Це все добре. Однак, коли настав час вирішити, скільки компонентів …

2
Чому я не можу отримати дійсний SVD X через розкладання власних значень XX 'та X'X?
Я намагаюся зробити SVD вручну: m<-matrix(c(1,0,1,2,1,1,1,0,0),byrow=TRUE,nrow=3) U=eigen(m%*%t(m))$vector V=eigen(t(m)%*%m)$vector D=sqrt(diag(eigen(m%*%t(m))$values)) U1=svd(m)$u V1=svd(m)$v D1=diag(svd(m)$d) U1%*%D1%*%t(V1) U%*%D%*%t(V) Але останній рядок не повертається mназад. Чому? Здається, це має щось спільне з ознаками цих власних векторів ... Або я неправильно зрозумів процедуру?
9 r  svd  eigenvalues 

2
Чому кількість дисперсії, поясненої моїм 1-м ПК, настільки близька до середнього парного співвідношення?
Який взаємозв'язок між першою основною складовою (частинами) та середньою кореляцією у кореляційній матриці? Наприклад, в емпіричному застосуванні я зауважую, що середнє співвідношення майже таке ж, як відношення дисперсії першого головного компонента (першого власного значення) до загальної дисперсії (сума всіх власних значень). Чи є математичний зв’язок? Нижче наведено графік емпіричних результатів. …

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.