Запитання з тегом «linear-algebra»

Область математики, що займається вивченням кінцевих розмірних векторних просторів, включаючи матриці та їх маніпулювання, важливі в статистиці.

3
Чому матрична норма за замовчуванням - це спектральна норма, а не норма Фробеніуса?
Для векторної норми норма L2 або "евклідова відстань" є широко використовуваним та інтуїтивним визначенням. Але чому для матриці "найбільш використовуваним" або "стандартним" визначенням норми є спектральна норма , але не норма Фробеніуса (яка аналогічна нормі L2 для векторів)? Чи має це щось спільне з ітераційними алгоритмами / матричними потужностями (якщо …

1
Оновлення розкладання SVD після додавання одного нового рядка до матриці
Припустимо, у мене щільна матриця розміром m × n , при розкладі SVD A = U S V ⊤ . У можна обчислити СВД наступним чином : .AA \textbf{A}m×nm×nm \times nA=USV⊤.A=USV⊤.\mathbf{A}=\mathbf{USV}^\top.Rsvd(A) Якщо до A додати новий -й ряд , чи можна обчислити нове розкладання SVD на основі старого (тобто, використовуючи …

2
Чому дорівнює матриця коваріації максимум
Як зазначено в цьому питанні, максимальний ранг коваріаційної матриці дорівнює де - розмір вибірки, і тому, якщо розмірність матриці коваріації дорівнює розміру вибірки, вона буде єдиною. Я не можу зрозуміти, чому ми віднімаємо від максимального рангу коваріаційної матриці.n 1 nn−1n−1n-1nnn111nnn

1
Що означають стрілки в біколоті PCA?
Розглянемо наступний PCAP біплот: library(mvtnorm) set.seed(1) x <- rmvnorm(2000, rep(0, 6), diag(c(5, rep(1,5)))) x <- scale(x, center=T, scale=F) pc <- princomp(x) biplot(pc) Існує купа червоних стрілок, що вони означають? Я знав, що перша стрілка, позначена символом "Var1", повинна вказувати на самий різний напрямок набору даних (якщо ми вважаємо їх 2000 …
14 r  pca  linear-algebra  biplot 

1
Як NumPy вирішує найменші квадрати для недостатньо визначених систем?
Скажімо, у нас є X форми (2, 5) і y форми (2,) Це працює: np.linalg.lstsq(X, y) Ми очікуємо, що це спрацює лише в тому випадку, якщо X має форму (N, 5), де N> = 5 Але чому і як? Ми отримуємо назад 5 ваг, як очікувалося, але як вирішується ця …

1
Пакет GBM проти Caret з використанням GBM
Я налаштовував модель за допомогою caret, але потім повторно запустив модель за допомогою gbmпакета. Наскільки я розумію, що caretпакет використовує gbmі вихід повинен бути однаковим. Однак, лише швидкий тестовий пробіг із застосуванням data(iris)показує невідповідність моделі приблизно 5%, використовуючи RMSE і R ^ 2 в якості метрики оцінювання. Я хочу знайти …

2
Чи очікування те саме, що середнє?
Я займаюся ML у своєму університеті, і професор згадував термін Очікування (Е), в той час як він намагався пояснити нам деякі речі про Гауссові процеси. Але з того, як він це пояснив, я зрозумів, що E - це те саме, що і середнє μ. Я правильно зрозумів? Якщо це однаково, …

2
Поступова регресія Гаусса
Я хочу здійснити поступову регресію процесу гауса, використовуючи розсувне вікно над точками даних, які надходять по черзі через потік. Дозволяє гddпозначають розмірність вхідного простору. Отже, кожен пункт даниххixix_i має гdd кількість елементів. Дозволяє нnn бути розміром розсувного вікна. Для того, щоб робити прогнози, мені потрібно обчислити зворотну грамматрицю КKK, де …

4
Чи "випадкова проекція" строго кажучи не є проекцією?
Поточні реалізації алгоритму випадкової проекції зменшують розмірність зразків даних, відображаючи їх від RdRd\mathbb R^d до RkRk\mathbb R^k використовуючи матрицю проекцій d×kd×kd\times kRRR , записи якої є відповідним розподілом (наприклад, від N(0,1)N(0,1)\mathcal N(0,1) ): x′=1k√xRx′=1kxRx^\prime = \frac{1}{\sqrt k}xR Зручно, що існують теоретичні докази, що показують, що це відображення приблизно зберігає попарні …

1
Яке значення мають подвійні бруски та 2 внизу у звичайних найменших квадратах?
Я бачив це позначення для звичайних найменших квадратів тут . minw∥Xw−y∥22minw‖Xw−y‖22 \min_w \left\| Xw - y \right\|^2_2 Я ніколи не бачив подвійних брусків і 2 внизу. Що означають ці символи? Чи є для них конкретна термінологія?

1
Як отримати "власні значення" (відсотки поясненої дисперсії) векторів, які не є власними векторами PCA?
Мені хотілося б зрозуміти, як я можу отримати відсоток дисперсії набору даних не в просторі координат, наданому PCA, а на дещо іншому наборі (повернутих) векторів. set.seed(1234) xx <- rnorm(1000) yy <- xx * 0.5 + rnorm(1000, sd = 0.6) vecs <- cbind(xx, yy) plot(vecs, xlim = c(-4, 4), ylim = …

2
Відповідна міра для пошуку найменшої матриці коваріації
У підручнику, який я читаю, вони використовують позитивну визначеність (напівпозитивна визначеність) для порівняння двох матриць коваріації. Ідея полягає в тому , що якщо має полідисперсність , то менше , ніж A . Але я намагаюся отримати інтуїцію цих стосунків?A−BA−BA-BBBBAAA Тут є подібна нитка: /math/239166/what-is-the-intuition-for-using-definiteness-to-compare-matrices Яка інтуїція використовувати визначеність для порівняння …

1
Чому результати головної складової не співвідносяться?
Supose - це матриця середньосередніх даних. Матриця дорівнює , має чітких власних значень та власних векторів , ... , які є ортогональними.AA\mathbf AS=cov(A)S=cov(A)\mathbf S=\text{cov}(\mathbf A)m×mm×mm\times mmmms1s1\mathbf s_1s2s2\mathbf s_2smsm\mathbf s_m -м головний компонент (деякі люди називають їх «десятки») є вектор . Іншими словами, це лінійна комбінація стовпців , де коефіцієнти є …

1
R лінійна регресія, категоріальна змінна значення «приховане»
Це лише приклад, на який я зустрічався кілька разів, тому у мене немає даних про вибірку. Запуск лінійної регресійної моделі в R: a.lm = lm(Y ~ x1 + x2) x1є суцільною змінною. x2категоричний і має три значення, наприклад "Низький", "Середній" та "Високий". Однак вихід, отриманий R, був би на кшталт: …
10 r  regression  categorical-data  regression-coefficients  categorical-encoding  machine-learning  random-forest  anova  spss  r  self-study  bootstrap  monte-carlo  r  multiple-regression  partitioning  neural-networks  normalization  machine-learning  svm  kernel-trick  self-study  survival  cox-model  repeated-measures  survey  likert  correlation  variance  sampling  meta-analysis  anova  independence  sample  assumptions  bayesian  covariance  r  regression  time-series  mathematical-statistics  graphical-model  machine-learning  linear-model  kernel-trick  linear-algebra  self-study  moments  function  correlation  spss  probability  confidence-interval  sampling  mean  population  r  generalized-linear-model  prediction  offset  data-visualization  clustering  sas  cart  binning  sas  logistic  causality  regression  self-study  standard-error  r  distributions  r  regression  time-series  multiple-regression  python  chi-squared  independence  sample  clustering  data-mining  rapidminer  probability  stochastic-processes  clustering  binary-data  dimensionality-reduction  svd  correspondence-analysis  data-visualization  excel  c#  hypothesis-testing  econometrics  survey  rating  composite  regression  least-squares  mcmc  markov-process  kullback-leibler  convergence  predictive-models  r  regression  anova  confidence-interval  survival  cox-model  hazard  normal-distribution  autoregressive  mixed-model  r  mixed-model  sas  hypothesis-testing  mediation  interaction 

2
Як змінюється подібність косинусу після лінійного перетворення?
Чи є математичний зв’язок між: косинусна схожість ім'я двох векторів і , ісим( A , B )sim⁡(A,B)\operatorname{sim}(A, B)АAAБBB косинус подібності з і , неоднорідне масштабується з допомогою даної матриці ? Тут - задана діагональна матриця з нерівними елементами по діагоналі.сим( МА , МБ )sim⁡(MA,MB)\operatorname{sim}(MA, MB)АAAБBBМMMМMM Я намагався пройти обчислення, але …

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.