Запитання з тегом «geometry»

Для питань на теми, що стосуються геометрії. Для суто математичних питань щодо геометрії краще задати питання з математики SE https://math.stackexchange.com/

4
Як уявити, що робить канонічний кореляційний аналіз (порівняно з тим, що робить аналіз основних компонентів)?
Канонічний кореляційний аналіз (CCA) - це техніка, що стосується аналізу основних компонентів (PCA). Хоча легко навчити PCA або лінійну регресію за допомогою діаграми розкидання (див. Кілька тисяч прикладів пошуку зображень google), я не бачив подібного інтуїтивного двовимірного прикладу для CCA. Як наочно пояснити, що робить лінійна CCA?

3
Ефект придушення в регресії: визначення та візуальне пояснення / змалювання
Що таке змінна супресора при множинній регресії та які можуть бути способи візуального відображення ефекту придушення (його механіки чи свідчення результатів)? Я хотів би запросити всіх, хто має думки, поділитися.

2
Як факторний аналіз пояснює коваріацію, тоді як PCA пояснює дисперсію?
Ось цитата з книги Бішопа "Розпізнавання образів та машинне навчання", розділ 12.2.4 "Факторний аналіз": У відповідності з виділеної частини, факторний аналіз фіксує ковариации між змінними в матриці WWW . Цікаво, ЯК ? Ось як я це розумію. Скажімо, xxx - спостережувана ppp -вимірна величина, WWW - матриця завантаження факторів, а …

2
Геометрична інтерпретація пенізованої лінійної регресії
Я знаю, що лінійну регресію можна розглядати як "лінію, вертикально найближчу до всіх точок" : Але є й інший спосіб побачити це, візуалізуючи простір стовпців, як "проекцію на простір, що охоплюється стовпцями коефіцієнта матриці" : Моє запитання: у цих двох інтерпретаціях, що відбувається, коли ми використовуємо пенізовану лінійну регресію, як …

1
Геометрична інтерпретація коефіцієнта множинної кореляції
Мене цікавить геометричне значення множинної кореляції RRR та коефіцієнт визначення R2R2R^2 в регресії yi=β1+β2x2,i+⋯+βkxk,i+ϵiyi=β1+β2x2,i+⋯+βkxk,i+ϵiy_i = \beta_1 + \beta_2 x_{2,i} + \dots + \beta_k x_{k,i} + \epsilon_i , або у векторних позначеннях , y=Xβ+ϵy=Xβ+ϵ\mathbf{y} = \mathbf{X \beta} + \mathbf{\epsilon} Тут проектна матриця XX\mathbf{X} має nnn рядків і kkk стовпців, з яких …

1
Геометричне розуміння PCA у предметному (подвійному) просторі
Я намагаюся зрозуміти, як працює аналіз основних компонентів (PCA) у предметному (подвійному) просторі . Розглянемо 2D набір даних з двома змінними, x1x1x_1 і , і точок даних (матриця даних дорівнює та передбачається центром). Звичайна презентація PCA полягає в тому, що ми розглядаємо точок у , записуємо матрицю коваріації та знаходимо …

1
Геометрична інтерпретація узагальненої лінійної моделі
Для лінійної моделі , ми можемо мати хорошу геометричну інтерпретацію розрахункової моделі з допомогою МНК: у = х & beta ; + е . У є проекцією у на простір , натягнуте на х і залишкової е перпендикулярна це простір , натягнуте на х.у= x β+ еy=xβ+ey=x\beta+eу^= x β^+ е^y^=xβ^+e^\hat{y}=x\hat{\beta}+\hat{e}у^y^\hat{y}е^e^\hat{e} …

5
Як пов'язаний куртоз розподілу з геометрією функції щільності?
Куртоз полягає в вимірюванні піку і плоскості розподілу. Функція щільності розподілу, якщо вона існує, може розглядатися як крива, і має геометричні особливості (наприклад, кривизна, опуклість, ...), пов'язані з її формою. Тож мені цікаво, чи пов'язаний куртоз розподілу з якимись геометричними особливостями функції густини, які можуть пояснити геометричне значення куртозу?

1
Геометрична інтерпретація оцінки максимальної ймовірності
Я читав книгу "Проблема ідентифікації в економетрії " Франкліна М. Фішера, і мене бентежила частина, що він демонструє ідентифікацію шляхом візуалізації функції ймовірності. Проблему можна спростити як: Для регресії , де u ∼ i . i . д . N ( 0 , σ 2 I ) , a і …

1
Уточнення в геометрії інформації
Це питання стосується статті " Диференціальна геометрія криволінійних експоненціальних сімей-кривизни та втрати інформації " Амарі. Текст йде так. Нехай - n -вимірне множина розподілів ймовірностей з системою координат θ = ( θ 1 , … , θ n ) , де p θ ( x ) > 0Sн= { рθ}Sn={pθ}S^n=\{p_{\theta}\}нnnθ …

2
Відповідна міра для пошуку найменшої матриці коваріації
У підручнику, який я читаю, вони використовують позитивну визначеність (напівпозитивна визначеність) для порівняння двох матриць коваріації. Ідея полягає в тому , що якщо має полідисперсність , то менше , ніж A . Але я намагаюся отримати інтуїцію цих стосунків?A−BA−BA-BBBBAAA Тут є подібна нитка: /math/239166/what-is-the-intuition-for-using-definiteness-to-compare-matrices Яка інтуїція використовувати визначеність для порівняння …

1
Простір даних, змінний простір, простір спостереження, простір моделі (наприклад, в лінійній регресії)
Припустимо, маємо матрицю даних , яка -by- , і вектор мітки , який -by-one. Тут кожен рядок матриці є спостереженням, і кожен стовпець відповідає розмірності / змінній. (припустимо )ХX\mathbf{X}нnnpppYYYнnnn > pn>pn>p Тоді що data space, variable space, observation space, model spaceзначить? Чи простір, що охоплюється вектором стовпців, є (виродженим) -D …

3
Чому теорема Байєса працює графічно?
З математичної точки зору теорема Байєса має для мене ідеальний сенс (тобто виведення та доведення), але те, що я не знаю, є чи немає приємного геометричного чи графічного аргументу, який може бути показаний для пояснення теореми Байєса. Я спробував Гуглінг навколо, щоб відповісти на це, і на диво, я не …
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.