Рандомізована техніка сліду


10

Я зустрічав таку рандомізовану методику відстеження у М. Зеегера, "Оновлення низького рангу для розкладу Чолеського", Каліфорнійський університет в Берклі, Техн. Респ., 2007.

tr(A)=E[xTAx]

де .xN(0,I)

Як людина без глибокого передумови математики, мені цікаво, як можна досягти цієї рівності. Крім того, як ми можемо інтерпретувати , наприклад геометрично? Куди слід шукати, щоб зрозуміти сенс прийняття внутрішнього добутку вектора та його значення діапазону? Чому середнє значення дорівнює сумі власних значень? Крім теоретичної властивості, яке її практичне значення?xTAx

Я написав фрагмент коду MATLAB, щоб побачити, чи працює він

#% tr(A) == E[x'Ax], x ~ N(0,I)

N = 100000;
n = 3;
x = randn([n N]); % samples
A = magic(n); % any n by n matrix A

y = zeros(1, N);
for i = 1:N
    y(i) = x(:,i)' * A * x(:,i);
end
mean(y)
trace(A)

Слід 15, де наближення дорівнює 14,9696.

Відповіді:


12

NB Зазначений результат не залежить від будь-якого припущення про нормальність або навіть незалежність координат . Це також не залежить від того, позитивним певним. Дійсно, припустимо лише, що координати мають нульове середнє значення, дисперсію одиниці і є некорельованими (але не обов'язково незалежними); тобто , , і для всіх .A x E x i = 0 E x 2 i = 1 E x i x j = 0 i jxAxExi=0Exi2=1Exixj=0ij

Підхід голими руками

Нехай - довільна матриця . За визначенням . Тоді і так ми закінчили.n × n t r ( A ) = n i = 1 a i i t r ( A ) = n i = 1 a i i = n i = 1 a i i E x 2 i = n i = 1 a i i EA=(aij)n×ntr(A)=i=1naii

tr(A)=i=1naii=i=1naiiExi2=i=1naiiExi2+ijaijExixj,

Якщо це не зовсім очевидно, зауважте, що права частина за лінійністю очікування є

i=1naiiExi2+ijaijExixj=E(i=1nj=1naijxixj)=E(xTAx)

Доведення через властивості сліду

Є ще один спосіб написати це, що є сугестивним, але концептуально спирається на трохи більш досконалі інструменти. Нам потрібно, щоб і очікування, і оператор трасування були лінійними, і що для будь-яких двох матриць і відповідних розмірів, . Тоді, оскільки , маємо і так, B t r ( A B ) = t r ( B A ) x T A x = t r ( x T A x ) E ( x T A x ) = E ( t r ( x T A x ) ) = E ( t r ( A x x T ) ) = tABtr(AB)=tr(BA)xTAx=tr(xTAx)E ( x T A x ) = t r ( A I ) = t r ( A ) .

E(xTAx)=E(tr(xTAx))=E(tr(AxxT))=tr(E(AxxT))=tr(AExxT),
E(xTAx)=tr(AI)=tr(A).

Квадратні форми, внутрішні вироби та еліпсоїди

Якщо позитивно визначено, то внутрішній добуток на можна визначити через і визначає еліпсоїд у центром на початок.ARnx,yA=xTAyEA={x:xTAx=1}Rn


Досить заплутано слідкувати за жирними та mormalcase змінними. Я думаю, що вони є скалярними значеннями. Я чіткіше розумію, коли я починаю з форми очікування, як ви робили в останній частині. Тож для мене зараз дуже зрозумілий. xixi
E[(xTAx)]=E[(i=1nj=1naijxixj)]=i=1naiiE[xi2]+ijaijE[xixj]
петричор

xi - - координата вектора . Інші - просто помилки. Вибач за те. Я намагався дотримуватися вашої нотації якомога ближче. Я зазвичай використовую з як координати випадкової змінної . Але я не хотів (потенційно) плутати. ixX=(Xi)XiX
кардинал

Насправді, це відповідає у відповіді. Я просто хотів переконатися, що підписані змінні є елементами вектора. Тепер це зрозуміло.
petrichor

Ну, це послідовно (зараз), тому що я це редагував! :) Дякую за вказівку на друкарські помилки. Я спробую додати трохи більше про геометрію в якийсь момент протягом наступних двох днів.
кардинал

3

Якщо - симетричний позитивний певний, то з ортонормальним, а діагоналі зі власними значеннями по діагоналі. Оскільки має матрицю коваріації ідентичності, а - ортонормальну, також має матрицю коваріації ідентичності. Отже, записуючи , маємо . Оскільки оператор очікування лінійний, це просто . Кожен є chi-квадратом з 1 ступенем свободи, тому очікується значення 1. Отже, очікування є сумою власних значень.AA=UtDUUDxUUxy=UxE[xTAx]=E[ytDy]i=0nλiE[yi2]yi

Геометрично симетричні позитивні визначені матриці знаходяться у 1-1 відповідності еліпсоїдам - ​​задані рівнянням . Довжини осей еліпсоїда задаються через де - власні значення.x T A x = 1 1 / AxTAx=1λi1/λiλi

Коли де - матриця коваріації, це квадрат відстані махаланобіса . СA=C1C


1

Дозвольте мені розібратися в частині, що є його практичним значенням. Є багато ситуацій , в яких ми маємо можливість обчислювати матрицю векторних творів ефективно , навіть якщо ми не будемо мати збережену копію матриці або не мають достатньо місця , щоб зберегти копію . Наприклад, може мати розмір 100 000 на 100 000 і повністю щільний - для зберігання такої матриці у форматі з плаваючою точкою з подвійною точністю потрібно 80 гігабайт оперативної пам’яті. A AAxAAA

Рандомізовані алгоритми , як це може бути використано для оцінки слідів або (використовуючи пов'язаний алгоритм) індивідуальні діагональні елементи . AAA

Деякі сфери застосування цієї методики для широкомасштабних проблем геофізичної інверсії обговорюються в

Дж. К. Маккарті, Б. Борчер і Р. Астер. Ефективне стохастичне оцінювання діагоналі матриці роздільної здатності моделі та узагальнена перехресна валідація для великих геофізичних обернених задач. Журнал геофізичних досліджень, 116, B10304, 2011. Посилання на статтю


+1 Я зустрічався з рандомізованими алгоритмами в цьому семестрі і захоплювався ними. Дозвольте додати ще одну приємну статтю. Натан Halko, Пер-Гуннар Martinsson, Joel А. Тропп, «Знаходження структури з випадковістю: імовірнісні алгоритми для побудови наближених матричних розбиття», 2010, arxiv.org/abs/0909.4061
Petrichor
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.