Які середня величина та дисперсія 0-цензурованої багатоваріантної норми?


9

Дозволяє ZN(μ,Σ) бути в Rd. Назвіть середню та коваріаційну матрицюZ+=max(0,Z) (з максимально обчисленими елементами)?

Це виникає, наприклад, тому, що якщо ми використовуємо функцію активації ReLU всередині глибокої мережі, і припустимо через CLT, що входи до даного шару приблизно нормальні, то це розподіл виходів.

(Я впевнений, що багато хто раніше це обчислював, але я не міг знайти результат, перерахований ніде, на досить читабельному шляху.)


Це спростило б вашу відповідь - можливо, значною мірою - зауваживши, що ви можете її отримати, поєднуючи результати двох окремих питань: (1) які моменти усіченого нормального розподілу та (2) які моменти суміші ? Останнє просте, і все, що вам потрібно зробити, це навести результати для першого.
whuber

@whuber Хм. Хоча я не сказав це прямо, це, по суті, те, що я роблю у своїй відповіді, за винятком того, що я не знайшов результатів для усіченого біваріантного розподілу із загальним середнім значенням та дисперсією, і тому мені довелося зробити якесь масштабування та зміщення. Чи є якийсь спосіб отримати, наприклад, коваріацію, не виконуючи кількість алгебри, яку я повинен був зробити? Я, звичайно, не стверджую, що щось у цій відповіді нове, лише те, що алгебра була нудною та схильною до помилок, і, можливо, хтось інший знайде рішення корисним.
Дугал

Правильно: я впевнений, що ваша алгебра рівнозначна тому, що я описав, тому, схоже, ми розуміємо, що спрощення алгебри можливо. Один простий спосіб зменшити алгебру - це стандартизація діагональних елементів до єдності, тому що все, що потрібно зробити - це встановити одиницю вимірювання для кожної змінної. У цей момент ви можете безпосередньо підключити результати Розенбаума до (простих, очевидних) виразів для моментів сумішей. Чи це навіть варто алгебраїчного спрощення, може бути справою смаку: без спрощення це призводить до простої модульної комп'ютерної програми. Σ
whuber

1
Я припускаю, що можна написати програму, яка обчислює моменти безпосередньо з результатами Розенбаума і відповідним чином змішується, а потім зміщує їх і повертає їх у вихідний простір. Це, мабуть, було б швидше, ніж те, як я це зробив.
Дугал

Відповіді:


7

Спочатку ми можемо зменшити це, щоб залежати лише від певних моментів одновимірного / двовимірного усіченого нормального розподілу: зауважте, що

E[Z+]=[E[(Zi)+]]iCov(Z+)=[Cov((Zi)+,(Zj)+)]ij,
і тому, що ми робимо координатні перетворення певних розмірів нормального розподілу, ми лише потрібно турбуватися про середнє значення та дисперсію 1-ї цензурованої нормалі та коваріації двох 1-го цензурованих нормалей.

Ми використаємо деякі результати від

S Розенбаум (1961). Моменти усіченого двовимірного нормального розподілу . JRSS B, том 23 стор 405-408. ( jstor )

Розенбаум вважає і вважає усічення до події .

[X~Y~]N([00],[1ρρ1]),
V={X~aX,Y~aY}

Зокрема, ми використаємо наступні три результати: його (1), (3) та (5). Спочатку визначте наступне:

qx=ϕ(ax)qy=ϕ(ay)Qx=Φ(ax)Qy=Φ(ay)Rxy=Φ(ρaxay1ρ2)Ryx=Φ(ρayax1ρ2)rxy=1ρ22πϕ(h22ρhk+k21ρ2)

Тепер Розенбаум показує, що:

(1)Pr(V)E[X~V]=qxRxy+ρqyRyx(3)Pr(V)E[X~2V]=Pr(V)+axqxRxy+ρ2ayqyRyx+ρrxy(5)Pr(V)E[X~Y~V]=ρPr(V)+ρaxqxRxy+ρayqyRyx+rxy.

Буде корисно також розглянути особливий випадок (1) та (3) з , тобто 1d усічення: ay=

(*)Pr(V)E[X~V]=qx(**)Pr(V)E[X~2V]=Pr(V)=Qx.

Тепер ми хочемо розглянути

[XY]=[μxμy]+[σx00σy][X~Y~]N([μXμY],[σx2ρσxσyρσxσyσy2])=N(μ,Σ).

Ми будемо використовувати які є значеннями і коли , .

ax=μxσxay=μyσy,
X~Y~X=0Y=0

Тепер, використовуючи (*), отримуємо та використання обох (*) та (**) виходів так, що

E[X+]=Pr(X+>0)E[XX>0]+Pr(X+=0)0=Pr(X>0)(μx+σxE[X~X~ax])=Qxμx+qxσx,
E[X+2]=Pr(X+>0)E[X2X>0]+Pr(X+=0)0=Pr(X~ax)E[(μx+σxX~)2X~ax]=Pr(X~ax)E[μx2+μxσxX~+σx2X~2X~ax]=Qxμx2+qxμxσx+Qxσx2
Var[X+]=E[X+2]E[X+]2=Qxμx2+qxμxσx+Qxσx2Qx2μx2qx2σx22qxQxμxσx=Qx(1Qx)μx2+(12Qx)qxμxσx+(Qxqx2)σx2.

Щоб знайти , нам знадобиться Cov(X+,Y+)

E[X+Y+]=Pr(V)E[XYV]+Pr(¬V)0=Pr(V)E[(μx+σxX~)(μy+σyY~)V]=μxμyPr(V)+μyσxPr(V)E[X~V]+μxσyPr(V)E[Y~V]+σxσyPr(V)E[X~Y~V]=μxμyPr(V)+μyσx(qxRxy+ρqyRyx)+μxσy(ρqxRxy+qyRyx)+σxσy(ρPr(V)ρμxqxRxy/σxρμyqyRyx/σy+rxy)=(μxμy+σxσyρ)Pr(V)+(μyσx+μxσyρρμxσy)qxRxy+(μyσxρ+μxσyρμyσx)qyRyx+σxσyrxy=(μxμy+Σxy)Pr(V)+μyσxqxRxy+μxσyqyRyx+σxσyrxy,
а потім віднімаючи отримуємо E[X+]E[Y+]
Cov(X+,Y+)=(μxμy+Σxy)Pr(V)+μyσxqxRxy+μxσyqyRyx+σxσyrxy(Qxμx+qxσx)(Qyμy+qyσy).

Ось декілька код Python для обчислення моментів:

import numpy as np
from scipy import stats

def relu_mvn_mean_cov(mu, Sigma):
    mu = np.asarray(mu, dtype=float)
    Sigma = np.asarray(Sigma, dtype=float)
    d, = mu.shape
    assert Sigma.shape == (d, d)

    x = (slice(None), np.newaxis)
    y = (np.newaxis, slice(None))

    sigma2s = np.diagonal(Sigma)
    sigmas = np.sqrt(sigma2s)
    rhos = Sigma / sigmas[x] / sigmas[y]

    prob = np.empty((d, d))  # prob[i, j] = Pr(X_i > 0, X_j > 0)
    zero = np.zeros(d)
    for i in range(d):
        prob[i, i] = np.nan
        for j in range(i + 1, d):
            # Pr(X > 0) = Pr(-X < 0); X ~ N(mu, S) => -X ~ N(-mu, S)
            s = [i, j]
            prob[i, j] = prob[j, i] = stats.multivariate_normal.cdf(
                zero[s], mean=-mu[s], cov=Sigma[np.ix_(s, s)])

    mu_sigs = mu / sigmas

    Q = stats.norm.cdf(mu_sigs)
    q = stats.norm.pdf(mu_sigs)
    mean = Q * mu + q * sigmas

    # rho_cs is sqrt(1 - rhos**2); but don't calculate diagonal, because
    # it'll just be zero and we're dividing by it (but not using result)
    # use inf instead of nan; stats.norm.cdf doesn't like nan inputs
    rho_cs = 1 - rhos**2
    np.fill_diagonal(rho_cs, np.inf)
    np.sqrt(rho_cs, out=rho_cs)

    R = stats.norm.cdf((mu_sigs[y] - rhos * mu_sigs[x]) / rho_cs)

    mu_sigs_sq = mu_sigs ** 2
    r_num = mu_sigs_sq[x] + mu_sigs_sq[y] - 2 * rhos * mu_sigs[x] * mu_sigs[y]
    np.fill_diagonal(r_num, 1)  # don't want slightly negative numerator here
    r = rho_cs / np.sqrt(2 * np.pi) * stats.norm.pdf(np.sqrt(r_num) / rho_cs)

    bit = mu[y] * sigmas[x] * q[x] * R
    cov = (
        (mu[x] * mu[y] + Sigma) * prob
        + bit + bit.T
        + sigmas[x] * sigmas[y] * r
        - mean[x] * mean[y])

    cov[range(d), range(d)] = (
        Q * (1 - Q) * mu**2 + (1 - 2 * Q) * q * mu * sigmas
        + (Q - q**2) * sigma2s)

    return mean, cov

і тест Монте-Карло, що він працює:

np.random.seed(12)
d = 4
mu = np.random.randn(d)
L = np.random.randn(d, d)
Sigma = L.T.dot(L)
dist = stats.multivariate_normal(mu, Sigma)

mn, cov = relu_mvn_mean_cov(mu, Sigma)

samps = dist.rvs(10**7)
mn_est = samps.mean(axis=0)
cov_est = np.cov(samps, rowvar=False)
print(np.max(np.abs(mn - mn_est)), np.max(np.abs(cov - cov_est)))

що дає 0.000572145310512 0.00298692620286, що вказує на те, що заявлені очікування та коваріація відповідають оцінкам Монте-Карло (на основі проб).10,000,000


чи можете ви підсумувати, що таке кінцеві значення? Чи є вони оцінками параметрів mu та L, які ви генерували? Можливо, надрукуйте ці цільові значення?
AdamO

Ні, значення повернення - і ; Що я надрукував, це відстань між оцінками Монте-Карло цих величин та обчисленою величиною. Ви можете, можливо, інвертувати ці вирази, щоб отримати оцінку відповідності моменту для та - Розенбаум насправді робить це у своєму розділі 3 у врізаному випадку - але це не те, що я хотів тут. \E(Z+)\Cov(Z+)LμΣ
Дугал
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.