Функції незалежних випадкових змінних


25

Чи твердження про те, що функції незалежних випадкових змінних самі по собі є незалежними, є правдивим?

Я бачив, що результат часто неявно використовується в деяких доказах, наприклад, у доведенні незалежності між середньою вибіркою та дисперсією вибірки від нормального розподілу, але мені не вдалося знайти виправдання для цього. Здається, деякі автори сприймають це як дане, але я не впевнений, що це завжди так.

Відповіді:


33

Найбільш загальне і абстрактне визначення незалежності робить це твердження тривіально при подачі важливе підготовче умова: що дві випадкові величини є незалежними засобами сигма-алгебри вони генерують незалежні. Оскільки сигма-алгебра, породжена вимірюваною функцією сигма-алгебри, є суб-алгеброю, то для будь-яких вимірюваних функцій цих випадкових змінних є незалежні алгебри, від чого ці функції є незалежними.

(Коли функція не піддається вимірюванню, вона зазвичай не створює нову випадкову змінну, тому поняття незалежної навіть не застосовується.)


Давайте розгортаємо визначення, щоб побачити, наскільки це просто. Нагадаємо, що випадкова величина - це реально оцінена функція, визначена на "просторі вибірки" Ω (набір результатів, що вивчаються з імовірністю).XΩ

  1. Випадкова величина вивчається за допомогою ймовірностей того, що її значення лежить у різних інтервалах дійсних чисел (або, загалом, множини, побудовані простими способами з інтервалів: це вимірювані Борелем множини дійсних чисел).X

  2. У відповідності з будь-яким Борель вимірного безлічі є подія X * ( I ) , що складається з усіх результатів зі , для яких X ( omega ; ) лежить в I .I X(I)ωX(ω)I

  3. Сигма-алгебра, породжена , визначається колекцією всіх таких подій.X

  4. Наївне визначення говорить, що дві випадкові величини і Y є незалежними, "коли їхні ймовірності множиться". Тобто, коли я - одна вимірювана множина Бореля, а J - іншаXYIJ

    Pr(X(ω)I and Y(ω)J)=Pr(X(ω)I)Pr(Y(ω)J).

  5. Але мовою подій (і сигма-алгебр) це те саме, що

    Pr(ωX(I) and ωY(J))=Pr(ωX(I))Pr(ωY(J)).

Розглянемо тепер дві функції і припустимо, що f X і g Y - випадкові величини. (Коло є функціональним складом: ( f X ) ( ω ) = f ( X ( ω ) ) . Це те, що для f означає "функція випадкової величини". Зауважте - це просто елементарно теорія множин - теf,g:RRfXgY(fX)(ω)=f(X(ω))f

(fX)(I)=X(f(I)).

Іншими словами, кожна подія, породжена (що знаходиться зліва), автоматично подія, породжена XfXX (як показано у формі правої частини). Тому (5) автоматично виконується для і g Y : нічого перевірити!fXgY


Примітка. Ви можете скрізь замінювати "реальні значення" на "значеннями в ", не потребуючи нічого іншого змінювати будь-яким матеріальним способом. Це охоплює випадок векторних значення випадкових величин.Rd


1
Алгебри сигми - це вдосконалений (випускний) рівень.
Аксакал

3
@Aksakal Це залежить від того, в яку школу ви ходите чи які книги ви читаєте. (Я успішно викладав цей матеріал на рівні другого курсу на бакалавраті. Існують також чудово доступні розповіді про цю теорію на рівні бакалаврату, такі як тексти Стівена Шрева про стохастичне числення, які адресовані студентам лише з обчисленням.) Але наскільки це актуально? Будь-яке обґрунтування - навіть складне - має віддавати перевагу невиправданому твердженню.
whuber

1
Ви дуже доброзичливі, щоб піти на всю цю проблему, щоб допомогти тому, хто задав питання. Знову дякую. І ви маєте рацію, дефініції не надто грізні.
JohnK

13

Розглянемо це "менш розвинене" доказ:

X:ΩXRn,Y:ΩYRm,f:RnRk,g:RmRpX,Yf,g

P{f(X)x and g(Y)y}=P({f(X)x}{g(Y)y})=P({X{wRn:f(w)x}}{Y{wRm:g(w)y}}).
XY
P({X{wRn:f(w)x}}{Y{wRm:g(w)y}})==P{X{wRn:f(w)x}P{Y{wRm:g(w)y}}=P{f(X)x}P{g(Y)y}.

{f(X)x}{wΩX:f(X(w))x}={X{wRn:f(w)x}},
so properties that are valid for X are extended to f(X) and the same happens for Y.

2
+1. Thank you for this contribution, which so clearly focuses on the essential idea. Welcome to our site!
whuber

7

Yes, g(X) and h(Y) are independent for any functions g and h so long as X and Y are independent. It's a very well known results, which is studied in probability theory courses. I'm sure you can find it in any standard text like Billingsley's.


Thanks, I am currently studying Hogg & Craig and MGB. Billingsley is the next logical step.
JohnK

3
Billinglsey's a torture unless you're mathematician and already studied measures. Partarathy's intro is much easier 2-in-1 book, Alan Karr's Probability text is also easy read.
Aksakal

Another easier text than Billingsley's: probability.ca/jeff/grprobbook.html
Adrian

0

Not as an alternative, but as an addition to the previous brilliant answers, note that this result is in fact very intuitive.

Usually, we think that X and Y being independent means that knowing the value of X gives no information about the value of Y and vice versa. This interpretation obviously implies that you can't somehow "squeeze" an information out by applying a function (or by any other means actually).

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.