Довести / спростувати


10

Довести / спростуватиЕ [ 1 А | F t ] = 0 або 1 а.с. E [ 1 A | F s ] = E [ 1 A | F t ] як     E[1A|Ft]=0 or 1 a.s. E[1A|Fs]=E[1A|Ft] a.s.


З урахуванням відфільтрованого простору ймовірностей , нехай .( Ω , F , { F n } n N , P ) (Ω,F,{Fn}nN,P)A FAF

Припустимо, Звідси випливає, що E [1_A | \ mathscr {F_ {s}}] = E [1_A | \ mathscr {F_t}] \ \ text {as} \ \ forall s> t \? А як щодо \ forall s <t ?t N s.t. E [ 1 | F t ] = 1 а.с.    

tN s.t. E[1A|Ft]=1 a.s.
E [ 1 | F s ] = E [ 1 A | F t ] як s >   t ?  
E[1A|Fs]=E[1A|Ft] a.s. s>t ?
s < ts<t

Що робити, якщо натомість t N s.t. E [ 1 |  F t ]=0а.с. ?  

tN s.t. E[1A|Ft]=0 a.s. ?
Або що робити, якщо E [ 1 | F t ] = p a.s. для деякого p ( 0 , 1 ) ?    
E[1A|Ft]=p a.s. for some p(0,1) ?

Що я спробував:


Якщо E [ 1 | F t ] = 1E[1A|Ft]=1 , то E [ 1 A ] = 1E[1A]=1 , що те саме, що 1 А = 11A=1 (майже напевно). У цьому випадку E [ 1 | F s ] = 1E[1A|Fs]=1 (майже напевно) для кожного сs .

Аналогічно, якщо E [ 1 | F t ] = 0E[1A|Ft]=0 , то E [ 1 A ] = 0E[1A]=0 , що те саме, що 1 А = 01A=0 (майже напевно). У цьому випадку E [ 1 | F s ] = 0E[1A|Fs]=0 (майже напевно) для кожного сs .

Якщо E [ 1 | F t ] = pE[1A|Ft]=p , для постійної p ( 0 , 1 )p(0,1) , то маємо

E [ 1 | F s ] = E [ E [ 1 A | F t ] |F s ]=E[p |F s ]=pE[1A|Fs]=E[E[1A|Ft]|Fs]=E[p|Fs]=p . Це може вийти з ладу, якщо s > ts>t .

Альтернативно для випадку = р=p

Нехай ЖF - обмежена Ж тFt -вимірювана випадкова величина.

E [ 1 AF ] = E [ E [ 1 AF | F t ] ] = E [ F E [ 1 A | F t ] ]

Е [ 1АF] = Е [ Е[ 1АF| Жт]]=E[FE[1A|Ft]]

= E [ p F ] = p E [ F ] = E [ 1 A ] E [ F ]

=E[pF]=pE[F]=E[1A]E[F]

що означає, що і незалежні. Іншими словами, і є незалежними. Тож і також незалежні, якщо і, отже, . Це може вийти з ладу, якщо .1 A F σ ( A ) F t σ ( A ) F s s < t E [ 1 A | F s ] = E1AFσ(A)Ftσ(A)Fss<t [ 1 A ] = p s >E[1A|Fs]=E[1A]=p ts>t

Я припускаю , що ідея полягає в тому, що константа одночасно залежить від і -ізмерімойF s F sFsFs .

Відповіді:


5

Здається, ваш аргумент справедливий, але ви починаєте, припускаючи, що . Однак у питанні зазначено, що , що я вважаю, що випадкова величина приймає значення у множині тобто де . Визначальним властивістю цього умовного очікування є те, що для всіх . Зокрема, прийняття призводить до , з чого можна зробити висновок, щоЕ [ 1 А | F t ] = 1 E [ 1 A | F t ] { 0 , 1 } E [ 1 A | F t ] { 0 , 1 } E [ 1 A | F t ] = 1 B B F tF 1 B d P = FE[1A|Ft]=1E[1A|Ft]{0,1}E[1A|Ft]{0,1}E[1A|Ft]=1BBFt 1 A d P F F t F = B P (F1BdP=F1AdPFFtF=BБ ) = P ( A B ) BP(B)=P(AB)ABA(крім можливого набору нуля ймовірності). Однак ми також знаємо (як у написаному вами аргументі), що тобто , тому єдиний можливий висновок - (за винятком можливого набору нуля ймовірності).Е [ Е [ 1 А | F t ] ] = E [ 1 B ] P ( A ) = P ( B ) A =E[E[1A|Ft]]=E[1B]P(A)=P(B) BA=B

Для , , тому закон вежі для умовних очікувань передбачає, що . Але , тому . Отже всі умовні очікування для рівні (до ). Для , якщо ми все одно матимемо . З іншого боку, якщо ми повернемося до того часу, коли не в , я не думаю, що про це нічого не можна сказатиs > t F tF s E [ 1 A | F t ] = E [ E [ 1 A | F t ] | F s ] E [ 1 A | F t ] = 1 A E [ 1 A | F s ] = 1 A s > t 1 A s < ts>tFtFsE[1A|Ft]=E[E[1A|Ft]|Fs]E[1A|Ft]=1AE[1A|Fs]=1As>t1As<t A F s E[ 1 A |AFsF s ]= 1 A A F s E[ 1 A | F s ]A={ ω 2 } F 2 F 1 E[ 1 A | F 0 ]= 1E[1A|Fs]=1AAFsE[1A|Fs] загалом. Конкретний приклад див. У цій статті , малюнок 1. Взявши , наведено послідовність умовних очікувань , , , .A={ω2}F2F18 1ΩE[1A| F1]=1E[1A|F0]=181Ω2 1{ω1,ω2}E[1A| F2]=1{ω2}E[1A| F3]=1{ω2}E[1A|F1]=121{ω1,ω2}E[1A|F2]=1{ω2}E[1A|F3]=1{ω2}


Спасибі С. Каттералл. Звідки ви знаєте, що 1 ? 2 ? Також збираємось відредагувати питання. Вибачте за незручності. Я буду використовувати деякі ваші уявлення для редагуванняP ( B ) = P ( A B ) B A E [ 1 A | F t ] = 1 AP(B)=P(AB)BAE[1A|Ft]=1A
BCLC

1
Дозвольте спробувати узагальнити природною мовою; фільтрація відповідає дедалі точнішому підрозділу простору результатів, а умовне очікування події Послідовні елементи фільтрації wrt ("як більше інформації стає доступною") набувають більшого піку навколо події (при початковому стані інформації це просто рівномірний розподіл). Час зупинки - це поверхня процесу, встановленого стохастичним рівнем (у статті змінна результату є двійковою, і було вибрано значення ). A F 0 0AF00
ocramz

@ocramz та S. Catterall, виконали редагування. Як це pls? ^ - ^
BCLC

1
На цьому малюнку, якщо ми вимірюємо подію , але процес вибірки закінчується конфігурацією , яка не належить до , стає ефективно "непізнаваною" (міра ). Чи правильний цей опис? Більше того, як умовні очікування в наступні періоди часу нагадують мені про ітераційний процес Байєса, чи існує зв’язок між цими поняттями? @S. CatterallA ω i A A 0Aωi
ocramz

1
Відповідаючи на запитання у вашому першому коментарі: якщо , тому що - це неперервне об'єднання і нас повинен бути , що означає, що як Now, таким же чином ми можемо використовувати для висновку, що якP ( B ) = P ( A B ) B A B A cB P ( A cB ) = 0 B A P ( A ) = P ( B ) A = B F t
S. Catterall Відновіть Моніку
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.