Очікування взаємної змінної


Відповіді:


27

це може бути 1 / E (X)?

Ні, загалом це не може; Нерівність Дженсена говорить про те, що якщо випадкова величина, а φ - опукла функція, то φ ( E [ X ] ) E [ φ ( X ) ] . Якщо X строго позитивний, то 1 / X є опуклим, тому E [ 1 / X ] 1 / E [ X ] , а для строго опуклої функції рівність виникає лише в тому випадку, коли XXφφ(E[X])E[φ(X)]X1/XE[1/X]1/E[X]Xмає нульову дисперсію ... тож у тих випадках, коли нас, як правило, цікавить, обидва вони неоднакові.

Якщо припустити, що ми маємо справу з позитивною змінною, якщо вам зрозуміло, що і 1 / X будуть зворотно пов'язані ( Cov ( X , 1 / X ) 0 ), то це означатиме E ( X 1 / X ) - E ( X ) E ( 1 / X ) 0, що означає E ( X ) E ( 1 / X ) X1/XCov(X,1/X)0E(X1/X)E(X)E(1/X)0 , тому E ( 1 / X ) 1 / E ( X ) .E(X)E(1/X)1E(1/X)1/E(X)

Я розгублений у застосуванні очікування в знаменнику.

Використовуйте закон несвідомого статистика

E[g(X)]=g(x)fX(x)dx

(у безперервному випадку)

тому коли ,E[1g(X)=1XE[1X]=f(x)xdx

В деяких випадках очікування можна оцінити за допомогою перевірки (наприклад, за допомогою випадкових змінних гамма), або шляхом отримання розподілу обернених, або іншими способами.


14

Як говорить Glen_b, це, мабуть, неправильно, оскільки зворотна - це нелінійна функція. Якщо ви хочете наближення до Е(1/Х) можливо, ви можете використовувати розширення Тейлора навколо Е(Х) :

E(1X)E(1E(X)1E(X)2(XE(X))+1E(X)3(XE(X))2)==1E(X)+1E(X)3Var(X)
тож вам просто потрібні середнє значення та дисперсія X, і якщо розподілXсиметричний, це наближення може бути дуже точним.

EDIT: можливо, вище досить критично, дивіться коментар BioXX нижче.


oh yes yes...I am very sorry that I could not apprehend that fact...I have one more q...Is this applicable to any kind of function???actually I am stuck with |x|...How can the expectation of |x| can be deduced in terms of E(x) and V(x)
Sandipan Karmakar

2
|X|E(|X|)=E(X|X>0)p(X>0)+E(X|X<0)p(X<0), I guess.
Matteo Fasiolo

1
@MatteoFasiolo Can you please explain why the symmetry of the distribution of X (or lack thereof) has an effect on the accuracy of the Taylor approximation? Do you have a source that you could point me to that explains why this is?
Aaron Hendrickson

1
@AaronHendrickson my reasoning is simply that the next term in the expansion is proportional to E{(XE(X))3} which is related to the skewness of the distribution of X. Skewness is an asymmetry measure. However, zero skewness does not guarantee symmetry and I am not sure whether symmetry guarantees zero skewness. Hence, this is all heuristic and there might be plenty of counterexamples.
Matteo Fasiolo

4
Xf(x)=1/x is not bounded. Moreover the remainder of the approx. is 1/6f(ξ)(Xμ)3 where ξ is itself a random variable between X and μXnμ=Op(an) where an0. Even then uniform integrability is needed additionally if interested in the expectation.
BloXX

8

Others have already explained that the answer to the question is NO, except trivial cases. Below we give an approach to finding E1XX>0MX(t)=EetX1/xx

0etxdt=1x (simple calculus exercise). Then, write

E(1X)=0x1f(x)dx=0(0etxdt)f(x)dx=0(0etxf(x)dx)dt=0MX(t)dt
A simple application: Let X have the exponential distribution with rate 1, that is, with density ex,x>0 and moment generating function MX(t)=11t,t<1. Then 0MX(t)dt=011+tdt=ln(1+t)|0=, so definitely do not converge, and is very different from 1EX=11=1.

7

An alternative approach to calculating E(1/X) knowing X is a positive random variable is through its moment generating function E[eλX]. Since by elementary calculas

0eλxdλ=1x
we have, by Fubini's theorem
0E[eλX]dλ=E[1X].

2
The idea here is right, but the details wrong. Pleasecheck
kjetil b halvorsen

1
@Kjetil I don't see what the problem is: apart from the inconsequential differences of using tX instead of tX in the definition of the MGF and naming the variable t instead of λ, the answer you just posted is identical to this one.
whuber

1
You are right, the problems was less than I thought. Still this answer would be better withm some more details. I will upvote this tomorrow ( when I have new votes)
kjetil b halvorsen

1

To first give an intuition, what about using the discrete case in finite sample to illustrate that E(1/X)1/E(X) (putting aside cases such as E(X)=0)?

In finite sample, using the term average for expectation is not that abusive, thus if one has on the one hand

E(X)=1Ni=1NXi

and one has on the other hand

E(1/X)=1Ni=1N1/Xi

it becomes obvious that, with N>1,

E(1/X)=1Ni=1N1/XiNi=1NXi=1/E(X)

Which leads to say that, basically, E(1/X)1/E(X) since the inverse of the (discrete) sum is not the (discrete) sum of inverses.

Analogously in the asymptotic 0-centered continuous case, one has

E(1/X)=f(x)xdx1/xf(x)dx=1/E(X).

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.