Чому кількість безперервних однорідних змінних на (0,1), необхідних для їх суми, перевищує одиницю, має значення


14

Підведемо підсумок потоку випадкових величин, X i i i d U ( 0 , 1 )XiiidU(0,1) ; нехай YY - кількість доданків, яких нам потрібно, щоб загальна сума перевищила один, тобто YY - найменше число, таке, що

X 1 + X 2 + + X Y > 1.

X1+X2++XY>1.

Чому середнє значення YY дорівнює постійній Ейлера ee ?

E ( Y ) = e = 10 ! +11 ! +12 ! +13 ! +

E(Y)=e=10!+11!+12!+13!+

Я публікую це в дусі питання про самонавчання, хоча, думаю, я вперше побачив це питання більше десяти років тому. Я не можу згадати, як я відповів на це тоді, хоча я впевнений, що це було не так, як я сприйняв це, коли я побачив цю властивість, згадану в потоці Приблизний е,e використовуючи Monte Carlo Simulacija . Оскільки я підозрюю, що це досить поширене питання вправи, я вирішив подати ескіз, а не повне рішення, хоча, мабуть, головне "попередження про спойлер" належить до самого питання!
Срібна рибка

Я все ще дуже зацікавлений в альтернативних підходах; Я знаю, що це було включено як запитання в « Теорію ймовірності» Гнеденка (спочатку російською, але широко перекладеною), але я не знаю, яке рішення там очікувалося чи поставлене в іншому місці.
Срібна рибка

1
Я написав імітаційне рішення в MATLAB, використовуючи ваш симплекс-метод. Я не знав про посилання на симплекси, це так несподівано.
Аксакал

Відповіді:


14

Перше спостереження: YY має більш приємний CDF, ніж PMF

Функція маси ймовірностей p Y ( n )pY(n) - це ймовірність того, що nn "лише достатньо", щоб загальна сума перевищила єдність, тобто X 1 + X 2 + ... X nX1+X2+Xn перевищує одиницю, а X 1 ++ X п - 1X1++Xn1 робить ні.

Кумулятивний розподіл F Y ( n ) = Pr ( Y n )FY(n)=Pr(Yn) просто вимагає, що nn "достатньо", тобто n i = 1 X i > 1,ni=1Xi>1 без обмеження на скільки. Це виглядає як набагато простіша подія, щоб вирішити ймовірність.

Друге спостереження: YY приймає невід’ємні цілі значення, тому E ( Y )E(Y) можна записати через CDF

Ясно , що YY може приймати тільки значення в { 0 , 1 , 2 , ... }{0,1,2,} , так що ми можемо написати його середнє з точки зору додаткового КОР , ··· F YF¯Y.

E ( Y ) = n = 0 ˉ F Y ( n ) = n = 0 ( 1 - F Y ( n ) )

E(Y)=n=0F¯Y(n)=n=0(1FY(n))

Насправді Pr ( Y = 0 )Pr(Y=0) і Pr ( Y = 1 )Pr(Y=1) обидва дорівнюють нулю, тому перші два доданки є E ( Y ) = 1 + 1 + E(Y)=1+1+ .

Щодо пізніших термінів, якщо F Y ( n )FY(n) - це ймовірність, що n i = 1 X i > 1ni=1Xi>1 , то яка подія є ˉ F Y ( n )F¯Y(n) ймовірністю?

Third observation: the (hyper)volume of an nn-simplex is 1n!1n!

The nn-simplex I have in mind occupies the volume under a standard unit (n1)(n1)-simplex in the all-positive orthant of RnRn: it is the convex hull of (n+1)(n+1) vertices, in particular the origin plus the vertices of the unit (n1)(n1)-simplex at (1,0,0,)(1,0,0,), (0,1,0,)(0,1,0,) etc.

volumes of 2-simplex and 3-simplex

For example, the 2-simplex above with x1+x21x1+x21 has area 1212 and the 3-simplex with x1+x2+x31x1+x2+x31 has volume 1616.

For a proof that proceeds by directly evaluating an integral for the probability of the event described by ˉFY(n)F¯Y(n), and links to two other arguments, see this Math SE thread. The related thread may also be of interest: Is there a relationship between ee and the sum of nn-simplexes volumes?


1
This is an interesting geometric approach, and easy to solve this way. Beautiful. Here's the equation for a volume of a simplex. I don't think there could be a more elegant solution, frankly
Aksakal

1
+1 You can also obtain the full distribution of YY from any of the approaches in my post at stats.stackexchange.com/questions/41467/….
whuber

If I stumbled on this solution, there's no way they could force me do it other way in a school :)
Aksakal

11

Fix n1n1. Let Ui=X1+X2++Ximod1

Ui=X1+X2++Ximod1
be the fractional parts of the partial sums for i=1,2,,ni=1,2,,n. The independent uniformity of X1X1 and Xi+1Xi+1 guarantee that Ui+1Ui+1 is just as likely to exceed UiUi as it is to be less than it. This implies that all n!n! orderings of the sequence (Ui)(Ui) are equally likely.

Given the sequence U1,U2,,UnU1,U2,,Un, we can recover the sequence X1,X2,,XnX1,X2,,Xn. To see how, notice that

  • U1=X1 because both are between 0 and 1.

  • If Ui+1Ui, then Xi+1=Ui+1Ui.

  • Otherwise, Ui+Xi+1>1, whence Xi+1=Ui+1Ui+1.

There is exactly one sequence in which the Ui are already in increasing order, in which case 1>Un=X1+X2++Xn. Being one of n! equally likely sequences, this has a chance 1/n! of occurring. In all the other sequences at least one step from Ui to Ui+1 is out of order. This implies the sum of the Xi had to equal or exceed 1. Thus we see that

Pr(Y>n)=Pr(X1+X2++Xn1)=Pr(X1+X2++Xn<1)=1n!.

This yields the probabilities for the entire distribution of Y, since for integral n1

Pr(Y=n)=Pr(Y>n1)Pr(Y>n)=1(n1)!1n!=n1n!.

Moreover,

E(Y)=n=0Pr(Y>n)=n=01n!=e,

QED.


I have read it a couple of times, and I almost get it... I posted a couple of questions in the Mathematics SE as a result of the e constant computer simulation. I don't know if you saw them. One of them came back before your kind explanation on Tenfold about the ceiling function of the 1/U(0,1) and the Taylor series. The second one was exactly about this topic, never got a response, until now...
Antoni Parellada


And could you add the proof with the uniform spacings as well?
Xi'an

@Xi'an Could you indicate more specifically what you mean by "uniform spacings" in this context?
whuber

I am referring to your Poisson process simulation via the uniform spacing, in the thread Approximate e using Monte Carlo Simulation for which I cannot get a full derivation.
Xi'an

6

In Sheldon Ross' A First Course in Probability there is an easy to follow proof:

Modifying a bit the notation in the OP, UiiidU(0,1) and Y the minimum number of terms for U1+U2++UY>1, or expressed differently:

Y=min{n:ni=1Ui>1}

If instead we looked for:

Y(u)=min{n:ni=1Ui>u}

for u[0,1], we define the f(u)=E[Y(u)], expressing the expectation for the number of realizations of uniform draws that will exceed u when added.

We can apply the following general properties for continuous variables:

E[X]=E[E[X|Y]]=E[X|Y=y]fY(y)dy

to express f(u) conditionally on the outcome of the first uniform, and getting a manageable equation thanks to the pdf of XU(0,1), fY(y)=1. This would be it:

f(u)=10E[Y(u)|U1=x]dx

If the U1=x we are conditioning on is greater than u, i.e. x>u, E[Y(u)|U1=x]=1. If, on the other hand, x<u, E[Y(u)|U1=x]=1+f(ux), because we already have drawn 1 uniform random, and we still have the difference between x and u to cover. Going back to equation (1):

f(u)=1+x0f(ux)dx

, and with substituting w=ux we would have f(u)=1+x0f(w)dw.

If we differentiate both sides of this equation, we can see that:

f(u)=f(u)f(u)f(u)=1

with one last integration we get:

log[f(u)]=u+cf(u)=keu

We know that the expectation that drawing a sample from the uniform distribution and surpassing 0 is 1, or f(0)=1. Hence, k=1, and f(u)=eu. Therefore f(1)=e.


I do like the manner in which this generalises the result.
Silverfish
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.