Закидаючи кульки в Бункери, оцініть нижню межу її ймовірності


14

Це не домашнє завдання, хоча це виглядає так. Будь-яка довідка вітається. :-)

Сценарій: Є n різних кульок і n різних бункерів (розміщено від 1 до n , зліва направо). Кожен кульку кидають самостійно і рівномірно в бункери. Нехай f(i) - кількість кульок в i му відро. ДозволятиEi позначає таку подію.

Для кожного ji , kjf(k)j1

Тобто, перші j бункери (найбільш ліві j бункери) містять менше j кульок, для кожного ji .

Питання: Оцініть i<nPr(Ei) у виразі n ? Коли n іде нескінченність. Переважний нижній зв'язок. Я не думаю, що формула існує легко.

Приклад: limnPr(E1)=limn(n1n)n=1e . ПриміткаPr(En)=0 .

Моя здогадка: я здогадуюсь, i<nPr(Ei)=lnn , коли n переходить до нескінченності. Я розглянув перші lnn пунктів у підсумовуванні.


1
Це схоже на підзаголовок із проблеми з днем ​​народження ..
Gopi

@Gopi Я не можу переконати себе, що моє запитання - проблема з днем ​​народження. Чи можете ви це чітко пояснити? Велике спасибі. Примітка. Обмеження є на суму кульок у перших j бункерах, а не на кількість бункерів на конкретному біні.
Пен Чжан

Справді, моє погано, перечитавши статтю у Вікіпедії про проблему з днем ​​народження, я зрозумів, що розглядаю ще одну проблему, адаптовану до проблеми Дня народження.
Гопі

2
Деякі неправильні ідеї ... Тож подумайте, як кодувати стан: Прочитайте форму бункерів зліва направо. Якщо у першому біні є кульки i, виведіть послідовність i, а потім 0. Зробіть це для всіх бункерів зліва направо. Ви кодуєте, здається, що вас цікавить найбільше i таке, що ця двійкова рядок (яка має n нулів і n) вперше містить більше одиниць, ніж нулів. Тепер, дозволяє зробити стрибок долі і генерувати 0 і 1 з однаковою ймовірністю . (Це може бути повна дурниця). Ця проблема пов'язана з каталонськими номерами та словами Dyck. І ... ??? 1/2
Саріель Хар-Пелед

4
Я не бачу у вашому визначенні, чому це важливо, щоб кулі були різними. Також інтеграція рядків враховує той факт, що бункери різні.
Саріель Хар-Пелед

Відповіді:


11

EDIT: (2014-08-08) Як в коментарях зазначає Дуглас Заре, наведений нижче аргумент, зокрема "міст" між двома ймовірностями, є невірним. Я не бачу прямого способу виправити це. Відповідь я залишу тут, оскільки я вважаю, що вона все ще дає деяку інтуїцію, але знайте, що взагалі не відповідає дійсності.

Pr(Em)l=1mPr(Fl)

Це не буде повною відповіддю, але, сподіваємось, у ній буде достатньо вмісту, щоб ви чи хтось більш обізнаний, ніж я, могли це закінчити.

Розглянемо ймовірність потрапляння рівно кульок у перші ln ) бункерів:kln

(nk)(ln)k(nln)nk

Назвіть ймовірність того, що в першу l потрапить менше, ніж кульll засіків :Fl

Pr(Fl)=k=0l1(nk)(ln)k(nln)nk

Ймовірність того, що подія, , вище, менша, ніж якби ми вважали кожну з подій F l, що відбуваються незалежно, і всі одночасно. Це дає нам міст між двома:ElFl

Pr(Em)l=1mPr(Fl)=l=1m(k=1l1(nk)(lnk)(nln)nk)=l=1mF(l1;n,ln)

Where F(l1;n,ln) is the cumulative distribution function for the Binomial distribution with p=ln. Just reading a few lines down on the Wikipedia page, and noting that (l1pn), we can use Chernoff's inequality to get:

Pr(Em)l=1mexp[12l]=exp[12l=1m1l]=exp[12Hm]exp[12(12m+ln(m)+γ)]

Where Hm is the m'th Harmonic Number, γ is the Euler-Mascheroni constant and the inequality for the Hm is taken from Wolfram's MathWorld linked page.

e1/4m factor, this finally gives us:

Pr(Em)eγ/2m

n=2048meγ/2m також побудовано для довідки:

enter image description here

Поки константи вимкнено, форма функції видається правильною.

nm

enter image description here

Pr(Em)1m

i<nPr(Ei)n

And as numerical verification, below is a log-log plot of the sum, S, versus instance size, n. Each point represents the average of the sum of 100,000 instances. The function x1/2 has been plotted for reference:

enter image description here

While I see no direct connection between the two, the tricks and final form of this problem have a lot of commonalities with the Birthday Problem as initially guessed at in the comments.


4
How do you get Pr(E2)Pr(F1)×Pr(F2)? For example, for n=100, I calculate that Pr(E2)=0.267946>0.14761=Pr(F1)Pr(F2). If you are told that the first bin is empty, does this make it more or less likely that the first two bins hold at most 1 ball? It's more likely, so Pr(F1)Pr(F2) is an underestimate.
Douglas Zare

@DouglasZare, I've verified your calculations, you're correct. Serves me right for not being more rigorous.
user834

15

The answer is Θ(n).

First, let's compute En1.

Let's suppose we throw n balls into n bins, and look at the probability that a bin has exactly k balls in it. This probability comes from the Poisson distribution, and as n goes to the probability that there are exactly k balls in a given bin is 1e1k!.

Now, let's look at a different way of distributing balls into bins. We throw a number of balls into each bin chosen from the Poisson distribution, and condition on the event that there are n balls total. I claim that this gives exactly the same distribution as throwing n balls into n bins. Why? It is easy to see that the probability of having kj balls in the jth bin is proportional to j=1n1kj! in both distributions.

So let's consider a random walk where at each step, you go from t to t+1k with probability 1e1k!. I claim that if you condition on the event that this random walk returns to 0 after n steps, the probability that this random always stays above 0 is the probability that the OP wants to calculate. Why? This height of this random walk after s steps is s minus the number of balls in the first s bins.

If we had chosen a random walk with a probability of 12 of going up or down 1 on each step, this would be the classical ballot problem, for which the answer is 12(n1). This is a variant of the ballot problem which has been studied (see this paper), and the answer is still Θ(1n). I don't know whether there is an easy way to compute the constant for the Θ(1n) for this case.

The same paper shows that when the random walk is conditioned to end at height k, the probability of always staying positive is Θ(k/n) as long as k=O(n). This fact will let us estimate Es for any s.

I'm going to be a little handwavy for the rest of my answer, but standard probability techniques can be used to make this rigorous.

We know that as n goes to , this random walk converges to a Brownian bridge, i.e., Brownian motion conditioned to start and end at 0. From general probability theorems, for ϵn<s<(1ϵ)n, the random walk is roughly Θ(n) away from the x-axis. In the case it has height t>0, the probability that it has stayed above 0 for the entire time before s is Θ(t/s). Since t is likely to be Θ(n) when s=Θ(n), we have EsΘ(1/n).


4

[Edit 2014-08-13: Thanks to a comment by Peter Shor, I have changed my estimate of the asymptotic growth rate of this series.]

My belief is that limni<nPr(Ei) grows as n. I do not have a proof but I think I have a convincing argument.

Let Bi=f(i) be a random variable that gives the number of balls in bin i. Let Bi,j=k=ijBk be a random variable that gives the total number of balls in bins i through j inclusive.

You can now write Pr(Ei)=b<jPr(EjB1,j=b)Pr(EiEjB1,j=b) for any j<i. To that end, let's introduce the functions π and gi.

π(j,k,b)=Pr(Bj=kB1,j1=b)=(nbk)(1nj+1)k(njnj+1)nbk

gi(j,k,b)=Pr(EiBj,ikEj1B1,j1=b)={0k<01k>=0j>il=0jb1π(j,l,b)gi(j+1,kl,b+l)otherwise

We can write Pr(Ei) in terms of gi:

Pr(Ei)=gi(1,i1,0)

Now, it's clear from the definition of gi that

Pr(Ei)=(ni)ni+1nnhi(n)

where hi(n) is a polynomial in n of degree i1. This makes some intuitive sense too; at least ni+1 balls will have to be put in one of the (i+1)th through nth bins (of which there are ni).

Since we're only talking about Pr(Ei) when n, only the lead coefficient of hi(n) is relevant; let's call this coefficient ai. Then

limnPr(Ei)=aiei

How do we compute ai? Well, this is where I'll do a little handwaving. If you work out the first few Ei, you'll see that a pattern emerges in the computation of this coefficient. You can write it as

ai=μi(1,i1,0)
where
μi(j,k,b)={0k<01k>=0i>jl=0jb11l!μi(j+1,kl,b+l)otherwise

Now, I wasn't able to derive a closed-form equivalent directly, but I computed the first 20 values of Pr(Ei):

N       a_i/e^i
1       0.367879
2       0.270671
3       0.224042
4       0.195367
5       0.175467
6       0.160623
7       0.149003
8       0.139587
9       0.131756
10      0.12511
11      0.119378
12      0.114368
13      0.10994
14      0.105989
15      0.102436
16      0.0992175
17      0.0962846
18      0.0935973
19      0.0911231
20      0.0888353

Now, it turns out that

Pr(Ei)=iii!ei=Pois(i;i)

where Pois(i;λ) is the probability that a random variable X has value i when it's drawn from a Poisson distribution with mean λ. Thus we can write our sum as

limni=1nPr(Ei)=x=1xxx!ex

Wolfram Alpha tells me this series diverges. Peter Shor points out in a comment that Stirling's approximation allows us to estimate Pr(Ei):

limnPr(Ex)=xxx!ex12πx

Let

ϕ(x)=12πx

Since

  • limxϕ(x)ϕ(x+1)=1
  • ϕ(x) is decreasing
  • 1nϕ(x)dx as n

our series grows as 1nϕ(x)dx (See e.g. Theorem 2). That is,

i=1nPr(Ei)=Θ(n)

1
Wolfram Alpha is wrong. Use Stirling's formula. It says that, xx/(x!ex)1/2πx.
Peter Shor

@PeterShor Thanks! I've updated the conclusion thanks to your insight, and now I am in agreement with the other two answers. It's interesting to me to see 3 quite different approaches to this problem.
ruds

4

Exhaustively checking the first few terms (by examining all n^n cases) and a bit of lookup shows that the answer is https://oeis.org/A036276 / nn. This implies that the answer is n12π2.

More exactly, the answer is:

n!2nnk=0n2nkk!
and there is no closed-form answer.

Oeis is pretty awesome
Thomas Ahle
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.