Як взяти вибірку з дискретного розподілу на невід’ємні цілі числа?


10

У мене є такий дискретний розподіл, де відомі постійні:α,β

p(x;α,β)=Beta(α+1,β+x)Beta(α,β)for x=0,1,2,

Які існують деякі підходи до ефективного вибору з цього розподілу?

Відповіді:


9

Це бета-негативний біноміальний розподіл з параметром у вашому випадку, використовуючи позначення Вікіпедії. Він також назвав розподіл Beta-Pascal, коли - ціле число. Як ви зазначали в коментарі, це прогнозний розподіл в баєсовій негативній біноміальній моделі з кон'югованою бета-версією до ймовірності успіху.r=1r

Таким чином, ви можете взяти вибірку за допомогою вибірки змінної а потім відібрати від'ємну біноміальну змінну (з у вашому випадку, тобто сказати геометричний розподіл).Beta(α,β)uNB(r,u)r=1

Цей розподіл здійснюється в пакеті R brr. У rbeta_nbinomвибірці є ім'я , у pmf є ім'я dbeta_nbinomта ін. Позначення , , . Перевірка:a=rc=αd=β

> Alpha <- 2; Beta <- 3
> a <- 1
> all.equal(brr::dbeta_nbinom(0:10, a, Alpha, Beta), beta(Alpha+a, Beta+0:10)/beta(Alpha,Beta))
[1] TRUE

Дивлячись на код, можна побачити, що він фактично називає ghyper(узагальнену гіпергеометричну) сім'ю розподілів SuppDistsпакету:

brr::rbeta_nbinom
function(n, a, c, d){
  rghyper(n, -d, -a, c-1)
}

В іншому випадку розподіл BNB відомий як генералізований гіпергеометричний розподіл типу IV . Дивіться допомогу ghyperв SuppDistsупаковці. Я вважаю, що це також можна знайти в книзі « Універсальні дискретні розподіли» Джонсона та ін .


Ця відповідь чудова, але було б навіть краще, якби ви довели, що розміщена ОП щільності така ж, як і негативна біноміальна щільність.
Sycorax каже, що поверніть Моніку

1
@ user777 Я думаю, що автор ОП це довів сам, зважаючи на свій коментар до відповіді Сіану (задній прогнозний розподіл у негативній біноміальній моделі з кон'югатом до бета-версії).
Стефан Лоран

10

Враховуючи, що зменшується з , я пропоную створити єдину змінну та обчислення сукупних сум поки Реалізація тоді дорівнює відповідній . З тих пір

Beta(α+1,β+x)Beta(α,β)=αα+β+xβ+x1α+β+x1βα+β
xuU(0,1)
Sk=x=0kBeta(α+1,β+x)Beta(α,β)
Sk>u
k
Rx=Beta(α+1,β+x)Beta(α,β)=αα+β+xβ+x1α+β+x1βα+β=α+β+x1α+β+xβ+x1α+β+x1Rx1=β+x1α+β+xRx1
і обчислення можуть уникнути використання гамма-функцій взагалі.
Sk=Sk1+Rk

1
(+1) Використання значно прискорить робота. Sk=1Γ(a+b)Γ(b+k+1)Γ(b)Γ(a+b+k+1)
whuber

1
Знову редагуйте: я підозрюю, що використання функцій Gamma все-таки буде корисним у вирішенні з точки зору , та . Наприклад, можна було знайти початкове наближення до , використовуючи формулу Стірлінга при оцінці та а потім відполірувати це за допомогою декількох Ньютона-Рафсона кроки. Тим, хто потребує оцінки журнальної гами та її похідної. Звичайно, якщо і є невід'ємними, тоді рішення є коренем многочлена, але навіть тоді використання Гамми все-таки може бути шляхом. kuαβuΓ(b+k+1)Γ(a+b+k+1)αβ
whuber

1
Чудова відповідь! Я прийняв відповідь, надану SL, тому що він представив мою увагу ключовим моментом (не частиною оригінального питання), що вибірка з заднього передбачення еквівалентна вибірці параметра з заднього, а потім вибіркові дані з імовірності. Зокрема, функція розподілу, наведена вище, - це заднє передбачення геометричних даних з Beta, що передує параметру . p
jII
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.