Орієнтовна статистика замовлень для звичайних випадкових величин


38

Чи відомі формули для статистики порядку певних випадкових розподілів? Зокрема, було б вдячно також статистика першого та останнього порядку звичайної випадкової величини, але більш загальна відповідь.

Редагувати: Для уточнення я шукаю формули наближення, які можна більш-менш явно оцінити, а не точний інтегральний вираз.

Наприклад, я бачив наступні два наближення для статистики першого порядку (тобто мінімум) нормального rv:

e1:nμn12n1σ

і

e1:nμ+Φ1(1n+1)σ

Перший із них, при , дає приблизно що здається дико вільною межею.n=200e1:200μ10σ

Другий дає тоді як швидкий Монте-Карло дає , тож це не є поганим наближенням, але і не великим, і важливіше, що я не маю інтуїції щодо того, звідки вона походить.e1:200μ2.58σe1:200μ2.75σ

Будь-яка допомога?


4
Якщо ви використовуєте R, перегляньте функцію точок .
кардинал

1
@probabilityislogic дав добру інтуїцію для наближених списків. Було б корисно взагалі, якщо я дав би ще щось з альтернативної точки зору, чи ви задовольнили вашу цікавість з цього приводу?
кардинал

Відповіді:


31

Класична посилання - Ройстон (1982) [1], який містить алгоритми, що виходять за рамки явних формул. Він також цитує добре відому формулу Блом (1958): з . Ця формула дає множник -2,73 при .α=0,375n=200,r=1E(r:n)μ+Φ1(rαn2α+1)σα=0.375n=200,r=1

[1]: Алгоритм AS 177: Очікувана статистика звичайних замовлень (точна і приблизна) JP Royston. Журнал Королівського статистичного товариства. Серія C (Прикладна статистика) Вип. 31, № 2 (1982), стор 161-165


21

Розподіл статистики i-го порядку будь-якого безперервного випадкового змінна з PDF задається сполукою "beta-F". Інтуїтивний спосіб думати про це розподілі, щоб розглянути статистику замовлення Ith в зразку . Тепер для того, щоб значення статистики i-го порядку випадкової величини було рівним нам потрібні 3 умови:XNXx
  1. x F X ( x ) F X ( x ) = P r ( X < x )i1 нижче , це має ймовірність для кожного спостереження, де - CDF випадкової величини X.xFX(x)FX(x)=Pr(X<x)
  2. x 1 - F X ( x )NiЗначення вище , це ймовірністьx1FX(x)
  3. 1 значення всередині нескінченно малого інтервалу , що містить , це має ймовірність , де є PDF випадкової величиниf X ( x ) d x f X ( x ) d x = d F X ( x ) = P r ( x < X < x + d x ) XxfX(x)dxfX(x)dx=dFX(x)=Pr(x<X<x+dx)X

Є способи зробити цей вибір, тому у нас є:(N1)(N1i1)

fi(xi)=N!(i1)!(Ni)!fX(xi)[1FX(xi)]Ni[FX(xi)]i1dx

EDIT в своєму первісному дописі я зробив дуже погану спробу піти далі від цього пункту, і коментарі нижче відображають це. Я намагався виправити це нижче

Якщо ми візьмемо середнє значення цього pdf, отримаємо:

E(Xi)=xifi(xi)dxi

І в цьому інтегралі ми робимо наступну зміну змінної (з натяком на @ henry), і інтеграл стає:pi=FX(xi)

E(Xi)=01FX1(pi)Beta(pi|i,Ni+1)dpi=EBeta(pi|i,Ni+1)[FX1(pi)]

Отже, це очікуване значення зворотного CDF, яке можна добре наблизити за допомогою методу delta, щоб отримати:

EBeta(pi|i,Ni+1)[FX1(pi)]FX1[EBeta(pi|i,Ni+1)]=FX1[iN+1]

Для кращого наближення ми можемо розширитись до 2-го порядку (просте позначення диференціації), зазначаючи, що друга похідна оберненого:

2a2FX1(a)=FX(FX1(a))[FX(FX1(a))]3=fX(FX1(a))[fX(FX1(a))]3

Нехай . Тоді ми маємо:νi=FX1[iN+1]

=νi-(i

EBeta(pi|i,Ni+1)[FX1(pi)]FX1[νi]VarBeta(pi|i,Ni+1)[pi]2fX(νi)[fX(νi)]3
=νi(iN+1)(1iN+1)2(N+2)fX(νi)[fX(νi)]3

Тепер, спеціалізуючись на звичайному випадку, у нас FX(x)=Φ(x-μ

fX(x)=1σϕ(xμσ)fX(x)=xμσ3ϕ(xμσ)=xμσ2fX(x)
FX(x)=Φ(xμσ)FX1(x)=μ+σΦ1(x)

Зверніть увагу, що І очікування приблизно стає:fX(νi)=1σϕ[Φ1(iN+1)]

Е[хi]мк+σΦ-1(iN+1)+(iN+1)(1-iN+1)2(N+2)σΦ-1(iN+1)[ϕ[Φ-1(iN+1)]]2

І, нарешті:

Е[хi]мк+σΦ-1(iN+1)[1+(iN+1)(1-iN+1)2(N+2)[ϕ[Φ-1(iN+1)]]2]

Хоча як зауважив @whuber, це не буде точно в хвостах. Насправді я думаю, що це може бути і гірше, через косисть бета-версії з різними параметрами


1
"Максимальна оцінка вірогідності випадкової величини "? Не впевнений, що це, але я думаю, що ви (майже) розрахували режим .
кардинал

1
Щось таємниче трапляється приблизно на дві третини шляху, коли раптом з'являються та без попередження чи визначення. σмкσ
whuber

2
Я не маю на увазі "купувати", але мені також важко бачити, як кількість у дужках можна наблизити до від'ємного числа.
кардинал

1
@probabilityislogic, хоча на рівні обчислення ви можете сказати, що в цьому випадку ми розглядаємо двовимірну функцію і просто максимізуємо одну змінну замість іншої, я думаю, що є причини математичні, статистичні та педагогічні, щоб не називати те, що ви Ви зробили "максимальну оцінку ймовірності". Їх занадто багато, щоб перерахувати в цьому просторі, але простий, який, на мою думку, є достатньо переконливим, це те, що ми використовуємо певну, приховану лексику в статистиці не просто так. Зміна цього на примху для однієї проблеми може призвести до непорозумінь (-ів) ... / ...
кардинал

2
@probabilityislogic (+1) для переглянутої відповіді. Одна пропозиція, можливо, краще, ніж означає "означає". Минуло кілька секунд на кілька ліній, щоб зрозуміти, що ви не пред'являєте якоїсь заяви про конвергенцію.
кардинал

13

Відповідь Аніко покладається на добре відому формулу Блома, яка передбачає вибір . Виявляється, ця формула сама по собі є лише наближенням точної відповіді завдяки Г. Ельфвінгу (1947), Асимптотичний розподіл ареалу в зразках з нормальної популяції , Biometrika, Vol. 34, стор 111-119. Формула Ельфвінга спрямована на мінімум і максимум вибірки, для якого правильний вибір альфа - . Формула Блом виходить, коли ми наближаємо до .α=3/8π/8π3

Використовуючи формулу Ельфвінга, а не наближення Блома, ми отримуємо множник -2,744165. Це число ближче до точної відповіді Еріка П. (-2,746) та наближення Монте-Карло (-2,75), ніж наближення Блома (-2,73), при цьому легше здійснити, ніж точна формула.


Не могли б ви надати трохи детальніше, як надходить через Elfving (1947)? Це не очевидно в статті. α=π/8
Антоній

1
Ентоні - я покладаюся на підручник "Математична статистика", автор "Семюел Вілкс". Вілі (1962). Вправа 8.21 на с. 249 говорить: "Якщо x_ (1), x_ (n) - найменший і найбільший статистичний порядок вибірки розміру n з безперервного cdf F (x) ... випадкова величина 2n * sqrt {[F (x_ ( 1))] [1-F (x_ (n))]} має обмеження розподілу як n -> нескінченність, із середнім pi / 2 та дисперсією 4- (pi ^ 2) / 4. " (Вибачте, я не знаю код розмітки!) Для симетричного розподілу F (x_ (1)) = 1-F (x_ (n)). Таким чином, F (x_ (n)) є приблизно pi / (4n), або x_ (n) приблизно F ^ (- 1) (pi / (4n)). Формула Блом використовує наближення 3 / (4n).
Hal M. Switkay

Це нагадує мені сумнозвісний законопроект " ", який віднесений до законодавчого органу штату Індіана. (Хоча стаття у Вікіпедії говорить про те, що популярна версія історії не є точною.)π=3
steveo'america

7

Залежно від того, що ви хочете зробити, ця відповідь може чи не допоможе - я отримав таку точну формулу з пакету статистики Maple .

with(Statistics):
X := OrderStatistic(Normal(0, 1), 1, n):
m := Mean(X):
m;

-1/2_т0н!2е-1/2_т02(1/2-1/2еrf(1/2_т02))-1+н(-1+н)!πг_т0

Сам по собі це не дуже корисно (і його, ймовірно, можна отримати досить легко вручну, оскільки це мінімум з випадкових змінних), але це дозволяє швидко та дуже точно наблизити задані значення - набагато точніші, ніж Монте Карло:nнн

evalf(eval(m, n = 200));
evalf[25](eval(m, n = 200));

дає -2,746042447 і -2,746042447451154492412344 відповідно.

(Повне розкриття інформації - я підтримую цей пакет.)


1
@ProbabilityIsLogic вивів цей інтеграл для всієї статистики замовлень у першій половині своєї відповіді.
whuber
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.