Чи відповідає взаємна ймовірність?


44

Мені було цікаво, чи відповідає взаємність P (X = 1) чогось конкретного?


3
Можливо, щось пов'язане з шансами
BCLC

1
чому X = 1 в цьому випадку? Х може бути чим завгодно?
мандата

Відповіді:


87

Так, вона забезпечує 1-in шкалу ймовірностей. Наприклад, зворотний коефіцієнт .01 дорівнює 100, тому подія з імовірністю .01 має шанс трапитися 1 на 100. Це корисний спосіб представити невеликі ймовірності, такі як .0023, що становить приблизно 1 на 435.n


8
+1 Це форма "рідкісної" міри, яку іноді використовують у розмові про рідкісні події (схожі на "потоп одного року"). При роботі з різними аспектами страхування незвичних подій такі заходи представляють інтерес. У випадку P (X = 1), можливо, це не так вже й актуально.
Glen_b

15
Дещо пов'язане число, необхідне для лікування ( NNT ).
gung - Відновити Моніку

1
Отже, взагалі зворотна ймовірність - це рідкість чогось. Ймовірність = .0023, рідкість = (1
дюйм

44

1p взагалі нічого не означає (але про конкретне значення конкретної випадкової величини див. відповідь Алекса Р.). Однак логарифм до бази 2, тобто1p - це кількість інформації (вимірюється в бітах), яку ви отримуєте, коли вам повідомляють, що подія (ймовірність ) сталося. Якщо подія має ймовірність , то ви отримуєте один біт інформації, коли вам повідомляють, що вона сталася. У іншій відповіді Кодіолог припустив, що якщо обрано як або , то можна сказати, щоlog21p=log2pp12N1p1p

an event of probability p has approximately 1 chance in N of occurring

Отже, оскільки виникнення події, яка має шанс на мільйон трапляються, передає вам лише 20 біт інформації або набагато менше, ніж потрібно для передачі "Кубків виграй! " в ASCII! :-)2201061


3
Варто зазначити, що є монотонним, тому для ймовірностей і ми можемо констатуватиlogpqp>q1p1qlog1plog1q
shadowtalker

30

У випадку геометричного розподілу зворотний представляє очікувану кількість кидків, які потрібно здійснити, щоб побачити один успіх. Наприклад, якщо монета має ймовірність посадки на голови, то вам потрібно буде кинути її близько 5 разів, щоб побачити одну голову.1/p0.2


Хіба це не проба P (отримуйте голову за 5 пробіжок) = 1 - P (не отримуйте голову за 5 пробіжок) = 1 - (0,8) ^ 5 = 0,67 ... Таким чином ви бачите, що достатньо 4 пробіжок щоб отримати більше 50% шансів побачити голову.
Девід 天宇 Вонг

@David 天宇 Wong: Ні. Нехай - час очікування в кидках до першої монети. Ми говоримо, що . З іншого боку, , . E [ τ ] = 1 / p P ( τ = 1 ) = p P ( τ = 2 ) = 2 p ( 1 - p )τE[τ]=1/pP(τ=1)=pP(τ=2)=2p(1p)
Алекс Р.

Я зрозумів, це очікування випадкової величини X: = кількість спроб, поки голова не спостерігається. E (X) = 1 * P (X = 1) + 2 * P (X = 2) + ... = 5
Девід 天宇 Вонг

15

Що іноді називають європейськими коефіцієнтами чи десятковими коефіцієнтами, якщо справедливими - це зворотна ймовірність виграшу, яка може бути випадковою змінною Бернуллі .P(X=1)

Наприклад, якщо котирується коефіцієнт "1,25", а ви ставите то ви отримуєте назад, якщо ви виграєте (включаючи свій первинний пакет, так що виграш ), і нічого назад, якщо програєте. Це було б справедливою ставкою, якби ймовірність виграти була , що має зворотну .8 × 1,25 = 10 2 888×1.25=1021810=0.810.8=1.25

Аналогічно, якщо котирується коефіцієнт "5,00", а ви ставите то ви отримуєте назад, якщо ви виграєте (включаючи свій первинний пакет, так що виграш ), і нічого назад, якщо програєте. Це було б справедливою ставкою, якби ймовірність виграти була , що має зворотну .8 × 5 = 40 32 888×5=40321840=0.210.2=5.00


10

У контексті проекту опитування зворотна ймовірність включення до вибірки називається вагою вибірки .

Наприклад, у репрезентативній вибірці деякої популяції респондент масою 100 осіб має 1/100 шансів бути включеним до вибірки, інакше кажучи, цей респондент представляє 100 подібних людей у ​​популяції.


9

У статистичній механіці система має велику кількість мікростатів, і основним принципом є те, що всі вони вважаються однаково вірогідними . Отже, зворотна ймовірність конкретного мікродержави - це кількість можливих мікростатів, і це має назву у фізиці; це (заплутано) називається термодинамічною ймовірністю .

Журнал термодинамічної ймовірності - це ентропія системи, до постійної.

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.