Ймовірність
Поширені проблеми в теорії ймовірностей стосуються ймовірності спостережень заданою моделлю та з урахуванням включених параметрів (назвемо їх ). Наприклад, ймовірність виникнення конкретних ситуацій у карткових іграх або іграх на кубики дуже однозначна.х1, х2, . . . , хнθ
Однак у багатьох практичних ситуаціях ми маємо справу з оберненою ситуацією ( інфекційна статистика ). Тобто: дані спостереження , і тепер модель невідома , або, принаймні, ми не знаємо певних параметрів .х1, х2, . . . , хк θθ
У таких типах проблем ми часто посилаємося на термін, який називається вірогідністю параметрів , що є швидкістю віри в конкретний параметр даними спостережень . Цей термін виражається як пропорційний ймовірності спостережень припускаючи, що параметр моделі був би гіпотетично правдивим. L(θ)θx1,x2,..xkx1,x2,..xkθL(θ,x1,x2,..xk)∝probability observations x1,x2,..xk given θ
Для даного значення параметра чим більш імовірним є певне спостереження (відносно ймовірності з іншими значеннями параметрів), тим більше спостереження підтримує цей конкретний параметр (або теорія / гіпотеза, що передбачає цей параметр) . (Відносна) велика ймовірність посилить наші думки щодо цього значення параметра (про це можна сказати набагато більше філософського ).θx1,x2,..xn
Ймовірність проблеми німецьких танків
Тепер для німецької проблеми з танком функція ймовірності для набору зразків :x1,x2,..xk
L(θ,x1,x2,..xk)=Pr(x1,x2,..xk,θ)={0(θk)−1if max(x1,x2,..xk)>θif max(x1,x2,..xk)≤θ,
Незалежно від того, чи спостерігаєте ви зразки {1, 2, 10} або зразки {8, 9, 10}, не має значення, коли зразки розглядаються за рівномірного розподілу з параметром . Обидва вибірки однаково вірогідні і, використовуючи ідею ймовірності, один зразок не розповідає більше про параметр ніж інший вибірки.θ(θ3)−1θ
Високі значення {8, 9, 10} можуть змусити вас думати / вірити, що має бути вище. Але це лише значення {10}, яке справді дає вам релевантну інформацію про ймовірність (значення 10 говорить вам, що буде десять і більше, інші значення 8 і 9 нічого не сприяють цій інформації ).θθ θθθ
Теорема факторизації Фішера Неймана
Ця теорема говорить вам про те, що певна статистика (тобто деяка функція спостережень, наприклад, середня, середня або як у німецькій проблемі з максимумом максимум) є достатньою (містить всю інформацію), коли Ви можете визначити у функції ймовірності умови, які залежать від інших спостережень , так що цей коефіцієнт не залежить як від параметра і з (і частина функції ймовірності, яка пов'язує дані з гіпотетичними значеннями параметрів, залежить лише від статистичних даних, але не від усіх даних / спостережень).T(x1,x2,…,xk)x1,x2,…,xkθx1,x2,…,xk
Випадок проблеми німецьких танків простий. Вище бачите, що весь вираз для ймовірності вище вже залежить лише від статистики а решта значень значення не мають.max(x1,x2,..xk)x1,x2,..xk
Маленька гра як приклад
Скажімо, ми граємо в таку гру неодноразово: сама по собі є випадковою змінною і малюється з однаковою ймовірністю або 100, або 110. Потім ми малюємо вибірку .θx1,x2,...,xk
Ми хочемо вибрати стратегію відгадування , виходячи із спостережуваних що максимально збільшує нашу ймовірність мати правильну здогадку .θx1,x2,...,xkθ
Правильною стратегією буде вибір 100, якщо одне з чисел у вибірці не буде> 100.
Ми можемо спокуситись вибрати значення параметра 110 вже тоді, коли багато хто з як правило, мають усі високі значення, близькі до ста (але жодне точно більше ста), але це було б неправильно. Ймовірність такого спостереження буде більшою, коли значення справжнього параметра 100, ніж коли воно дорівнює 110. Тож якщо ми вгадаємо, що в такій ситуації 100 як значення параметра, то ми будемо менше шансів помилитися (оскільки ситуація з цими високими значеннями, близькими до сотні, але все ще нижче її, виникає частіше у випадку, коли справжнє значення 100, а не у випадку, коли справжнє значення дорівнює 110).x1,x2,...,xk