Що є причиною того, що функція ймовірності не є pdf (функція щільності ймовірності)?
Що є причиною того, що функція ймовірності не є pdf (функція щільності ймовірності)?
Відповіді:
Почнемо з двох визначень:
Функція щільності ймовірності (pdf) - це негативна функція, яка інтегрується в .
Ймовірність визначається як спільна щільність спостережуваних даних як функція параметра. Але, як вказувало посилання на Леманна, зроблене @whuber у коментарі нижче, ймовірність функції є функцією лише параметра, при цьому дані зберігаються як фіксована константа. Тож факт, що це щільність як функція даних, не має значення.
Тому функція ймовірності не є файлом pdf, оскільки її інтеграл щодо параметра не обов'язково дорівнює 1 (і може взагалі не бути інтегрованим, як вказує інший коментар від @whuber).
Щоб побачити це, ми скористаємося простим прикладом. Припустимо, у вас є одне спостереження, , з розподілу . Тоді функція ймовірності єB e r n o u l l i ( θ )
Факт, що . Зокрема, якщо , то , такх = 1 л ( & thetas ; ) = & thetas ; ∫ 1 0 L ( & thetas ; ) d & thetas ; = ∫ 1 0 & thetas ; d & thetas ; = 1 / 2
і подібний розрахунок застосовується, коли . Тому не може бути функцією щільності.L ( θ )
Можливо, навіть важливіше, ніж цей технічний приклад, який показує, чому ймовірність не є щільністю ймовірності, - це вказувати, що ймовірність не є вірогідністю того, що значення параметра є правильним, або щось подібне - це ймовірність (щільність) даних з урахуванням значення параметра , що зовсім інша річ. Тому не слід очікувати, що функція ймовірності буде вести себе як щільність ймовірності.
Гаразд, але функція ймовірності - це спільна щільність ймовірності для спостережуваних даних, заданих параметром . Як такий він може бути нормалізований для формування функції щільності ймовірності. Отже, це по суті як PDF-файл.
Я не статистик, але я розумію, що хоча сама ймовірність функціонування не є PDF у відношенні параметра (и), вона безпосередньо пов'язана з цим PDF за Правилом Байєса. Функція ймовірності P (X | theta) та задній розподіл, f (theta | X) тісно пов'язані; зовсім не "річ зовсім інша".
Ймовірність визначається як , де якщо f (x; θ) - функція маси ймовірностей , то ймовірність завжди менше одиниці, але якщо f (x; θ) - функція густини ймовірностей, то ймовірність може бути більшою за одиницю, оскільки щільність може бути більшою одиниці.
Зазвичай зразки обробляються в iid, тоді:
Подивимось його первісну форму:
Згідно з байєсівським висновком, справедливо, тобто . Зауважте, що оцінка максимальної вірогідності трактує співвідношення доказів до попереднього як постійне (див. Відповіді на це питання ), що омиває попередні переконання. Ймовірність має позитивну кореляцію з задньою, яка базується на оцінених параметрах. може бути файлом pdf, але - це не так, оскільки є лише частиною яку неможливо змінити.
Наприклад, я не знаю середньої та стандартної дисперсії гауссового розподілу і хочу отримати їх шляхом навчання, використовуючи безліч вибірок із цього розподілу. Я спочатку ініціалізую середню та стандартну дисперсію випадковим чином (що визначає розподіл Гаусса), а потім беру один зразок і вписується в розрахунковий розподіл, і я можу отримати ймовірність від розрахункового розподілу. Потім я продовжую ставити зразок і отримую багато ймовірностей, а потім помножую ці ймовірності і отримую оцінку. Такий бал є ймовірним. Навряд чи це може бути ймовірність певного pdf.