Байєсівський підхід має практичні переваги. Це допомагає в оцінці, часто є обов'язковим. І це дозволяє родини нових моделей, а також допомагає будувати складніші (ієрархічні, багаторівневі) моделі.
Наприклад, при змішаних моделях (включаючи випадкові ефекти з параметрами дисперсії) можна отримати кращі оцінки, якщо параметри дисперсії оцінюються шляхом маргіналізації над параметрами нижчого рівня (модельні коефіцієнти; це називається REML ). Байєсівський підхід робить це природно. У цих моделях, навіть при REML, оцінки максимальної ймовірності (ML) параметрів дисперсії часто дорівнюють нулю або зміщуються вниз. Допоможе правильний параметр параметрів дисперсії.
Навіть якщо використовується оцінка точки ( MAP , max a posteriori), пріори змінюють сімейство моделей. Лінійна регресія з великим набором дещо колінеарних змінних нестабільна. Регуляризація L2 використовується як засіб, але вона може бути інтерпретована як байесівська модель з гауссова (неінформативної) попередньою та оцінкою MAP. (Регуляризація L1 - це інший пріоритет і дає різні результати. Насправді тут пріоритет може бути дещо інформативним, але йдеться про колективні властивості параметрів, а не про один параметр.)
Отже, є кілька поширених і відносно простих моделей, де потрібен байєсівський підхід просто для того, щоб зробити справу!
Навіть на користь складніших моделей, таких як приховане розподілення Діріхле (LDA), що використовується в машинному навчанні. А деякі моделі по суті є баєсами, наприклад, такі, що базуються на процесах Діріхле .