Ні, це неправда. Байєсівські методи, безумовно, переповнюють дані. Є кілька речей, які роблять байєсівські методи більш стійкими щодо перенапруження, і ви також можете зробити їх більш крихкими.
Комбінаторичний характер гіпотез Байєса, а не бінарних гіпотез, дозволяє проводити багаторазове порівняння, коли комусь не вистачає «справжньої» моделі для нульових методів гіпотези. Баєсівський задник ефективно скасовує збільшення структури моделі, наприклад додавання змінних, при цьому нагороджуючи поліпшення придатності. Штрафи та виграші - це не оптимізація, як це було б у випадку не байесівських методів, а зміщення ймовірностей з нової інформації.
Хоча це загалом дає більш надійну методологію, існує важливе обмеження, і це використання належних попередніх розподілів. Незважаючи на те, що є тенденція бажати наслідувати методи частості, використовуючи плоскі пріори, це не гарантує правильного рішення. У байєсівських методах є статті про пристосування, і мені здається, що гріх, як видається, полягає в спробі бути "справедливим" до не-баєсівських методів, починаючи із строго плоских пріорів. Складність полягає в тому, що пріоритет важливий для нормалізації ймовірності.
Байєсові моделі - це принципово оптимальні моделі у сенсі цього слова про прийнятність Вальда, але в ньому є прихований шахрай. Уолд припускає, що пріоритет - це ваш справжній пріоритет, а не якийсь попередній, який ви використовуєте, щоб редактори не занурили вас за те, що ви вкладаєте в нього занадто багато інформації. Вони не є оптимальними в тому ж сенсі, що і моделі часто. Методи частого лікування починаються з оптимізації мінімізації дисперсії, залишаючись неупередженою.
Це дорога оптимізація, оскільки вона відкидає інформацію та не є суттєво допустимою у розумінні Вальда, хоча часто є допустимою. Таким чином, моделі Frequentist забезпечують оптимальне пристосування до даних з урахуванням об'єктивності. Байєсівські моделі не є ні об'єктивними, ні оптимальними для даних. Це торгівля, яку ви здійснюєте, щоб мінімізувати перевитрати.
Байєсові моделі - це внутрішньо упереджені моделі, якщо не буде вжито спеціальних заходів для їх об'єктивності, які зазвичай гірше підходять до даних. Їх чеснота полягає в тому, що вони ніколи не використовують менше інформації, ніж альтернативний метод, щоб знайти "справжню модель", і ця додаткова інформація робить байєсівські моделі ніколи не менш ризикованими, ніж альтернативні моделі, особливо при розробці вибірки. Однак, завжди знайдеться зразок, який можна було б отримати випадковим чином, який би систематично "обманював" байєсівський метод.
Що стосується другої частини вашого запитання, якби ви аналізували один зразок, задня частина назавжди буде змінена у всіх її частинах і не повернеться до попередньої, якщо б не був другий зразок, який би точно скасував усю інформацію в перший зразок. Принаймні теоретично це правда. На практиці, якщо попередній рівень є достатньо інформативним і спостереження є недостатньо інформативним, то вплив може бути таким малим, що комп'ютер не міг би виміряти різниці через обмеження кількості значущих цифр. Можливо, що для комп’ютера ефект буде занадто малим, щоб обробити зміну задньої частини.
Отже, у відповіді "так" ви можете доповнити зразок за допомогою байєсівського методу, особливо якщо у вас невеликий розмір вибірки та неправильні пріори. Друга відповідь - «ні» теорема Байєса ніколи не забуває про вплив попередніх даних, хоча ефект може бути таким малим, що ви його пропустите обчислювально.