Скажімо, залежить від . Суворо кажучи,
якщо і - обидва випадкові величини, ми могли б написати ;α p ( X ∣ α )
однак, якщо є випадковою змінною і є параметром, ми повинні написати .α p ( X ; α )
Я кілька разів помічаю, що спільнота машинного навчання, здається, ігнорує відмінності та зловживає умовами.
Наприклад, у відомій моделі LDA, де - параметр Діріхле замість випадкової змінної.
Чи не повинно бути ? Я бачу, що багато людей, включаючи оригінальних авторів газети LDA, пишуть це як .p ( θ ∣ α )
6
Математично кажучи, ви завжди можете умовити постійну, оскільки це обмежувальний випадок випадкової величини. З байєсівської точки зору, всі невідомі трактуються як випадкові змінні, тому має сенс використовувати умовні позначення у всьому.
—
Сіань
@ Xi'an Я розумію вашу думку про "постійне кондиціонування". Але уявіть, я малюю із категоричного розподілу параметра , тобто . Чи можу я записати розподіл як ? Мені це виглядає дивно, оскільки завжди можна встановити фіксовану . мені виглядає зручніше. θ X ∼ C a t ( θ ) p ( X ∣ θ ) θ p ( X ; θ )
—
Сіббс азартні ігри