Чи зловживання машинним навчанням “обумовлено” та “параметризовано”?


13

Скажімо, залежить від . Суворо кажучи,Xα

  • якщо і - обидва випадкові величини, ми могли б написати ;α p ( X α )Xαp(Xα)

  • однак, якщо є випадковою змінною і є параметром, ми повинні написати .α p ( X ; α )Xαp(X;α)

Я кілька разів помічаю, що спільнота машинного навчання, здається, ігнорує відмінності та зловживає умовами.

Наприклад, у відомій моделі LDA, де - параметр Діріхле замість випадкової змінної.α

введіть тут опис зображення

Чи не повинно бути ? Я бачу, що багато людей, включаючи оригінальних авторів газети LDA, пишуть це як .p ( θ α )p(θ;α)p(θα)


6
Математично кажучи, ви завжди можете умовити постійну, оскільки це обмежувальний випадок випадкової величини. З байєсівської точки зору, всі невідомі трактуються як випадкові змінні, тому має сенс використовувати умовні позначення у всьому.
Сіань

1
@ Xi'an Я розумію вашу думку про "постійне кондиціонування". Але уявіть, я малюю із категоричного розподілу параметра , тобто . Чи можу я записати розподіл як ? Мені це виглядає дивно, оскільки завжди можна встановити фіксовану . мені виглядає зручніше. θ X C a t ( θ ) p ( X θ ) θ p ( X ; θ )XθXCat(θ)p(Xθ)θp(X;θ)
Сіббс азартні ігри

4
p(Xθ)

Відповіді:


14

Я думаю, це більше стосується байєсівської / не-байесівської статистики, ніж машинного навчання проти .. статистики.

X,αp(Xα)Xαααp(X;α)p(Xα)p(α)ααα

p(X;α)p(Xα)p

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.