Я раніше про це запитував і справді боровся з визначенням того, що робить параметр моделі, а що робить його прихованою змінною. Отож, дивлячись на різні теми на цій темі на цьому сайті, головна відмінність виглядає так:
Латентні змінні не спостерігаються, але мають пов'язаний з ними розподіл ймовірностей, оскільки вони є змінними, а параметри також не спостерігаються і не мають пов'язаного з ними розподілу, який я розумію, що це константи і мають фіксовану, але невідому величину, яку ми намагаємося знайти. Крім того, ми можемо поставити пріори на параметри, щоб представити нашу невизначеність щодо цих параметрів, навіть якщо з ними пов'язане лише одне справжнє значення або, принаймні, це те, що ми припускаємо. Я сподіваюся, що я маю рацію дотепер?
Тепер я розглядав цей приклад для зваженої лінійної регресії Байєса з журнальної статті і дуже намагався зрозуміти, що таке параметр, а що - змінна:
Тут спостерігаються і , але тільки трактується як змінна, тобто пов'язане з нею розподіл.
Тепер припущення моделювання такі:
Отже, дисперсія зважена.
Існує також попередній розподіл на і , які є нормальними та гамма-розподілами відповідно.
Отже, повну вірогідність журналу задають:
Тепер, як я розумію, і і - параметри моделі. Однак у роботі вони продовжують посилатися на них як на приховані змінні. Моє міркування - і є і частиною розподілу ймовірності для змінної і вони є модельними параметрами. Однак автори трактують їх як латентні випадкові величини. Це правильно? Якщо так, якими були б параметри моделі?
Документ можна знайти тут ( http://www.jting.net/pubs/2007/ting-ICRA2007.pdf ).
Стаття є автоматичним виявленням вищого типу: байєсівський підхід Тінг та ін.