Y має два можливих значення для будь-якого заданого значення X . Згідно з припущеннями,
Пр ( X= х | Y= 0 ) = Досвід( - λ0) λх0х !
і
Пр ( X= х | Y= 1 ) = Досвід( - λ1) λх1х !.
Тому (це тривіальний випадок теореми Байєса) ймовірність того, що умовна на є відносною ймовірністю останньої, а самеY= 1Х= х
Пр ( У= 1 | Х= х ) = досвід( - λ1) λх1х !досвід( - λ1) λх1х !+ досвід( - λ0) λх0х != 11 + експ( β0+ β1х )
де
β0= λ1- λ0
і
β1= - журнал( λ1/ λ0) .
Це дійсно стандартна модель логістичної регресії.