З вступу до стохастичного моделювання Пінського та Карліна (2011):
Обмежувальний розподіл, коли він існує, завжди є стаціонарним розподілом, але зворотне не відповідає дійсності. Може існувати стаціонарний розподіл, але не обмежує розподіл. Наприклад, немає обмежувального розподілу для періодичного ланцюга Маркова, матриця ймовірності переходу якого є
але є нерухомим розподілом, оскільки
(стор. 205). π = ( 1
Р = ∥∥∥0110∥∥∥
(1π= ( 12, 12)( 12, 12) ∥∥∥0110∥∥∥= ( 12, 12)
У попередньому розділі, вони вже визначили « граничне розподіл ймовірностей » поπ
limn → ∞П( n )i j= πj fo r j=0,1,…,N
і рівнозначно
limn → ∞Пр{ Xн= j | Х0= i } = πj> 0 f o r j=0,1,…,N
(с. 165).
Наведений вище приклад коливається детерміновано, і тому не має межі так само, як у послідовності немає межі.{ 1 , 0 , 1 , 0 , 1 , … }
Вони констатують, що звичайний ланцюг Маркова (у якому всі ймовірності переходу n-кроків є позитивними) завжди має обмежувальне поширення, і доводить, що він повинен бути унікальним негативним рішенням для
πj= ∑k = 0NπкПk j, j = 0 , 1 , … , N ,∑k = 0Nπк= 1
(стор. 168 )
Потім на тій же сторінці, що і в прикладі, вони пишуть
Будь-який набір задовольняє (4.27), називається стаціонарним розподілом ймовірності ланцюга Маркова. Термін "стаціонарний" походить від властивості, яку ланцюг Маркова, розпочату відповідно до стаціонарного розподілу, буде слідкувати за цим розподілом у всі моменти часу. Формально, якщо , то для всіх . Pr { X 0 = i } = π i Pr { X n = i } = π i n = 1 , 2 , …( πi)∞i = 0Пр{ X0= i } = πiПр{ Xн= i } = πin = 1 , 2 , …
де (4.27) - сукупність рівнянь
πi≥ 0 , ∑i = 0∞πi= 1 , a n d π j= ∑i = 0∞πiПi j.
що є точно такою ж умовою стаціонарності, як і вище, за винятком нині нескінченної кількості станів.
З цим визначенням стаціонарності висловлювання на сторінці 168 можна буде відновити заднім числом як:
- Обмежувальний розподіл звичайного ланцюга Маркова - це нерухомий розподіл.
- Якщо обмежувальний розподіл ланцюга Маркова є нерухомим розподілом, то стаціонарний розподіл є унікальним.