Ланцюг Маркова

Матеріал з testwiki
Перейти до навігації Перейти до пошуку
Матриця ймовірностей переходу і граф переходів однорідного ланцюга Маркова з п'ятьма станами

Ланцюг Маркова в математиці це випадковий процес, що задовольняє властивість Маркова і який приймає скінченну чи зліченну кількість значень (станів). Існують ланцюги Маркова як з дискретним так і з неперервним часом. В даній статті розглядається дискретний випадок.


Визначення

Інтуїтивне визначення

Нехай I — деяка скінченна чи зліченна множина елементи якої називаються станами. Нехай деякий процес в момент часу n (де n=0,1,2,3…) може перебувати в одному із цих станів, а в час n+1 перейти в деякий інший стан (чи залишитися в тому ж). Кожен такий перехід називається кроком. Кожен крок не є точно визначеним. З певними ймовірностями процес може перейти в один з кількох чи навіть усіх станів. Якщо імовірності переходу залежать лише від часу n і стану в якому перебуває процес в цей час і не залежать від станів в яких процес перебував у моменти 0, 1, … , n-1 то такий процес називається (дискретним) ланцюгом Маркова. Ланцюг Маркова повністю задається визначенням ймовірностей pi перебування процесу в стані iI в час n=0 і ймовірностей pij(n) переходу зі стану iI в станjI в час n. Якщо ймовірності переходу не залежать від часу (тобто pij(n) однакові для всіх n) то такий ланцюг Маркова називається однорідним. Саме однорідні ланцюги Маркова є найважливішими на практиці і найкраще вивченими теоретично. Тому саме їм приділятиметься найбільша увага у цій статті.

Формальне визначення

Послідовність дискретних випадкових величин {Xn}n0 називається ланцюгом Маркова (з дискретним часом), якщо

(Xn+1=in+1Xn=in,Xn1=in1,,X0=i0)=(Xn+1=in+1Xn=in).

Тобто майбутні значення послідовності залежать лише від теперішнього стану і не залежать від минулих.

Матриця P(n), де

Pij(n)(Xn+1=jXn=i)

називається ма́трицею ймовірностей переходу на n-му кроці, а вектор 𝐩=(p1,p2,), де

pi(X0=i) — початковим розподілом ланцюга Маркова.

Очевидно, матриця ймовірностей переходу є стохастичною, тобто

j=1Pij(n)=1,n.

Ланцюг Маркова називається однорідним якщо:

Pij(n)=Pij,n,

або еквівалентно:

Pr(Xn+1=j|Xn=i)=Pr(Xn=j|Xn1=i)

для всіх n.

Граф переходів ланцюга Маркова

Поширеним способом візуального задання ланцюга Маркова є граф переходів. Вершини цього графа ототожнюються зі станами ланцюга Маркова, а орієнтовне ребро проходить з вершини i у вершину j проходить лише у випадку коли імовірність переходу між відповідними станами нерівна нулю. Дана ймовірність переходу також позначається біля відповідного ребра.

Теорема про матрицю ймовірностей переходу за n кроків

Нехай маємо однорідний ланцюг Маркова з матрицею ймовірностей переходу P. Позначимо:

pi,j(k)=(Xn+k=jXn=i),

Оскільки ланцюг Маркова є однорідним то дане означення не залежить від n. Тоді виконується рівність

(Pk)(i,j)=(pi,j(k)).

де (Pk)(i,j)  — елемент i-го рядка і j-го стовпчика матриці Pk.

Доведення

Доведення здійснюватимемо методом математичної індукції. Для одного кроку це є наслідком однорідності і визначення матриці ймовірностей переходу:

(Xn+1=jXn=i)=(X1=jX0=i)=Pij

Для  k  кроків одержуємо:

(Xn=iXn+k=j)=E(Xn=i,Xn+k1=Xn+k=j)=E(Xn=i,Xn+k1=) (Xn+k=jXn=i,Xn+k1=)=E(Xn=i,Xn+k1=) p,j=(Xn=i) EPi,k1 p,j=(Xn=i) Pi,jk,:

Остаточно pi,j(k)=(Xn=iXn+k=j)(Xn=i)=Pi,jk

при доведенні

  • першої і другої рівності використана формула повної ймовірності,
  • третьої рівності використана властивість Маркова,
  • четвертої рівності використано припущення індукції для  k1,
  • п'ятої рівності використано означення множення матриць.

Відповідно, якщо 𝐩=(p1,p2,)  — початковий розподіл ланцюга Маркова, то ((PT)n𝐩) є вектором розподілу ймовірностей перебування в різних станах в час n.

Властивості ланцюгів Маркова

Нерозкладність

Стан j називається досяжним із стану i, якщо існує n=n(i,j) таке, що

pij(n)(Xn=jX0=i)>0.

Для цього факту використовується позначення ij.

Якщо одночасно ij та ji, то використовується позначення ij. Дане відношення є відношенням еквівалентності. Якщо вся множина станів належить до одного класу еквівалентності, то такий ланцюг Маркова називається нерозкладним. Простіше ланцюг Маркова називається нерозкладним, якщо з будь-якого його стану можна досягти будь-який інший стан за скінченну кількість кроків.

Якщо з стану, що належить деякому класу можна перейти лише в інший стан цього класу то такий клас називається замкнутим.

Періодичність

Стан i має період k якщо будь-яке повернення до стану i трапляється через кількість кроків, що ділиться на k. Формально період можна визначити за допомогою наступної формули:

k=gcd{n:Pr(Xn=i|X0=i)>0}

(де «gcd» позначає найбільший спільний дільник).

Якщо k=1, тоді стан називається аперіодичним. В іншому випадку (k>1), стан називається періодичним з періодом k. Ланцюг Маркова є апериодичним, якщо кожен стан є апериодичним. Для доведення апериодичності нерозкладного ланцюга Маркова, достатньо знайти хоча б один апериодичний стан. Бо в кожному класі досяжності всі стани мають однаковий період.

Кожен стан двочасткового графу має парний період.

Рекурентність

Стан i називається перехідним якщо, існує ненульова ймовірність, що починаючи з i, ми ніколи не повернемося в стан i. Більш формально нехай випадкова змінна Ti є часом першого повернення в стан i:

Ti=inf{n1:Xn=i|X0=i}.

Тоді стан i є перехідним тоді й лише тоді, коли:

Pr(Ti=)>0.

Якщо стан не є перехідним, то він називається рекурентним. Неважко помітити, що якщо стан є перехідним, то імовірність повернення в цей стан нескінченну кількість разів рівна нулю. У випадку рекурентного стану ця імовірність рівна одиниці. Тобто, перехідний — це такий стан, який процес в певний момент часу покидає назавжди, а рекурентний — це такий стан до якого процес постійно повертається.

Визначимо також математичне сподівання часу повернення:

Mi=E[Ti].

Для перехідного стану ця величина очевидно рівна нескінченності. Для рекурентних станів {Mi} може бути як скінченним, так і нескінченним. Стан i називається позитивно рекурентним, якщо Mi є скінченне; в іншому випадку i називається нуль-рекурентним. Стан i є рекурентним тоді й лише тоді коли:

n=0pii(n)=.

В одному класі досяжності або всі елементи є перехідними або всі елементи є рекурентними. Стан i називається поглинаючим якщо його неможливо покинути. Тобто:

pii=1,pij=0i=j.

Стан ланцюга Маркова, що є позитивно рекурентним і аперіодичним називається ергодичним станом.

Граничний розподіл

Для однорідного ланцюга Маркова вектор π називається стаціонарним розподілом, якщо сума його елементів πj дорівнює 1 і виконується рівність

πj=iSπipij.

Нерозкладний ланцюг має стаціонарний розподіл тоді й лише тоді, коли всі його стани є позитивно рекурентними. В цьому випадку вектор π є єдиним і виконується рівність:

πj=1Mj.

Якщо ланцюг окрім того є ще й аперіодичним, тоді для всіх i та j виконується:

πj=limnpij(n)=1Mj.

Такий вектор π називається розподілом рівноваги.

Граничний розподіл для ланцюга Маркова зі скінченною множиною станів

У випадку скінченної множини станів π є вектор-рядком, що задовольняє рівність:

π=π𝐏.

Тобто π є власним вектором матриці ймовірностей переходу, що відповідає власному значенню 1 і сума елементів якого дорівнює одиниці.

Якщо ланцюг Маркова є нерозкладним і аперіодичним, тоді існує єдиний стаціонарний вектор і, крім того, виконується рівність:

limk𝐏k=𝟏π

де 1 вектор-стовпець всі елементи якого рівні 1.

Приклад

Розглянемо основні дії з ланцюгами Маркова на наступному прикладі:

P=[0,90,050,050,700,30,800,2]

Візьмемо початковий розподіл

𝐩(0)=[100]

Після першого кроку одержимо розподіл:

𝐩(1)=𝐩(0)P=[100][0,90,050,050,700,30,800,2]=[0,90,050,05]

Після двох кроків отримаємо наступний розподіл:

𝐩(2)=𝐩(1)P=𝐩(0)P2=[100][0,90,050,050,700,30,800,2]2=[0,8850,0450,07]

Далі можна продовжити за формулами:

𝐩(n)=𝐩(n1)P
𝐩(n)=𝐩(0)Pn

Оскільки даний ланцюг Маркова є нерозкладний і аперіодичний існує єдиний граничний розподіл π :

π=limn𝐩(n)

Його можна знайти за такими формулами:

πP=π(π est la loi invariante par rapport a P.)=πIπ(IP)=𝟎=π([100010001][0,90,050,050,700,30,800,2])=π[0,10,050,050,710,30,800,8]=[π1π2π3][0,10,050,050,710,30,800,8]=[000]

З умови π1+π2+π3=1,одержується єдиний результат :

[π1π2π3]=[0,8840,04420,0718]

Історія

Шаблон:Section-stub

Андрій Марков отримав перші результати для таких процесів суто теоретично в 1906.

Див. також

Джерела

  • Шаблон:Карташов.Імовірність процеси статистика
  • Шаблон:Гантмахер.Теорія матриць
  • Марков А. А., Распространение закона больших чисел на величины, зависящие друг от друга. — Известия физико-математического общества при Казанском университете. — 2-я серия. — Том 15. (1906) — С. 135—156.
  • Чжун Кай-лай, Однородные цепи Маркова. Перев. с англ. — М.: Мир, 1964. — 425 с.
  • Нуммелин Э., Общие неприводимые цепи Маркова и неотрицательные операторы. — М.: Мир, 1989. — 207 с.
  • Kemeny J. G., Snell J. L., Finite Markov chains. — The University Series in Undergraduate Mathematics. — Princeton: Van Nostrand, 1960 (Кемени Дж. Дж., Снелл Дж. Л. Конечные цепи Маркова. — М.: Наука. 1970. — 272 с.)
  • S. P. Meyn and R. L. Tweedie. Markov Chains and Stochastic Stability. London: Springer-Verlag, 1993. ISBN 0-387-19832-6.

Шаблон:Statistics-stub