Марковська властивість

Матеріал з testwiki
Перейти до навігації Перейти до пошуку
Одиночна реалізація тривимірного броунівського руху для часу 0 ≤ t ≤ 2. Броунівський рух має марковську властивість, оскільки зміщення частинки не залежить від її попередніх зміщень.

У теорії ймовірностей та статистиці термін ма́рковська власти́вість (Шаблон:Lang-en) відноситься до властивості Шаблон:Нп в стохастичного процесу. Його названо на честь російського математика Андрія Маркова.[1]

Стохастичний процес має марковську властивість, якщо умовний розподіл імовірності майбутніх станів цього процесу (обумовлених як минулими, так і поточними станами) залежить лише від поточного стану, а не від послідовності подій, яка передувала йому. Процес із такою властивістю називається марковським процесом (Шаблон:Lang-en). Термін си́льна ма́рковська власти́вість (Шаблон:Lang-en) подібний до марковської властивості, за винятком того, що розуміння «поточного» визначається в термінах випадкової величини, відомої як момент зупину. Обидва терміни «марковська властивість» та «сильна марковська властивість» застосовувалися у зв'язку з особливою властивістю «відсутності пам'яті» експоненційного розподілу.[2]

Термін ма́рковське припу́щення (Шаблон:Lang-en) використовується для опису моделі, в якій передбачається дотримання марковської властивості, наприклад, прихованої марковської моделі.

Марковське випадкове поле (Шаблон:Lang-en)[3] розширює цю властивість на два або більше вимірів, або на випадкові величини, визначені для мережі взаємозв'язаних елементів. Прикладом моделі такого поля є модель Ізінга.

Стохастичний процес Шаблон:Нп, який задовольняє марковську властивість, відомий як марковський ланцюг.

Введення

Стохастичний процес має марковську властивість, якщо умовний розподіл імовірності майбутніх станів цього процесу (обумовлених як минулими, так і поточними станами) залежить лише від поточного стану; тобто, з огляду на теперішнє, майбутнє не залежить від минулого. Процес із цією властивістю називають марковіа́ном (Шаблон:Lang-en), або ма́рковським проце́сом (Шаблон:Lang-en). Найвідомішим марковським процесом є марковський ланцюг. Також добре відомим марковським процесом є броунівський рух.

Історія

Шаблон:Main

Визначення

Нехай (Ω,,) є ймовірнісним простором з фільтрацією (s, sI) для деякої (лінійно впорядкованої) індексної множини I, і нехай (S,𝒮) є вимірним простором. Про (S,𝒮)-значний стохастичний процес X=(Xt, tI), пристосований до цієї фільтрації, кажуть, що він володіє марковською властивістю, якщо для будь-якої A𝒮 та будь-яких s,tI з s<t

(XtA|s)=(XtA|Xs).[4]

В разі, коли S є дискретною множиною з дискретною сигма-алгеброю, а I=, це може бути переформульовано наступним чином:

(Xn=xn|Xn1=xn1,,X0=x0)=(Xn=xn|Xn1=xn1).

Альтернативні формулювання

Марковська властивість може мати наступне альтернативне формулювання.

𝔼[f(Xt)|s]=𝔼[f(Xt)|σ(Xs)]

для всіх ts0 та обмежених і вимірних f:S.[5]

Сильна марковська властивість

Припустімо, що X=(Xt:t0) є стохастичним процесом на ймовірнісному просторі (Ω,,) з природною фільтрацією {t}t0. Для будь-якого t0 ми можемо визначити паросткову сигма-алгебру t+ як перетин усіх s для s>t. Тоді для будь-якого моменту зупину τ на Ω ми можемо визначити

τ+={A:{τ=t}At+,t0}.

Тоді про X кажуть, що він має сильну марковську властивість, якщо для кожного моменту зупину τ, обумовленого подією {τ<}, ми маємо, що для кожного t0, Xτ+t є незалежним від τ+ за заданого Xτ.

Сильна марковська властивість передбачає звичайну марковську властивість, оскільки сильну марковську властивість може бути зведено до неї взяттям моменту зупину τ=t.

Приклади

Припустімо, що урна містить дві червоні кулі й одну зелену. Одну кулю витягли вчора, одну кулю витягли сьогодні, й останню кулю витягнуть завтра. Всі витягування є «без повернення».

Припустімо, що вам відомо, що сьогоднішня куля була червоною, але ви не маєте інформації про вчорашню кулю. Шанс того, що завтрашня куля буде червоною, складає 1/2. Це тому, що для цього випадкового експерименту лишилося лише два результати:

День Результат 1 Результат 2
Вчора Червона Зелена
Сьогодні Червона Червона
Завтра Зелена Червона

З іншого боку, якщо ви знаєте, що як сьогоднішня, так і вчорашня кулі були червоними, тоді вам гарантовано отримати завтра зелену кулю.

Ця невідповідність показує, що розподіл імовірності завтрашнього кольору залежить не лише від поточного значення, але знаходиться також і під впливом інформації про минуле. Цей стохастичний процес спостережуваних кольорів не має марковської властивості. При використанні такого ж експерименту, як наведено вище, якщо «вибірку без повернення» замінено «вибіркою з поверненням», процес спостережуваних кольорів марковську властивість матиме.[6]

Застосуванням марковської властивості в узагальненому вигляді є обчислення Монте-Карло марковських ланцюгів у контексті баєсової статистики.

Див. також

Джерела

Примітки

Шаблон:Примітки

  1. Шаблон:Cite journal Шаблон:Ref-ru
  2. Feller, W. (1971) Introduction to Probability Theory and Its Applications, Vol II (2nd edition),Wiley. ISBN 0-471-25709-5 (pages 9 and 20) Шаблон:Ref-en
  3. Dodge, Y. (2003) The Oxford Dictionary of Statistical Terms OUP. ISBN 0-19-850994-4 Шаблон:Ref-en
  4. Durrett, Rick. Probability: Theory and Examples. Fourth Edition. Cambridge: Cambridge University Press, 2010. Шаблон:Ref-en
  5. Шаблон:Cite book Шаблон:Ref-en
  6. Шаблон:Cite web Шаблон:Ref-en