Марковська властивість

У теорії ймовірностей та статистиці термін ма́рковська власти́вість (Шаблон:Lang-en) відноситься до властивості Шаблон:Нп в стохастичного процесу. Його названо на честь російського математика Андрія Маркова.[1]
Стохастичний процес має марковську властивість, якщо умовний розподіл імовірності майбутніх станів цього процесу (обумовлених як минулими, так і поточними станами) залежить лише від поточного стану, а не від послідовності подій, яка передувала йому. Процес із такою властивістю називається марковським процесом (Шаблон:Lang-en). Термін си́льна ма́рковська власти́вість (Шаблон:Lang-en) подібний до марковської властивості, за винятком того, що розуміння «поточного» визначається в термінах випадкової величини, відомої як момент зупину. Обидва терміни «марковська властивість» та «сильна марковська властивість» застосовувалися у зв'язку з особливою властивістю «відсутності пам'яті» експоненційного розподілу.[2]
Термін ма́рковське припу́щення (Шаблон:Lang-en) використовується для опису моделі, в якій передбачається дотримання марковської властивості, наприклад, прихованої марковської моделі.
Марковське випадкове поле (Шаблон:Lang-en)[3] розширює цю властивість на два або більше вимірів, або на випадкові величини, визначені для мережі взаємозв'язаних елементів. Прикладом моделі такого поля є модель Ізінга.
Стохастичний процес Шаблон:Нп, який задовольняє марковську властивість, відомий як марковський ланцюг.
Введення
Стохастичний процес має марковську властивість, якщо умовний розподіл імовірності майбутніх станів цього процесу (обумовлених як минулими, так і поточними станами) залежить лише від поточного стану; тобто, з огляду на теперішнє, майбутнє не залежить від минулого. Процес із цією властивістю називають марковіа́ном (Шаблон:Lang-en), або ма́рковським проце́сом (Шаблон:Lang-en). Найвідомішим марковським процесом є марковський ланцюг. Також добре відомим марковським процесом є броунівський рух.
Історія
Визначення
Нехай є ймовірнісним простором з фільтрацією для деякої (лінійно впорядкованої) індексної множини , і нехай є вимірним простором. Про -значний стохастичний процес , пристосований до цієї фільтрації, кажуть, що він володіє марковською властивістю, якщо для будь-якої та будь-яких з
В разі, коли є дискретною множиною з дискретною сигма-алгеброю, а , це може бути переформульовано наступним чином:
- .
Альтернативні формулювання
Марковська властивість може мати наступне альтернативне формулювання.
для всіх та обмежених і вимірних .[5]
Сильна марковська властивість
Припустімо, що є стохастичним процесом на ймовірнісному просторі з природною фільтрацією . Для будь-якого ми можемо визначити паросткову сигма-алгебру як перетин усіх для . Тоді для будь-якого моменту зупину на ми можемо визначити
- .
Тоді про кажуть, що він має сильну марковську властивість, якщо для кожного моменту зупину , обумовленого подією , ми маємо, що для кожного , є незалежним від за заданого .
Сильна марковська властивість передбачає звичайну марковську властивість, оскільки сильну марковську властивість може бути зведено до неї взяттям моменту зупину .
Приклади
Припустімо, що урна містить дві червоні кулі й одну зелену. Одну кулю витягли вчора, одну кулю витягли сьогодні, й останню кулю витягнуть завтра. Всі витягування є «без повернення».
Припустімо, що вам відомо, що сьогоднішня куля була червоною, але ви не маєте інформації про вчорашню кулю. Шанс того, що завтрашня куля буде червоною, складає 1/2. Це тому, що для цього випадкового експерименту лишилося лише два результати:
| День | Результат 1 | Результат 2 |
|---|---|---|
| Вчора | Червона | Зелена |
| Сьогодні | Червона | Червона |
| Завтра | Зелена | Червона |
З іншого боку, якщо ви знаєте, що як сьогоднішня, так і вчорашня кулі були червоними, тоді вам гарантовано отримати завтра зелену кулю.
Ця невідповідність показує, що розподіл імовірності завтрашнього кольору залежить не лише від поточного значення, але знаходиться також і під впливом інформації про минуле. Цей стохастичний процес спостережуваних кольорів не має марковської властивості. При використанні такого ж експерименту, як наведено вище, якщо «вибірку без повернення» замінено «вибіркою з поверненням», процес спостережуваних кольорів марковську властивість матиме.[6]
Застосуванням марковської властивості в узагальненому вигляді є обчислення Монте-Карло марковських ланцюгів у контексті баєсової статистики.
Див. також
- Марковський ланцюг
- Марковське покриття
- Марковський процес вирішування
- Шаблон:Нп
- Марковська модель
- Рівняння Чепмена — Колмогорова
Джерела
- Шаблон:Карташов.Імовірність процеси статистика
- Шаблон:Гнеденко.Курс теории вероятностей
- Шаблон:Гіхман.Скороход.Ядренко
- Шаблон:Гихман.Скороход.Введение в теорию случайных процессов
Примітки
- ↑ Шаблон:Cite journal Шаблон:Ref-ru
- ↑ Feller, W. (1971) Introduction to Probability Theory and Its Applications, Vol II (2nd edition),Wiley. ISBN 0-471-25709-5 (pages 9 and 20) Шаблон:Ref-en
- ↑ Dodge, Y. (2003) The Oxford Dictionary of Statistical Terms OUP. ISBN 0-19-850994-4 Шаблон:Ref-en
- ↑ Durrett, Rick. Probability: Theory and Examples. Fourth Edition. Cambridge: Cambridge University Press, 2010. Шаблон:Ref-en
- ↑ Шаблон:Cite book Шаблон:Ref-en
- ↑ Шаблон:Cite web Шаблон:Ref-en