Баєсове висновування
Ба́єсове висно́вування[1][2] (Шаблон:Lang-en) — це метод статистичного висновування, за яким для уточнення ймовірності гіпотези при отриманні додаткових Шаблон:Нп або інформації застосовують правило Баєса. Баєсове висновування є важливим прийомом у статистиці, особливо в математичній. Баєсове уточнення є особливо важливим у динамічному аналізі послідовностей даних. Баєсове висновування знайшло застосування в широкому діапазоні галузей, включно із наукою, інженерією, філософією, медициною, спортом та правом. У філософії теорії рішень баєсове висновування тісно пов'язано із суб'єктивною ймовірністю, що її часто називають «баєсовою ймовірністю».
Введення до правила Баєса

Шаблон:Головна Шаблон:Див. також
Формальне тлумачення
Баєсове висновування виводить апостеріорну ймовірність як логічний наслідок двох передумов, апріорної ймовірності та «функції правдоподібності», виведеної зі статистичної моделі спостережуваних даних. Баєсове висновування обчислює апостеріорну ймовірність відповідно до теореми Баєса:
де
- позначає «подія за умови» (таким чином, означає A за умови B).
- означає будь-яку гіпотезу (Шаблон:Lang-en), на чию ймовірність можуть вплинути Шаблон:Не перекладено (що називаються нижче свідченням). Часто існують конкуруючі гіпотези, і задача полягає у визначенні того, яка з них є найімовірнішою.
- , апріорна ймовірність, є оцінкою ймовірності гіпотези до спостереження даних , поточного свідчення.
- свідчення (Шаблон:Lang-en) відповідає новим даним, що не використовувалися при обчисленні апріорної ймовірності.
- , апостеріорна ймовірність, є ймовірністю за умови , тобто, після спостереження . Вона є тим, що ми хочемо знати: ймовірністю гіпотези за умови отриманого свідчення.
- є ймовірністю спостереження за умови , і її називають правдоподібністю. Як функція від при незмінній , вона вказує на сумісність свідчення з даною гіпотезою. Функція правдоподібності є функцією від свідчення, , тоді як апостеріорна ймовірність є функцією від гіпотези, .
- іноді називають відособленою правдоподібністю, або «свідченням моделі». Цей множник є однаковим для всіх можливих гіпотез, що розглядаються (що очевидно з того факту, що гіпотеза ніде не з'являється в цьому позначенні, на відміну від усіх інших множників), тож цей множник не входить до визначення відносних ймовірностей різних гіпотез.
Для різних значень на значення впливають лише множники та , обидва в чисельнику, — апостеріорна ймовірність гіпотези є пропорційною її апріорній ймовірності (притаманній їй правдоподібності) та новоотриманій правдоподібності (її сумісності з новим спостереженим свідченням).
Правило Баєса також може бути записано наступним чином:
де множник можна інтерпретувати як вплив на ймовірність .
Альтернативи баєсовому уточненню
Баєсове уточнення широко застосовується та є обчислювально зручним. Однак, це не єдине правило уточнення, що може вважатися раціональним.
Шаблон:Не перекладено зауважив, що традиційні аргументи Шаблон:Не перекладено не визначали використання саме баєсового уточнення: вони залишили відкритою можливість, що не-баєсові правила уточнення можуть обходити голландську систему ставок. Хакінг написав:[3]
Дійсно, існують не-баєсові правила уточнення, що також обходять голландську систему ставок (як обговорюється в літературі про «кінематику ймовірностей») після публікації правила Шаблон:Не перекладено, що застосовує правило Баєса до випадку, коли свідченню самому встановлюється ймовірність.[4] Додаткові гіпотези, необхідні для однозначної вимоги баєсового уточнення, було визнано значними, складними та незадовільними.[5]
Формальний опис баєсового висновування
Позначення
- , точка даних у загальному сенсі. Фактично це може бути вектор значень.
- , параметр розподілу точки даних, тобто, . Фактично це може бути вектор параметрів.
- , гіперпараметр розподілу параметра, тобто, . Фактично це може бути вектор гіперпараметрів.
- є вибіркою, набором спостережуваних точок даних, тобто, .
- , нова точка даних, чий розподіл потрібно передбачити.
Баєсове висновування
- Апріорний розподіл — це розподіл параметра (параметрів) до будь-якого спостереження даних, тобто .
- Визначити апріорний розподіл може бути не так легко. У даному випадку ми можемо скористатися Шаблон:Не перекладено, щоби отримати апостеріорний розподіл перед уточненням його подальшими спостереженнями.
- Вибірковий розподіл — це розподіл спостережуваних даних в залежності від його параметрів, тобто, . Його також називають функцією правдоподібності (Шаблон:Lang-en), особливо коли розглядають його як функцію від параметра (параметрів), що іноді записується як .
- Відособлена правдоподібність (що іноді також називають свідченням) — це розподіл спостережуваних даних, відособлений за параметром (параметрами), тобто, .
- Апостеріорний розподіл — це розподіл параметра (параметрів) після взяття до уваги спостережуваних даних. Він визначається за правилом Баєса, що формує серцевину баєсового висновування:
Зауважте, що словами це виражається як «апостеріорне є пропорційним апріорному, помноженому на правдоподібність», або іноді як «апостеріорне = правдоподібність на апріорне, відносно свідчення».
Баєсове передбачування
- Шаблон:Не перекладено — це розподіл нової точки даних, відособлений за апостеріорним:
- Шаблон:Не перекладено — це розподіл нової точки даних, відособлений за апріорним:
Баєсова теорія передбачає використання апостеріорного передбачуваного розподілу для Шаблон:Не перекладено, тобто, для передбачування розподілу ймовірностей нової, ще не спостережуваної точки даних. Тобто, замість фіксованої точки, як передбачення повертається розподіл ймовірностей над можливими точками. Лише в цьому випадку є повний апостеріорний розподіл параметра (параметрів), що використовуються. Для порівняння, передбачування у частотній статистиці часто полягає у знаходженні оптимальної точкової оцінки параметра (параметрів) — наприклад, методом максимальної правдоподібності або оцінки апостеріорного максимуму — і наступному підставленні цієї оцінки до формули розподілу точки даних. Це має той недолік, що воно не враховує жодної невизначеності у значенні параметра, і відтак недооцінюватиме дисперсію передбачуваного розподілу.
(У деяких випадках частотна статистика може обходити цю проблему. Наприклад, коли довірчі та Шаблон:Не перекладено у частотній статистиці будуються з нормального розподілу з невідомим середнім значенням та дисперсією, вони будуються з використанням t-розподілу Стьюдента. Це дає правильну оцінку дисперсії завдяки тому факту, що (1) середнє значення випадкових величин із нормальним розподілом також має нормальний розподіл; (2) передбачуваний розподіл точки даних з нормальним розподілом та невідомими середнім значенням та дисперсією при використанні спряжених або неінформативних апріорних розподілів має t-розподіл Стьюдента. Однак, у баєсовій статистиці апостеріорний передбачуваний розподіл може завжди визначатися точно — чи, принаймні, з довільним рівнем точності, при застосуванні чисельних методів.)
Зауважте, що обидва типи передбачуваних розподілів мають вигляд Шаблон:Не перекладено (так само, як і відособлена правдоподібність). Справді, якщо апріорний розподіл є спряженим апріорним розподілом, і, отже, апріорний та апостеріорний розподіли походять із одного сімейства, то можна легко переконатися, що як апріорний, так і апостеріорний передбачувані розподіли також походять з одного й того ж сімейства складних розподілів. Різниця лише в тім, що апостеріорний передбачуваний розподіл використовує уточнені значення гіперпараметрів (застосовуючи баєсові правила уточнення, наведені у статті про спряжений апріорний розподіл), тоді як апріорний передбачуваний розподіл використовує значення гіперпараметрів, що фігурують в апріорному розподілі.
Висновування над взаємовиключними вичерпними можливими значеннями
Якщо свідчення використовується для одночасного уточнення переконань над набором взаємовиключних вичерпних можливих значень, то баєсове висновування можна розглядати як таке, що діє над розподілом цих переконань у цілому.
Загальне формулювання

Припустімо, що процес породжує незалежні однаково розподілені події (Шаблон:Lang-en) , але розподіл ймовірностей є невідомим. Нехай простір подій представляє поточний стан переконань для цього процесу. Кожну модель представляють подією . Для визначення моделей вказують умовні ймовірності . є мірою переконання в . Перед першим кроком висновування є набором початкових апріорних ймовірностей. Вони повинні в сумі давати 1, а в іншому можуть бути довільними.
Припустімо, що ми спостерігали, що процес породив . Для кожної апріорна уточнюється до апостеріорної . З теореми Баєса:[6]
Після спостереження подальших свідчень цю процедуру може бути повторено.
Кілька спостережень
Для послідовності незалежних однаково розподілених спостережень за допомогою індукції може бути показано, що повторне застосування наведеного вище еквівалентне
де
Для послідовності, в якій умовну незалежність спостережень гарантовано бути не може, Рейчел Бонд, Ян-Хуей Хе та Томас Ормерод[7] показали з квантової механіки, що
отже,
Параметричне формулювання
При параметризації простору моделей переконання в усіх моделях можуть уточнюватися за один крок. Розподіл переконань над простором моделей може розглядатися як розподіл переконань над простором параметрів. Розподіли в цьому розділі виражаються як безперервні, представлені густинами імовірності, як це й є у звичайній ситуації. Тим не менше, ця методика є так само застосовною й до дискретних розподілів.
Нехай вектор охоплює простір параметрів. Нехай початковим апріорним розподілом над буде , де є набором параметрів самого апріорного розподілу, або гіперпараметрів. Нехай буде послідовністю незалежних однаково розподілених спостережень подій, де всі розподілено як для деякого . Для отримання апостеріорного розподілу над застосовується теорема Баєса:
де
Математичні властивості
Інтерпретація множника
. Тобто, якщо модель була вірною, то свідчення буде правдоподібнішим, ніж передбачено поточним станом переконання. Зворотня ситуація веде до зменшення переконання. Якщо переконання не змінюється, то . Тобто, свідчення не залежить від моделі. Якщо модель була вірною, то свідчення буде правдоподібним рівно настільки, наскільки передбачено поточним станом переконання.
Правило Кромвеля
Якщо , то . Якщо , то . Це може інтерпретуватися так, що категоричні переконання є нечутливими до контр-доказів.
Перше випливає безпосередньо з теореми Баєса. Друге може бути виведено застосуванням першого правила до події «не » замість «», що дасть «якщо , то », з чого результат випливатиме безпосередньо.
Асимптотична поведінка апостеріорного розподілу
Розгляньмо поведінку розподілу переконання у процесі його уточнення велику кількість разів незалежними однаково розподіленими пробами. Для достатньо гарних апріорних ймовірностей Шаблон:Не перекладено дає те, що на границі нескінченних проб апостеріорний розподіл збігається до нормального, незалежно від початкового апріорного розподілу, за певних умов, вперше окреслених та суворо доведених Шаблон:Не перекладено 1948 року, а саме, якщо випадкова змінна у міркуваннях має скінченний імовірнісний простір. Загальніші результати було отримано пізніше статистиком Шаблон:Не перекладено, який опублікував у двох плідних дослідницьких працях 1963[8] та 1965[9] років, коли і за яких обставин гарантується асимптотична поведінка апостеріорного розподілу. Його праця 1963 року, як і праця Дуба 1949 року, розглядає скінченний випадок, і приходить до задовільного результату. Однак, якщо випадкова змінна має нескінченний, але зліченний імовірнісний простір (тобто, відповідає гральній кістці з нескінченною кількістю граней), то праця 1965 року демонструє, що для щільної підмножини апріорних ймовірностей Шаблон:Не перекладено не є застосовною. В цьому випадку асимптотичного збігання майже напевно немає. Пізніше у 1980-х та 1990-х роках Шаблон:Не перекладено та Шаблон:Не перекладено продовжили працювати над випадком нескінченних зліченних імовірнісних просторів.[10] Підсумовуючи, для подолання впливу початкового вибору може бути замало проб, і, особливо у випадку великих (але скінченних) систем, збігання може бути дуже повільним.
Спряжені апріорні розподіли
У параметризованій формі часто вважається, що апріорний розподіл належить до сімейства розподілів, що називається спряженими апріорними розподілами. Корисність спряженого апріорного розподілу полягає в тім, що відповідний апостеріорний розподіл належатиме до того ж сімейства, і його обчислення може бути виражено у замкненому вигляді.
Оцінки параметрів та передбачень
Часто потрібно використовувати апостеріорний розподіл для оцінювання параметра або змінної. Кілька методів баєсового оцінювання вибирають вимірювання центральної тенденції з апостеріорного розподілу.
Для одновимірних задач існує унікальна медіана для практичних безперервних задач. Апостеріорна медіана є привабливою як робастний оцінювач.[11]
Якщо для апостеріорного розподілу існує скінченне середнє значення, тоді апостеріорне середнє є методом оцінювання.[12]
Взяття значення із найбільшою ймовірністю визначає оцінки апостеріорного максимуму (Шаблон:Lang-en):[13]
Існують приклади, в яких не досягається жодного максимуму, і в такому випадку множина оцінок апостеріорного максимуму є порожньою.
Існують інші методи оцінювання, що мінімізують апостеріорний ризик (очікувані апостеріорні втрати) відносно функції втрат, і вони становлять інтерес для статистичної теорії рішень з використанням вибіркового розподілу («частотна статистика»).[14]
Шаблон:Не перекладено нового спостереження (що є незалежним від попередніх спостережень) визначається як
Приклади
Ймовірність гіпотези
Припустімо, є дві повні чаші коржиків. Чаша № 1 містить 10 шоколадних коржиків, і 30 звичайних, тоді як чаша № 2 містить по 20 кожних. Наш друг Петро обирає випадкову чашу, й витягає з неї випадковий коржик. Ми можемо припустити, що немає жодних підстав вважати, що Петро віддає перевагу якійсь із чаш, і аналогічно з коржиками. Коржик виявляється звичайним. Якою є ймовірність того, що Петро взяв його з чаші № 1?
Інтуїтивно здається ясним, що відповідь повинна бути більшою за половину, оскільки простих коржиків у чаші № 1 більше. А точну відповідь дає теорема Баєса. Нехай відповідає чаші № 1, а — чаші № 2. Дано, що з точки зору Петра вони є ідентичними, отже, , і в сумі вони повинні давати 1, тому обидва дорівнюють 0.5. Подія є спостереженням звичайного коржика. Із вмісту чаш нам відомо, що і . Формула Баєса відтак дає
До того, як ми побачили коржик, ймовірність, яку ми призначили виборові Петром чаші № 1, була апріорною ймовірністю, , що дорівнювала 0.5. Після спостереження того коржика ми мусимо переглянути ймовірність до , що дорівнює 0.6.
Здійснення передбачування

Археолог працює на розкопках поселення припусти́мо середньовічного періоду, між XI та XVI століттями. Тим не менш, залишається не ясним, коли саме протягом цього періоду поселення було заселеним. Знайдено уламки кераміки, деякі з них глазуровані, і деякі розписні. Очікується, що якщо поселення було заселеним протягом раннього середньовіччя, то 1 % кераміки буде глазурованим, і 50 % його поверхні буде розписано, тоді як якщо воно було заселеним пізнього середньовіччя, то 81 % буде глазурованим, і 5 % його площі буде розписано. Наскільки впевненим може бути археолог у даті заселення у процесі викопування уламків?
Необхідно обчислювати міру переконання у безперервній змінній (століття), маючи дискретний набір подій (де — глазурованість, а — наявність розпису) як свідчення. Припускаючи лінійну зміну глазурованості та розпису протягом часу та те, що ці змінні є незалежними,
Припустімо, що апріорним є неперервний рівномірний розподіл , і що проби є незалежними однаково розподіленими. Коли виявляється новий уламок типу , застосовується теорема Баєса для уточнення міри переконання у кожному :
На графіку зображено комп'ютерну симуляцію зміни переконання в процесі викопування 50 уламків. У цій симуляції поселення було заселено близько 1420 року, або . За допомогою обчислення площі під відповідною частиною цього графіка для 50 проб археолог може стверджувати, що практично немає шансів, що це поселення було заселеним в XI та XII століттях, близько 1 % складає шанс того, що воно було заселеним протягом XIII століття, 63 % шансів протягом XIV століття та 36 % протягом XV століття. Зауважте, що Шаблон:Не перекладено стверджує, що тут має місце асимптотичне збігання до «справжнього» розподілу, оскільки ймовірнісний простір, що відповідає дискретному наборові подій , є скінченним (див. вище розділ про асимптотичну поведінку апостеріорного розподілу).
У частотній статистиці та теорії рішень
Обґрунтування використання баєсового висновування в теорії рішень було зроблено Абрахамом Вальдом, який довів, що будь-яка унікальна баєсова процедура є Шаблон:Не перекладено. І навпаки, кожна Шаблон:Не перекладено статистична процедура є або баєсовою процедурою, або границею баєсових процедур.[15]
Валд охарактеризував прийнятні процедури як баєсові процедури (та границі баєсових процедур), зробивши баєсів формалізм центральною методикою в таких галузях частотного висновування як оцінювання параметрів, перевірка гіпотез та обчислення довірчих інтервалів.[16][17][18] Наприклад:
Обирання моделі
Застосування
Комп'ютерні застосування
Баєсове висновування має застосування в штучному інтелекті та експертних системах. Методики баєсового висновування були фундаментальною частиною методик комп'ютеризованого розпізнавання образів з кінця 1950-х років. Також існує й постійно зростає зв'язок між баєсовими методами та методиками Монте Карло на основі симуляцій, оскільки складні моделі не можуть оброблюватися в замкненому вигляді баєсовим аналізом, тоді як структури графових моделей можуть уможливлювати ефективні симуляційні алгоритми, такі як Шаблон:Не перекладено та інші схеми алгоритму Метрополіса — Гастінгса.[19] З цих причин баєсове висновування нещодавно завоювало популярність серед спільноти філогенетиків; деякі із застосувань дозволяють одночасно оцінювати багато демографічних та еволюційних параметрів.
Що стосується статистичної класифікації, то баєсове висновування застосовувалося у нещодавні роки для розробки алгоритмів ідентифікації Шаблон:Не перекладено. До застосунків, що використовують баєсове висновування для фільтрування спаму, належать Шаблон:Не перекладено, Шаблон:Не перекладено, Шаблон:Не перекладено, SpamAssassin, Mozilla, XEAMS та інші. Класифікація спаму розглядається докладніше у статті про наївний баєсів класифікатор.
Шаблон:Не перекладено є теорією передбачування, що ґрунтується на спостереженнях; наприклад, передбачення наступного символу ґрунтується на заданій серії символів. Єдиним припущенням є те, що середовище слідує якомусь невідомому, проте обчислюваному розподілу ймовірності. Це є формальна індуктивна структура, що поєднує в собі два гарно вивчені принципи індуктивного висновування: баєсову статистику та бритву Оккама.[20] Універсальна апріорна ймовірність Соломонова будь-якого префіксу p обчислюваної послідовності x — це сума ймовірностей усіх програм (для універсального комп'ютера), що обчислюють щось, що починається з p. При заданому деякому p та будь-якому обчислюваному але невідомому розподілі ймовірності, з якого вибирається x, для передбачування ще небачених частин x оптимальним чином можуть використовуватися універсальний апріорний розподіл та теорема Баєса.[21][22]
У залі суду
Баєсове висновування може застосовуватися присяжними, щоби послідовно накопичувати свідчення за та проти підсудного, і бачити, чи вони в сукупності відповідають їхньому особистому порогові «поза розумним сумнівом».[23][24][25] Теорема Баєса застосовується послідовно до усіх представлених свідчень так, що апостеріорне переконання з однієї стадії стає апріорним для наступної. Баєсів підхід корисний тим, що він надає присяжному неупереджений раціональний механізм для поєднання свідчень. Пояснювати теорему Баєса присяжним може бути доречно у формі шансів, оскільки Шаблон:Не перекладено є зрозумілими ширшому загалові, аніж імовірності. Крім того, для присяжного може бути зрозумілішим Шаблон:Не перекладено, що замінює множення додаванням.

Якщо в існуванні злочину сумніву немає, а є лише в особі обвинуваченого, то радять як апріорний використовувати рівномірний розподіл над визначеною сукупністю.[26] Наприклад, якщо 1 000 людей могли скоїти цей злочин, то апріорною ймовірністю провинності буде 1/1000.
Використання теореми Баєса присяжними є дискусійним. У Сполученому Королівстві судовий експерт захисту пояснив теорему Баєса суду присяжних у справі Шаблон:Не перекладено. Суд присяжних визнав відповідача винним, але на це рішення було подано апеляцію на тій підставі, що не було надано засобів акумулювання свідчень для тих присяжних, що не хотіли використовувати теорему Баєса. Апеляційний суд залишив вирок у силі, але також зробив висновок, що
Гарднер-Медвін[27] переконує, що критерієм, на якому повинен базуватися вирок у кримінальній справі, є не ймовірність провини, а швидше ймовірність свідчення за умови невинності відповідача (близька до частотного p-значення). Він стверджує, що якщо апостеріорна ймовірність провини має обчислюватися за теоремою Баєса, то мусить бути відомою апріорна ймовірність провини. А вона залежатиме від сфери злочину, яка є незвичним свідченням для розгляду в кримінальній справі. Розгляньмо наступні три твердження:
- А Відомі факти та показання свідків могли би виникнути, якби відповідач був винним
- Б Відомі факти та показання свідків могли би виникнути, якби відповідач був невинним
- В Відповідач є винним.
Гарднер-Медвін стверджує, що для винесення обвинувального вироку суд присяжних повинен переконатися як в А, так і в не-Б. З А та не-Б випливає істинність В, але зворотнє не є вірним. Існує можливість, що вірними є Б та В, але в цьому випадку він стверджує, що суд присяжних повинен винести виправдувальний вирок, незважаючи на те, що вони знають, що дозволяють звільнитися деяким винним людям. Див. також парадокс Ліндлі.
Баєсова епістемологія
Баєсова епістемологія є рухом, що виступає за баєсове висновування як засіб обґрунтування правил індуктивної логіки.
Карл Поппер та Шаблон:Не перекладено відкинули нібито раціональність баєсовизму, тобто використання правила Баєса для здійснення епістемологічного висновування:[28] він схильний до того ж порочного кола, що й будь-яка інша виправдовувальна епістемологія, оскільки спирається на те, що намагається виправдати. Відповідно до цієї точки зору, раціональна інтерпретація баєсового висновування бачитиме його лише як імовірнісну версію фальсифікаціонізму, заперечуючи переконання, поширене серед баєсовистів, що висока правдоподібність, досягнута послідовністю баєсових уточнень, доводитиме гіпотезу поза розумним сумнівом, чи навіть із правдоподібністю, більшою за 0.
Інші
- Науковий метод іноді інтерпретують як застосування баєсового висновування. З цієї точки зору правило Баєса скеровує (або повинне скеровувати) уточнення ймовірностей гіпотези в залежності від нових спостережень або експериментів.[29] Баєсове висновування також було застосовувано Цаєм та ін. (2009) до задач Шаблон:Нп з неповною інформацією.[30]
- Шаблон:Не перекладено застосовується для пошуку загублених об'єктів.
- Шаблон:Не перекладено
- Шаблон:Не перекладено
- Шаблон:Нп досліджують мозок як баєсів механізм.
- Баєсове висновування в екологічних дослідженнях[31][32]
- Баєсове висновування застосовують для оцінювання параметрів у стохастичних хімічних кінетичних моделях[33]
Баєс та баєсове висновування
Задачею, розглянутою Баєсом у Пропозиції 9 його «Шаблон:Не перекладено», є апостеріорний розподіл параметра a (доля успішних спроб) біноміального розподілу.[34]
Історія
Термін баєсів стосується Томаса Баєса (1702—1761), який довів окремий випадок того, що зараз називають теоремою Баєса. Однак, впровадив загальну версію цієї теореми та застосовував її для підходу до задач небесної механіки, медичної статистики, надійності та юриспруденції П'єр-Симон Лаплас (1749—1827).[35] Раннє баєсове висновування, що використовувало рівномірний апріорний розподіл згідно лапласового Шаблон:Не перекладено, називалося «Шаблон:Не перекладено» (оскільки воно здійснює зворотне висновування від спостережень до параметрів, або від наслідків до причин[36]). Після 1920-х років «зворотну ймовірність» було значною мірою витіснено набором методів, що стали називати частотною статистикою.[36]
У XX столітті ідеї Лапласа отримали подальший розвиток у двох різних напрямках, давши початок об'єктивній та суб'єктивній течіям у баєсовій практиці. В об'єктивній, або «неінформативній» течії статистичний аналіз покладається лише на передбачувану модель, аналізовані дані[37] та метод призначення апріорного розподілу, що відрізняється від одного об'єктивного баєсового висновування до іншого. У суб'єктивній, або «інформативній» течії визначення апріорного розподілу залежить від переконання (тобто тверджень, для дії на яких готується аналіз), що може підсумовувати інформацію від експертів, попередніх досліджень тощо.
У 1980-х роках відбувся різкий ріст досліджень та застосувань баєсових методів, обумовлений головним чином відкриттям методів Монте-Карло марковських ланцюгів, що усунули багато обчислювальних проблем, і ростом зацікавлення у нестандартних, складних застосуваннях.[38] Незважаючи на зростання баєсових досліджень, більшість викладання студентам і досі ґрунтується на частотній статистиці.[39] Тим не менше, баєсові методи є широко визнаними та застосовуваними, як наприклад у галузі машинного навчання.[40]
Див. також
- Теорема Баєса
- Шаблон:Не перекладено, журнал ISBA
- Баєсове ієрархічне моделювання
- Баєсова ймовірність
- Баєсова регресія
- Баєсів структурний часовий ряд (БСЧР, Шаблон:Lang-en)
- Частотницьке висновування
- Шаблон:Не перекладено
- Шаблон:Не перекладено (Шаблон:Lang-en)
- Шаблон:Не перекладено
- Парадокс Монті Голла
- Шаблон:Нп
Примітки
Джерела
- Aster, Richard; Borchers, Brian, та Thurber, Clifford (2012). Parameter Estimation and Inverse Problems, Second Edition, Elsevier. Шаблон:ISBN, Шаблон:ISBN Шаблон:Ref-en
- Шаблон:Cite book Шаблон:Ref-en
- Шаблон:Не перекладено та Tiao, G. C. (1973) Bayesian Inference in Statistical Analysis, Wiley, Шаблон:ISBN Шаблон:Ref-en
- Шаблон:Cite book Шаблон:Ref-en
- Шаблон:Cite book Шаблон:Ref-en
- Шаблон:Cite journal Шаблон:Ref-en
- Шаблон:Не перекладено (2003) Probability Theory: The Logic of Science, CUP. Шаблон:ISBN (Link to Fragmentary Edition of March 1996 Шаблон:Webarchive). Шаблон:Ref-en
- Шаблон:Cite book Шаблон:Ref-en
- Шаблон:Cite book Шаблон:Ref-en
Література
- Повний звіт з історії баєсової статистики та дебати з частотними підходами читайте у Шаблон:Cite book Шаблон:Ref-en
Початкова
Наступні книги перелічено у порядку зростання статистичної складності:
- Stone, JV (2013), «Bayes’ Rule: A Tutorial Introduction to Bayesian Analysis», Download first chapter here Шаблон:Webarchive, Sebtel Press, England. Шаблон:Ref-en
- Шаблон:Cite book Шаблон:Ref-en
- Шаблон:Cite book Шаблон:Ref-en
- Шаблон:Cite book Шаблон:Ref-en
- Шаблон:Cite book Шаблон:Ref-en
- Bolstad, William M. (2007) Introduction to Bayesian Statistics: Second Edition, John Wiley Шаблон:ISBN Шаблон:Ref-en
- Шаблон:Cite book Шаблон:Ref-en Оновлений класичний підручник. Чітко представлено баєсову теорію.
- Lee, Peter M. Bayesian Statistics: An Introduction. Fourth Edition (2012), John Wiley Шаблон:ISBN Шаблон:Ref-en
- Шаблон:Cite book Шаблон:Ref-en
- Шаблон:Cite book Шаблон:Ref-en
Середнього рівня або просунута
- Шаблон:Cite book Шаблон:Ref-en
- Шаблон:Cite book Шаблон:Ref-en
- Шаблон:Не перекладено, Optimal Statistical Decisions. Wiley Classics Library. 2004. (початково опублікована (1970) McGraw-Hill.) Шаблон:ISBN. Шаблон:Ref-en
- Шаблон:Cite book Шаблон:Ref-en
- Jaynes, E. T. (1998) Probability Theory: The Logic of Science Шаблон:Webarchive. Шаблон:Ref-en
- O'Hagan, A. та Forster, J. (2003) Kendall's Advanced Theory of Statistics, Volume 2B: Bayesian Inference. Arnold, New York. Шаблон:ISBN. Шаблон:Ref-en
- Шаблон:Cite book Шаблон:Ref-en
- Шаблон:Не перекладено та Pearl, Judea, eds. (1988) Probabilistic Reasoning in Intelligent Systems, San Mateo, CA: Morgan Kaufmann. Шаблон:Ref-en
- Pierre Bessière et al. (2013), «Bayesian Programming Шаблон:Webarchive», CRC Press. Шаблон:ISBN Шаблон:Ref-en
- Francisco J. Samaniego (2010), «A Comparison of the Bayesian and Frequentist Approaches to Estimation» Springer, New York, Шаблон:ISBN Шаблон:Ref-en
Посилання
- Шаблон:Springer Шаблон:Ref-en
- Bayesian Statistics Шаблон:Webarchive зі Scholarpedia. Шаблон:Ref-en
- Введення до баєсової ймовірності Шаблон:Webarchive від Лондонського університету королеви Марії Шаблон:Ref-en
- Mathematical Notes on Bayesian Statistics and Markov Chain Monte Carlo Шаблон:Webarchive Шаблон:Ref-en
- Баєсова рекомендована бібліографія Шаблон:Webarchive, категоризована та анотована Томом Ґриффітсом Шаблон:Ref-en
- A. Hajek та S. Hartmann: Bayesian Epistemology, у: J. Dancy et al. (eds.), A Companion to Epistemology. Oxford: Blackwell 2010, 93-106. Шаблон:Ref-en
- S. Hartmann та J. Sprenger: Bayesian Epistemology, у: S. Bernecker and D. Pritchard (eds.), Routledge Companion to Epistemology. London: Routledge 2010, 609—620. Шаблон:Ref-en
- Stanford Encyclopedia of Philosophy: «Inductive Logic» Шаблон:Webarchive Шаблон:Ref-en
- Bayesian Confirmation Theory Шаблон:Ref-en
- What Is Bayesian Learning? Шаблон:Webarchive Шаблон:Ref-en
- ↑ Шаблон:Cite book
- ↑ Шаблон:Cite book
- ↑ Hacking (1967, Section 3, p. 316), Hacking (1988, p. 124) Шаблон:Ref-en
- ↑ Шаблон:Cite web Шаблон:Ref-en
- ↑ Шаблон:Не перекладено (1989) Laws and Symmetry, Oxford University Press. Шаблон:ISBN Шаблон:Ref-en
- ↑ Шаблон:Cite book Шаблон:Ref-en
- ↑ Шаблон:Cite journal Шаблон:Ref-en
- ↑ Шаблон:Cite journal Шаблон:Ref-en
- ↑ Шаблон:Cite journal Шаблон:Ref-en
- ↑ Larry Wasserman et alia, JASA 2000. Шаблон:Ref-en
- ↑ Шаблон:Cite book Шаблон:Ref-en
- ↑ Шаблон:Cite journal Шаблон:Ref-en
- ↑ Шаблон:Cite web Шаблон:Ref-en
- ↑ Шаблон:Cite web Шаблон:Ref-en
- ↑ Bickel & Doksum (2001, p. 32) Шаблон:Ref-en
- ↑ Шаблон:Cite journal Шаблон:Ref-en
- ↑ Шаблон:Cite journal Шаблон:Ref-en
- ↑ Шаблон:Cite journal Шаблон:Ref-en
- ↑ Шаблон:Cite book Шаблон:Ref-en
- ↑ Samuel Rathmanner та Шаблон:Не перекладено. «A Philosophical Treatise of Universal Induction». Entropy, 13(6):1076-1136, 2011. Шаблон:Ref-en
- ↑ «The Problem of Old Evidence», in § 5 of «On Universal Prediction and Bayesian Confirmation», M. Hutter — Theoretical Computer Science, 2007 — Elsevier Шаблон:Ref-en
- ↑ «Raymond J. Solomonoff» Шаблон:Webarchive, Peter Gacs, Paul M. B. Vitanyi, 2011 cs.bu.edu Шаблон:Ref-en
- ↑ Dawid, A. P. та Mortera, J. (1996) «Coherent Analysis of Forensic Identification Evidence». Шаблон:Не перекладено, Series B, 58, 425—443. Шаблон:Ref-en
- ↑ Foreman, L. A.; Smith, A. F. M., та Evett, I. W. (1997). «Bayesian analysis of deoxyribonucleic acid profiling data in forensic identification applications (with discussion)». Journal of the Royal Statistical Society, Series A, 160, 429—469. Шаблон:Ref-en
- ↑ Robertson, B. та Vignaux, G. A. (1995) Interpreting Evidence: Evaluating Forensic Science in the Courtroom. John Wiley and Sons. Chichester. ISBN Шаблон:ISBN Шаблон:Ref-en
- ↑ Dawid, A. P. (2001) «Bayes' Theorem and Weighing Evidence by Juries» Шаблон:Webarchive Шаблон:Ref-en
- ↑ Gardner-Medwin, A. (2005) «What Probability Should the Jury Address?». Шаблон:Не перекладено, 2 (1), March 2005 Шаблон:Ref-en
- ↑ David Miller: Critical Rationalism Шаблон:Ref-en
- ↑ Howson & Urbach (2005), Jaynes (2003) Шаблон:Ref-en
- ↑ Шаблон:Cite journal Шаблон:Ref-en
- ↑ Шаблон:Cite journal Шаблон:Ref-en
- ↑ Шаблон:Cite journal Шаблон:Ref-en
- ↑ Шаблон:Cite journal Шаблон:Ref-en
- ↑ Glenn Shafer and Pearl, Judea, eds. (1988) Probabilistic Reasoning in Intelligent Systems, San Mateo, CA: Morgan Kaufmann.
- ↑ Шаблон:Cite book Шаблон:Ref-en
- ↑ 36,0 36,1 Шаблон:Cite journal Шаблон:Webarchive Шаблон:Ref-en
- ↑ Шаблон:Cite book Шаблон:Ref-en
- ↑ Шаблон:Cite journal Шаблон:Ref-en
- ↑ Шаблон:Cite journal Шаблон:Ref-en
- ↑ Шаблон:Cite book Шаблон:Ref-en