Теорія оцінювання

Матеріал з testwiki
Версія від 18:50, 13 жовтня 2024, створена imported>Olexa Riznyk (Основи: уточнення, вікіфікація)
(різн.) ← Попередня версія | Поточна версія (різн.) | Новіша версія → (різн.)
Перейти до навігації Перейти до пошуку

Теорія оцінювання — це галузь статистики, яка вивчає способи оцінювання значень параметрів на основі емпіричних/виміряних даних, що мають випадкову складову. Ці параметри описують належне фізичне середовище таким чином, що їхні значення впливають на розподіл виміряних даних. Статистична оцінка дозволяє оцінити ці невідомі параметри на основі даних вимірювань.

Наприклад, необхідно оцінити частину сукупності виборців, які голосуватимуть за певного кандидата. Це співвідношення є шуканим параметром; оцінка ґрунтується на невеликій випадковій вибірці людей, що голосують.

Або, наприклад, задача радару полягає в тому, щоб оцінити віддаленість об'єктів (літаків, човнів тощо) шляхом аналізу часу двобічного проходження отриманих віддзеркалень переданих імпульсів. Оскільки відбиті імпульси неминуче включатимуться в електричний шум, їхні виміряні значення матимуть випадковий розподіл, тому цю тривалість проходження потрібно оцінювати.

У теорії статистичного оцінювання зазвичай розглядають два основні підходи:[1]

  • Ймовірнісний підхід ґрунтується на припущенні, що вимірювані дані є випадковими і мають деякий розподіл ймовірностей, що залежить від параметрів, які необхідно знайти
  • Шаблон:Не перекладено ґрунтується на припущенні, що виміряний вектор даних належить до множини, що залежить від вектора параметрів.

Наприклад, в теорії електросигналів вимірювання, що містять інформацію про шукані параметри, часто пов'язані із зашумленим сигналом. Без наявності випадковості, або шуму, задача була би детермінованою, і оцінювання не було би потрібним.

Приклади

Наприклад, бажано оцінити частку населення виборців, яке проголосує за конкретного кандидата. Ця пропорція — шуканий параметр; оцінка базується на невеликій випадковій вибірці виборців. Як альтернативу бажано оцінити ймовірність голосування виборців за конкретного кандидата, виходячи з деяких демографічних особливостей, таких як вік.

Або, наприклад, у радіолокації метою є пошук діапазону об'єктів (літаки, катери тощо) шляхом аналізу двостороннього часу транзиту прийнятих відлунь переданих імпульсів. Оскільки відбиті імпульси неминуче вбудовуються в електричний шум, їх виміряні значення випадковим чином розподіляються так, що час проходження потрібно оцінити.

Іншим прикладом у теорії електричного зв'язку можуть бути вимірювання, що містять інформацію щодо цікавих параметрів, які часто пов'язано з шумним сигналом.

Основи

Щоб оцінювач могло бути втілено, для заданої моделі потрібно кілька статистичних «складових». Першим з них є статистична вибірка — набір точок даних, взятих із випадкового вектора (RV) розміру N. Покласти до вектору,

𝐱=[x[0]x[1]x[N1]].

По-друге, є M параметрів

θ=[θ1θ2θM],

значення яких слід оцінити. По-третє, функція безперервної густини ймовірності (ФГІ) або її дискретний аналог, функція маси імовірності (ФМІ) основного розподілу, що породжує дані, повинно бути вказано залежно від значень параметрів:

p(𝐱|θ).

Також можливо, щоби самі параметри мали розподіл імовірностей (наприклад, баєсову статистику). Потім необхідно визначити баєсову ймовірність

π(θ).

Після формування моделі мета полягає в оцінці параметрів, причому оцінки зазвичай позначають через θ^, де «капелюх» означає оцінку.

Одним із загальних оцінювачів є оцінювач Шаблон:Нп (МСКП), який використовує похибку між оцінюваними параметрами та фактичним значенням параметрів

𝐞=θ^θ

як основу для оптимальності. Потім цей член похибки подносять до квадрату, а очікуване значення цього квадрату мінімізують для оцінювача МСКП.

Оцінювачі

Шаблон:Main

До загальновживаних оцінювачі (методів оцінювання) та тем, пов'язані з ними, належать:

Приклади

Невідома константа адитивного білого гауссового шуму

Розгляньмо отриманий дискретний сигнал, x[n], з N незалежних зразків, що складається з невідомої сталої A з адитивним білим гауссовим шумом (АБГШ) w[n] з нульовим середнім значенням та відомою дисперсією σ2 (тобто, 𝒩(0,σ2)). Оскільки дисперсія є відомою, то єдиним невідомим параметром є A.

Тоді моделлю для сигналу є

x[n]=A+w[n]n=0,1,,N1

Двома можливими (з багатьох) оцінювачами параметра A є:

Обидві ці оцінювачі мають середнє значення A, яке можливо показати, взявши математичне сподівання кожного з оцінювачів

E[A^1]=E[x[0]]=A

та

E[A^2]=E[1Nn=0N1x[n]]=1N[n=0N1E[x[n]]]=1N[NA]=A

На даний момент ці два оцінювачі, здається, виконують однакові дії. Однак різниця між ними стає очевидною при порівнянні дисперсій.

var(A^1)=var(x[0])=σ2

та

var(A^2)=var(1Nn=0N1x[n])=independence1N2[n=0N1var(x[n])]=1N2[Nσ2]=σ2N

Видається, що середнє значення вибірки є кращим оцінювачем, оскільки його дисперсія нижча для кожного N > 1.

Максимальна ймовірність

Шаблон:Main

Продовжуючи приклад, використовуючи оцінювач методу максимальної правдоподібності, густиною ймовірності (ФГІ) шуму для одного зразку w[n] є

p(w[n])=1σ2πexp(12σ2w[n]2)

І ймовірність x[n] стає (x[n] можливо розглядати як 𝒩(A,σ2))

p(x[n];A)=1σ2πexp(12σ2(x[n]A)2)

Згідно незалежності, ймовірність 𝐱 стає

p(𝐱;A)=n=0N1p(x[n];A)=1(σ2π)Nexp(12σ2n=0N1(x[n]A)2)

Беручи натуральний логарифм ФГІ

lnp(𝐱;A)=Nln(σ2π)12σ2n=0N1(x[n]A)2

а оцінювач максимальної правдоподібності —

A^=argmaxlnp(𝐱;A)

Беремо першу похідну функції логарифмічної правдоподобності

Alnp(𝐱;A)=1σ2[n=0N1(x[n]A)]=1σ2[n=0N1x[n]NA]

і встановлюємо її в нуль

0=1σ2[n=0N1x[n]NA]=n=0N1x[n]NA

Це дає оцінку максимальної ймовірності

A^=1Nn=0N1x[n]

Що є просто середнім значенням вибірки. З цього прикладу було встановлено, що середнє значення вибірки є оцінювачем максимальної правдоподібності для N зразків фіксованого, невідомого параметра, спотвореного АБГШ.

Нижня межа Крамера-Рао

Шаблон:Details

Щоби знайти нижню межу Крамера — Рао (НМКР) оцінювача середнього значення вибірки, спочатку необхідно знайти значення інформації за Фішером

(A)=E([Alnp(𝐱;A)]2)=E[2A2lnp(𝐱;A)]

і, скопіювавши зверху,

Alnp(𝐱;A)=1σ2[n=0N1x[n]NA]

Взяття другої похідної

2A2lnp(𝐱;A)=1σ2(N)=Nσ2

та пошук від'ємного математичного сподівання є тривіальними, оскільки тепер це є детермінованою сталою E[2A2lnp(𝐱;A)]=Nσ2

Нарешті, підставлення цієї інформації за Фішером до

var(A^)1

дає в результаті

var(A^)σ2N

Порівняння цього з дисперсією вибіркового середнього (визначеною раніше) показує, що вибіркове середнє дорівнює нижній межі Крамера — Рао для всіх значень N та A. Іншими словами, вибіркове середнє є (обов'язково унікальним) ефективним оцінювачем, а отже, також Шаблон:Нп (МДНО), крім того, що є оцінювачем максимальної ймовірності.

Максимум рівномірного розподілу

Шаблон:Main

Одним з найпростіших нетривіальних прикладів оцінки є оцінка максимуму рівномірного розподілу. Його використовують як практичну вправу в класних заняттях, та для ілюстрування основних принципів теорії оцінювання. Далі, у випадку оцінки на основі одного зразку, вона демонструє філософські проблеми та можливі непорозуміння при використанні оцінювачів максимальної ймовірності та функцій правдоподібності.

Для заданого дискретного рівномірного розподілу 1,2,,N з невідомим максимумом оцінювач Шаблон:Нп для максимуму задають як

k+1km1=m+mk1

де m — Шаблон:Нп, а k — обсяг вибірки, вибирання без повертання.[2][3] Ця задача є широко відомою як Шаблон:Нп, завдяки застосуванню максимального оцінювання до оцінювання виробництва німецьких танків під час Другої світової війни.

Формулу можливо інтуїтивно розуміти як

«Максимум вибірки плюс середній розрив між спостереженнями у вибірці»,

розрив додається для компенсації негативного зміщення максимуму вибірки як оцінки максимуму сукупності.Шаблон:Efn

Це має дисперсію[2]

1k(Nk)(N+1)(k+2)N2k2 for small samples kN

а отже, стандартне відхилення приблизно N/k, середній (за сукупністю) розмір розриву між зразками; порівняйте з mk вище. Це можливо розглядати як дуже простий випадок Шаблон:Нп.

Вибірковий максимум є максимально-правдоподібнісним оцінювачем для максимуму сукупності, але, як обговорювалося вище, він є зміщеним.

Застосування

Використання теорії оцінювання вимагають численні галузі. До них, зокрема, належать:

Вимірювані дані можуть бути схильні до шуму або невизначеності, і саме через статистичну ймовірність шукають оптимальні рішення для витягування якнайбільше інформації з даних.

Див. також

Шаблон:Main category Шаблон:Colbegin

Шаблон:Colend

Примітки

Коментарі

Шаблон:Notelist

Джерела

Шаблон:Reflist

Література

  • Теорія оцінки точок Е. Л. Леманн та Г. Казелла. (Шаблон:ISBN)
  • Інженерія системних витрат Дейла Шермона. (Шаблон:ISBN)
  • Математична статистика та аналіз даних Джон Райс. (Шаблон:ISBN)
  • Основи статистичної обробки сигналів: теорія оцінки Стівена М. Кей (Шаблон:ISBN)
  • Вступ до виявлення та оцінки сигналу Х. Вінсент Поор (Шаблон:ISBN)
  • Теорія виявлення, оцінки та модуляції, Частина 1 Гаррі Л. Ван Тресс (Шаблон:ISBN; website)
  • Оптимальна оцінка стану: Калман, Н-нескінченість та нелінійні підходи Ден Сімон website Шаблон:Webarchive
  • Шаблон:Нп, Адаптивні фільтри, Уайлі, Нью-Джерсі, 2008, Шаблон:ISBN.
  • Шаблон:Нп, Основи адаптивного фільтрування, Уайлі, Нью-Джерсі, 2003, Шаблон:ISBN.
  • Шаблон:Нп, Шаблон:Нп, та Шаблон:Нп, Лінійна оцінка, Прентис-Холл, Нью-Джерсі, 2000, Шаблон:ISBN.
  • Шаблон:Нп, Шаблон:Нп, та Шаблон:Нп, Невизначена квадратична оцінка та контроль: уніфікований підхід до H2 та H теорій, Товариство промислової та прикладної математики (ТППМ), Пенсильванія, 1999, Шаблон:ISBN.
  • В. Г. Войнов, М. С. Нікулін, «Безсторонні оцінювачі та їх застосування. Т.1: Одновимірний випадок», Kluwer Academic Publishers, 1993, Шаблон:ISBN.
  • В. Г. Войнов, М. С. Нікулін, « Безсторонні оцінювачі та їх застосування. Т.2: Багатовимірний випадок», Kluwer Academic Publishers, 1996, Шаблон:ISBN.

Шаблон:Refend

Посилання