Дискретний рівномірний розподіл

Матеріал з testwiki
Перейти до навігації Перейти до пошуку

Шаблон:Розподіл ймовірностей В теорії ймовірностей і статистиці випадкова величина має дискретний рівномірний розподіл, якщо вона приймає скінченне число значень з однаковими ймовірностями.

Якщо випадкова величина може приймати будь-яке з n значень k1,k2,…,kn, тоді це є дискретним рівномірним розподілом. Ймовірність випадання kj дорівнює 1/n. Простим прикладом дискретного рівномірного розподілу є випадання гральної кості. k набуває значень 1, 2, 3, 4, 5, 6 і кожен раз k випадає з імовірністю 1/6. У випадку, коли випадкова величина є дійсним числом, то функцію розподілу можна виразити у термінах виродженого розподілу таким чином:

F(k;a,b,n)=1ni=1nH(kki)

Визначення максимуму

Вибірка із k спостережень отримана із рівномірного розподілу цілих чисел 1,2,,N, для якої існує задача оцінити невідомий максимум N. Цю задачу іноді називають Шаблон:Нп, після того як цей метод оцінки максимуму було застосовано для оцінки темпів виробництва німецьких танків під час Другої світової війни.

Незміщена оцінка з мінімальною дисперсією для рівномірного розподілу, яка визначає максимум задається наступним чином

N^=k+1km1=m+mk1

де m є вибірковим максимумом, а k - розмір вибірки, для вибірки без повторного заміщення.[1] Цей приклад можна розглядати як спрощений випадок Шаблон:Нп.

При цьому матимемо дисперсію[1]

1k(Nk)(N+1)(k+2)N2k2 для малих вибірок kN

тож стандартне відхилення приблизно становить Nk, середній розмір (для сукупності) проміжку між елементами; порівняємо із вищевказаним mk.

Максимум вибірки є оцінкою максимальної правдоподібності для максимуму сукупності, але, як зазначалося вище, він є зміщеним.

Якщо вибірка не представлена числами, але її можна промаркувати або розрізнити, розмір популяції можливо визначити методом "Зловити/повторити".

Виведення

Для будь-якого цілого числа m такого що k ≤ m ≤ N, імовірність того, що вибірковий максимум буде дорівнювати m можна розрахувати наступним чином. Кількість різних груп із k танків, які можуть бути утворені із загальної кількості з N танків визначається через біноміальний коефіцієнт (Nk). Оскільки при такому способі підрахунку, перестановки танків розраховуються лише раз, ми можемо впорядкувати серійні номери і відмітити максимальний з них в кожній вибірці. Аби розрахувати імовірність ми повинні полічити кількість впорядкованих вибірок, які можуть містити останній елемент, який буде дорівнювати m а всі інші k-1 танків мають номери менші або такий що дорівнює m-1. Кількість таких вибірок з k-1 танків які можна отримати із загальної кількості m-1 танків задається біноміальним коефіцієнтом (m1k1), тож імовірність отримати максимум m становить P(m)=(m1k1)/(Nk).

Дано загальну кількість  N і розмір вибірки k, математичне сподівання максимуму вибірки визначається як:

μ=E[m]=m=kNm(m1k1)(Nk)=1(k1)!(Nk)m=kNm!(mk)!=k!(k1)!(Nk)m=kN(mk)=k(N+1k+1)(Nk)=k(N+1)k+1,

де було використано Шаблон:Нп m=kN(mk)=(N+1k+1).

Із цього рівняння, невідому кількість N можна розрахувати через сподівання і розмір вибірки, наступним чином

N=μ(1+k1)1.

Відповідно до лінійності математичного сподівання, отримаємо

μ(1+k1)1=E[m(1+k1)1],

і таким чином незміщена оцінка для N отримується за допомогою заміни сподівання на спостереження,

N^=m(1+k1)1.

Крім того, що ця оцінка є незміщеною вона також досягає мінімальної дисперсії. Аби показати це, відмітимо спершу, що максимум вибірки є достатньою статистикою для визначення максимуму сукупності, оскільки імовірність P(m;N) задається як функція лише від однієї m. Далі необхідно довести, що статистика m також є Шаблон:Нп, особливим видом достатньої статистики (demonstration pending). Тоді Шаблон:Нп передбачає, що N^ є незміщеною оцінкою для N із найменшою дисперсією.[2]

Дисперсія оцінки розраховується як дисперсія вибіркового максимуму

Var[N^]=(k+1)2k2Var[m].

Дисперсія максимуму в свою чергу розраховується із математичних сподівань m і m2. Розрахунок математичного сподівання для m2 є наступним,

E[m2]=m=kNm2(m1k1)(Nk)=1(k1)!(Nk)m=kNmm!(mk)!=1(k1)!(Nk)m=kN(m+11)m!(mk)!=1(k1)!(Nk)m=kN(m+1)!(mk)!1(k1)!(Nk)m=kNm!(mk)!

де другий терм є математичним сподіванням для m. Перший терм можна виразити через k і N,

1(k1)!(Nk)m=kN(m+1)!(mk)!=(k+1)!(k1)!(Nk)m=kN(m+1k+1)=k(k+1)(Nk)n=k+1N+1(nk+1)=k(k+1)(Nk)(N+2k+2)=k(N+2)(N+1)(k+2)

де була використана заміна n=m+1 і використане Шаблон:Нп. Підставлення цього результату і математичного сподівання m в рівняння для E[m2] дає

E[m2]=k(N+2)(N+1)(k+2)k(N+1)k+1=k(N+1)(N+2k+21k+1)=k(N+1)(kN+k+N)(k+1)(k+2)

Тоді можна отримати дисперсію для m,

Var[m]=E[m2]E[m]2=k(N+1)(k+1)(kN+k+Nk+2k(N+1)k+1)=k(N+1)(k+1)(Nk)(k+2)(k+1)=k(N+1)(Nk)(k+1)2(k+2)

Зрештою можна розрахувати дисперсію для оцінки N^,

Var[N^]=(k+1)2k2Var[m]=(k+1)2k2k(N+1)(Nk)(k+1)2(k+2)=(N+1)(Nk)k(k+2).

Див. також

Джерела

Примітки

Шаблон:Reflist

Шаблон:Math-stub Шаблон:Список розподілів ймовірності

  1. 1,0 1,1 Шаблон:Citation
  2. G. A. Young and R. L Smith (2005) Essentials of Statistical Inference, Cambridge University Press, Cambridge, UK, p. 95