Незалежність (теорія ймовірностей)

Матеріал з testwiki
Перейти до навігації Перейти до пошуку

Шаблон:Основи теорії ймовірностей У теорії ймовірностей дві випадкові події називаються незалежними, якщо настання однієї з них не змінює імовірність настання іншої. Аналогічно, дві випадкові величини називають незалежними якщо значення однієї з них не впливає на розподіл значень іншої[1].

Незалежні події[2]

Вважатимемо, що дано фіксований ймовірнісний простір (Ω,,).

Означення 1. Дві події A,B називають незалежними, якщо

(AB)=(A)(B).

Зауваження 1. В тому випадку, якщо ймовірність однієї події, скажімо B, ненульова, тобто (B)>0, визначення незалежності еквівалентне:

(AB)=(A),

тобто умовна ймовірність події A за умови B дорівнює безумовній імовірності події A.

Означення 2. Нехай є сімейство (скінченне або нескінченне) випадкових подій {Ai}iI, де I — довільна індексна множина. Тоді ці події є попарно незалежними, якщо будь-які дві події з цього сімейства незалежні, тобто

(AiAj)=(Ai)(Aj),i=j.

Означення 3. Нехай є сімейство (скінчене або нескінчене) випадкових подій {Ai}iI. Тоді ці події сукупно незалежні, якщо для будь-якого кінцевого набору цих подій {Aik}k=1N вірно:

(Ai1Ain)=(Ai1)(Ain).

Приклад 1. Монета кидається двічі. Ймовірність появи герба в першому випробуванні не залежить від появи чи відсутності герба в другому випробуванні. В свою чергу, ймовірність того, що герб випаде в другому випробуванні не залежить від результатів першого випробування. Отже, події А — «поява герба в першому випробуванні» і В — «поява герба в другому випробуванні» — незалежні.

Приклад 2. В урні 5 білих і 4 чорних кульки. Із неї навмання беруть кульку. Ймовірність появи білої кульки (подія А) дорівнює 59. Взяту кульку повертають в урну і продовжують випробування. Ймовірність появи білої кульки при другому випробуванні (подія В), також дорівнює 59. В свою чергу, ймовірність витягти білу кульку при першому випробуванні, не залежить від другого випробування. Отже, події А і В — незалежні.

Приклад 3. Хай кинуто три урівноважені монети. Визначимо події таким чином:

  • A1: монети 1 і 2 впали однією і тією ж стороною;
  • A2: монети 2 і 3 впали однією і тією ж стороною;
  • A3: монети 1 і 3 впали однією і тією ж стороною;

залежні, бо знаючи, наприклад, що події A1,A2 сталися, ми знаємо точно, що A3 також сталося.

Те що три і більше події попарно незалежні, не означає, що вони незалежні в сукупності. Дивіться приклад Бернштейна.

Незалежні σ-алгебри

Означення 4. Нехай 𝒜1,𝒜2 дві сигма-алгебри на одному і тому ж ймовірнісному просторі. Вони називаються незалежними, якщо будь-які їх представники незалежні між собою, тобто:

(A1A2)=(A1)(A2),A1𝒜1,A2𝒜2.

Якщо замість двох є ціле сімейство (можливо нескінчене) сигма-алгебр, то для нього визначається попарна і спільна незалежність очевидним чином.

Спадкова незалежність

Теорема про спадковість незалежності випадкових величин. Якщо ξ та η - незалежні випадкові величини, а f(),g() - незалежні, невипадкові функції, які визначені на області можливих значень ξ та η відповідно, то f(ξ) та g(η) - незалежні випадкові величини.

  • Нехай X,y - розподіл випадкового вектора (X,y), X - розподіл X і Y - розподіл Y. Тоді X,Y незалежними тоді і лише тоді, коли
X,y=XY,

де позначає (прямий) добуток мір;

FX,y(x,y)=Fx(x)Fy(y);
  • Нехай випадкові величини X,Y дискретні. Тоді вони незалежні тоді і лише тоді, коли
(X=i,Y=j)=(X=i)(Y=j).
  • Нехай випадкові величини X,Y спільно абсолютно безперервні тобто їх спільний розподіл має щільність fX,Y(x,y). Тоді вони незалежні тоді і лише тоді, коли
fX,Y(x,y)=fX(x)fY(y),(x,y)2,

де fX(x),fY(y) - щільність випадкових величин X і Y відповідно.

Див. також

Джерела

Примітки

Шаблон:Reflist

  1. Сеньо П. С. Теорія ймовірностей та математична статистика: Підручник. — 2-ге вид., перероб. і доп. — К.: Знання, 2007. — С. 291.
  2. Patrick Billingsley — Probability and Measure. Second edition. (New York: John Wiley and Sons, 1986). MR 80h:60001.