Спільна ентропія

Матеріал з testwiki
Версія від 15:45, 1 січня 2019, створена imported>Olexa Riznyk (+шаблон:Теорія інформації)
(різн.) ← Попередня версія | Поточна версія (різн.) | Новіша версія → (різн.)
Перейти до навігації Перейти до пошуку

Шаблон:Теорія інформації

Діаграма Венна різних мір інформації, пов'язаних із корельованими величинами X та Y. Область, яка міститься в обох колах, є спільною ентропією Η(X,Y). Коло ліворуч (червоний і фіолетовий) є особистою ентропією Η(X), в якому червоне є умовною ентропією Η(X|Y). Коло праворуч (синій та фіолетовий) є Η(Y), а синє в ньому є Η(Y|X). Фіолетове є взаємною інформацією I(X;Y).

У теорії інформації спі́льна ентропі́я — це міра невизначеності, пов'язана з набором змінних.

Визначення

Спільна ентропія Шеннона (в бітах) двох змінних X та Y визначається як

H(X,Y)=xyP(x,y)log2[P(x,y)]

де x та y є конкретними значеннями X та Y відповідно, P(x,y) є спільною ймовірністю трапляння цих значень разом, а P(x,y)log2[P(x,y)] визначається як 0, якщо P(x,y)=0.

Для понад двох змінних X1,...,Xn це визначення розширюється до

H(X1,...,Xn)=x1...xnP(x1,...,xn)log2[P(x1,...,xn)]

де x1,...,xn є конкретними значеннями X1,...,Xn відповідно, P(x1,...,xn) є ймовірністю трапляння цих значень разом, а P(x1,...,xn)log2[P(x1,...,xn)] визначається як 0, якщо P(x1,...,xn)=0.

Властивості

Більша за окремі ентропії

Спільна ентропія набору змінних є більшою за всі окремі ентропії змінних цього набору, або дорівнює їм.

H(X,Y)max[H(X),H(Y)]
H(X1,...,Xn)max[H(X1),...,H(Xn)]

Менша або дорівнює сумі окремих ентропій

Спільна ентропія набору змінних є меншою за суму окремих ентропій змінних цього набору, або дорівнює їй. Це є прикладом Шаблон:Нп. Ця нерівність є рівністю, якщо і лише якщо X та Y є статистично незалежними.

H(X,Y)H(X)+H(Y)
H(X1,...,Xn)H(X1)+...+H(Xn)

Відношення до інших мір ентропії

Спільна ентропія використовується у визначенні умовної ентропії

H(X|Y)=H(Y,X)H(Y),

і

H(X1,,Xn)=k=1NH(Xk|Xk1,,X1)

Вона також використовується у визначенні взаємної інформації

I(X;Y)=H(X)+H(Y)H(X,Y)

У квантовій теорії інформації спільна ентропія узагальнюється до Шаблон:Нп.

Джерела