Спільна ентропія

У теорії інформації спі́льна ентропі́я — це міра невизначеності, пов'язана з набором змінних.
Визначення
Спільна ентропія Шеннона (в бітах) двох змінних та визначається як
де та є конкретними значеннями та відповідно, є спільною ймовірністю трапляння цих значень разом, а визначається як 0, якщо .
Для понад двох змінних це визначення розширюється до
де є конкретними значеннями відповідно, є ймовірністю трапляння цих значень разом, а визначається як 0, якщо .
Властивості
Більша за окремі ентропії
Спільна ентропія набору змінних є більшою за всі окремі ентропії змінних цього набору, або дорівнює їм.
Менша або дорівнює сумі окремих ентропій
Спільна ентропія набору змінних є меншою за суму окремих ентропій змінних цього набору, або дорівнює їй. Це є прикладом Шаблон:Нп. Ця нерівність є рівністю, якщо і лише якщо та є статистично незалежними.
Відношення до інших мір ентропії
Спільна ентропія використовується у визначенні умовної ентропії
- ,
і
Вона також використовується у визначенні взаємної інформації
У квантовій теорії інформації спільна ентропія узагальнюється до Шаблон:Нп.