Диференціальна ентропія

Матеріал з testwiki
Версія від 16:41, 16 березня 2022, створена imported>InternetArchiveBot (Виправлено джерел: 1; позначено як недійсні: 0.) #IABot (v2.0.8.6)
(різн.) ← Попередня версія | Поточна версія (різн.) | Новіша версія → (різн.)
Перейти до навігації Перейти до пошуку

Шаблон:Теорія інформації Диференціальна ентропія (Шаблон:Lang-en, також Шаблон:Lang-en) — функціонал, визначений на множині абсолютно неперервних розподілів імовірностей, формальний аналог поняття інформаційної ентропії Шеннона для випадку неперервної випадкової величини. У теорії інформації функціонал евристично ввів К. ШеннонШаблон:Sfn, однак він не є автором терміна «диференціальна ентропія». Сам термін уведено А. М. Колмогоровим спільно з І. М. Гельфандом і Шаблон:Нп, він підкреслює, що це поняття має інший зміст, ніж ентропія дискретних розподілів. Вони ж отримали строге виведення диференціальної ентропії як першого члена асимптотичного розкладу ентропії, в якому проявляється залежність від розподілу випадкової величиниШаблон:SfnШаблон:SfnШаблон:Sfn. Для неперервної випадкової величини ξ, розподіленої на XRn (n<), диференціальна ентропія визначається як

H(ξ)=Xf(x)logf(x)dx ,

де f(x) — густина розподілу випадкової величини (або сигналу неперервного джерела як випадкової величини). Вибір основи логарифма в цій формулі (яка має бути більшою від 1) визначає одиницю вимірювання відповідної кількості інформації. Так, у теорії інформації часто використовують двійковий логарифм, що відповідає одиниці кількості інформації біт, а функціонал інтерпретується як середня інформація неперервного джерела. У математичній статистиці у визначенні диференціальної ентропії з міркувань зручності зазвичай використовують натуральний логарифм (відповідна одиниця нат), функціонал інтерпретується як міра невизначеності неперервного розподілу.

Диференціальна ентропія не інваріантна відносно перетворень координат випадкової величини і не має самостійного сенсу. Більш того, якщо випадкова величина має розмірність, то функціонал диференціальної ентропії буде некоректним з точки зору розмірності (оскільки під знаком логарифма виявляється розмірна величина). Однак різниця диференціальних ентропій двох випадкових величин, розподілених на одній множині, є коректною, причому безрозмірною величиною і збігається з різницею їхніх ентропій (оскільки ентропія будь-якої неперервної випадкової величини нескінченна, при взятті різниці ентропій потрібно розкрити невизначеність, скориставшись асимптотичним розкладом)Шаблон:SfnШаблон:SfnШаблон:Sfn.

Таким чином, можливість виражати диференціальну ентропію в бітах (або інших одиницях) досить умовна: ситуація тут подібна до вимірювання температури в градусах Цельсія, які, хоча й збігаються за величиною з кельвінами, але не є абсолютною шкалою температури, а мають відносно неї деякий зсув (тому диференціальна ентропія, як і температура за шкалою Цельсія, може бути від'ємною). Відмінність полягає в тому, що у випадку з диференціальною ентропією цей зсув є нескінченним відносно абсолютної шкали, яка визначається значеннями ентропії. Тобто, абсолютну шкалу для ентропії неперервних розподілів обрати неможливо, але за допомогою диференціальної ентропії можна порівнювати ентропії різних розподілів.

У деяких джерелахШаблон:Sfn диференціальну ентропію розподілу інтерпретують як його ентропію відносно ентропії рівномірного розподілу на проміжку одиничної довжини, оскільки останній має рівну нулю диференціальну ентропію. Потрібно зауважити, що такий підхід не зовсім коректний, оскільки ентропія в неперервному випадку залежить від того, яким чином крок дискретизації при розбитті проміжку прямує до нуля. Лише в разі, коли розглядається один і той самий проміжок, можна вважати, що при обчисленні ентропії використовується однакова його дискретизація для кожного з розподілів, тоді різниця ентропій прямує до скінченної границі. У загальному випадку (за довільної дискретизації) різниця ентропій неперервних випадкових величин не прямує до жодної границі.

Умовна диференціальна ентропія

Умовна диференціальна ентропія для величини X при заданій величині Y визначається такою формулою:

H(X|Y=y)=+fX|Y(x)logfX|Y(x)dx .

Безумовна і умовна диференціальні ентропії можуть бути як додатними, так і від'ємними величинами, а також можуть дорівнювати нескінченності. Ця обставина також вказує на те, що диференціальна ентропія (умовна і безумовна) має дещо інший сенс, ніж ентропія, яка завжди невід'ємна.

Для диференціальної ентропії виконуються рівності, аналогічні ентропії дискретного джерела:

H(X)H(X|Y) (для незалежних джерел — рівність)
H(X,Y)=H(X)+H(Y|X)=H(Y)+H(X|Y)

Приклади

У наведених нижче прикладах у визначенні диференціальної ентропії використовується натуральний логарифм, σ2 — дисперсія розподілу.

H=12ln(2πσ2e) .
  • Серед розподілів, заданих на обмеженому проміжку, максимум диференціальної ентропії досягається для рівномірного розподілу і дорівнює
H=ln(23σ) .
H=ln(2σe) .

Приклади з конкретними одиницями вимірювання

Візьмемо для визначеності біти. Отже основою логарифма буде 2.

  • Для рівномірного розподілу від 0 до 1:
f(x)=1
H(f)=01dx1log21=0bit
  • Для рівномірного розподілу від 0 до 2:
f(x)=12
H(f)=02dx12log212=1bit
  • Для рівномірного розподілу від 0 до 4 :
f(x)=14
H(f)=04dx14log214=2bit

Примітки

Шаблон:Reflist

Література

Посилання

Шаблон:Бібліоінформація