Ентропія Реньї

Матеріал з testwiki
Перейти до навігації Перейти до пошуку

У теорії інформації ентропія Реньї — узагальнення ентропії Шеннона — є сімейством функціоналів, використовуваних як міра кількісної різноманітності, невизначеності або випадковості деякої системи. Названо на честь Альфреда Реньї.

Якщо деяка система має дискретну множину доступних станів X={x1,...,xn}, якій відповідає розподіл імовірностей pi для i=1,...,n (тобто pi — ймовірності перебування системи в станах xi), то ентропія Реньї з параметром α (при α0 і α1) системи визначається як

Hα(X)=11αlogi=1npiα=11αlogpα1 ,

де кутовими дужками позначено математичне очікування за розподілом pi (p — ймовірність перебування системи в деякому стані як випадкова величина), логарифм береться за основою 2 (для рахунку в бітах) чи іншою зручною основою (більшою від 1). Основа логарифма визначає одиницю вимірювання ентропії. Так, у математичній статистиці зазвичай використовується натуральний логарифм.

Якщо всі ймовірності pi=1/n, тоді за будь-якого α ентропія Реньї Hα(X)=logn. Інакше α-ентропія спадає як функція α. Причому вищі значення α (що прямують до нескінченності) надають ентропії Реньї значення, більшою мірою визначені лише найвищими ймовірностями подій (тобто внесок в ентропію малоймовірних станів зменшується). Проміжний випадок α=1 у границі дає ентропію Шеннона, яка має особливі властивості. Нижчі значення α (що прямують до нуля), дають значення ентропії Реньї, яке зважує можливі події рівномірніше, менше залежно від їх імовірностей. А при α=0 отримуємо максимально можливу α-ентропію, рівну logn незалежно від розподілу (тільки аби pi0).

Сенс параметра α можна описати, кажучи неформальною мовою, як сприйнятливість функціоналу до відхилення стану системи від рівноважного: що більше α, то швидше зменшується ентропія за відхилення системи від рівноважного стану. Сенс обмеження α0 полягає в тому, щоб забезпечувалося збільшення ентропії за наближення системи до рівноважного (більш імовірного) стану. Ця вимога є природною для поняття «ентропія». Слід зауважити, що для ентропії Цалліса, яка еквівалентна ентропії Реньї з точністю до незалежного від X Шаблон:Нп, відповідне обмеження часто опускають, при цьому для від'ємних значень параметра замість максимізації ентропії використовують її мінімізацію.

Ентропія Реньї відіграє важливу роль в екології і статистиці, визначаючи так звані індекси різноманітності. Ентропія Реньї також важлива в квантовій інформації, її можна використовувати як міру складності. У ланцюжку Гейзенберга XY ентропію Реньї розраховано в термінах модулярних функцій, що залежать від α. Вони також призводять до спектру показників фрактальної розмірності.

Ηα для деяких конкретних значень α

Деякі окремі випадки

  • при α=0 ентропія Реньї не залежить від імовірностей станів (вироджений випадок) і дорівнює логарифму числа станів (логарифму потужності множини X):
H0(X)=logn=log|X| .

Цю ентропію іноді називають Шаблон:Нп. Вона використовується, наприклад, у формулюванні принципу Больцмана.

  • У границі при α1, можна показати, використовуючи правило Лопіталя, що Hα збігається до ентропії Шеннона. Таким чином, сімейство ентропій Реньї можна довизначити функціоналом
H1(X)=dflimα1Hα(X)=H(X)=i=1npilogpi .
  • Квадратична ентропія, іноді звана ентропією зіткнень, — це ентропія Реньї з параметром α=2:
H2(X)=logi=1npi2=logProb{x=y} ,

де x і y — незалежні випадкові величини, однаково розподілені на множині X з імовірністю pi (i=1,...,n). Квадратична ентропія використовується у фізиці, обробці сигналів, економіці.

  • Існує границя
H(X)=dflimαHα(X)=logsupipi ,

яку називають Шаблон:Нп, тому що це найменше значення Hα. Ця ентропія також є виродженим випадком, оскільки її значення визначається тільки найбільш імовірним станом.

Нерівності для різних значень α

Два останніх випадки пов'язані співвідношенням H<H2<2H. З іншого боку, ентропія Шеннона H1(X) може бути як завгодно високою для розподілу X із фіксованою min-ентропією.

H2<2H тому що logi=1npi2logsupipi2=2logsupipi .
H<H2, тому що logi=1npi2<logsupipi(i=1npi)=logsupipi .
H1H2 відповідно до нерівності Єнсена i=1npilogpilogi=1npi2 .

Розходження (дивергенції) Реньї

Крім сімейства ентропій, Реньї також визначив спектр мір розходжень (дивергенцій), які узагальнюють розходження Кульбака — Лейблера. Формули цього розділу записано в загальному вигляді — через логарифм за довільною основою. Тому потрібно розуміти, що кожна наведена формула являє собою сімейство еквівалентних функціоналів, визначених з точністю до сталого (додатного) множника.

Розходження Реньї з параметром α, де α>0 і α1, розподілу Q відносно розподілу P (або «відстань від P до Q») визначається як

Dα(PQ)=1α1logi=1npiαqi1α=1α1log(p/q)α1::P

або (формально, без урахування нормування ймовірностей)

Dα(PQ)=Hα(pq11/α) ,
Hα(P)=Dα(PQ)|q=1.

Як і розходження Кульбака — Лейблера, розходження Реньї є невід'ємним для α>0.

Деякі окремі випадки

  • При α=0 дивергенція Реньї не визначена, однак сімейство дивергенцій можна довизначити елементом
D0(PQ)=dflimα0Dα(PQ)=logi=1nqisgnpi : мінус логарифм від суми ймовірностей q, таких що відповідні p>0.
  • D2(PQ)=logi=1npi2qi=logpq::P : логарифм математичного сподівання за розподілом P відношення ймовірностей p/q. Це розходження з точністю до монотонного перетворення еквівалентне Шаблон:Нп Dχ2(QP)=i=1n(piqi)2qi .
  • D(PQ)=dflimαDα(PQ)=logsupipiqi : Логарифм найбільшого відношення ймовірностей p/q.

Чому випадок α=1 — особливийШаблон:Уточнити

Значення α=1, яке відповідає ентропії Шеннона і розходженню Кульбака — Лейблера, є особливим, тому що тільки в цьому випадку можна виділити змінні A і X зі спільного розподілу ймовірностей, такі що виконується

H(A,X)=H(A)+𝔼p(a){H(X|a)}

для ентропії, і

DKL(p(x|a)p(a)||m(x,a))=𝔼p(a){DKL(p(x|a)||m(x|a))}+DKL(p(a)||m(a)) -

для дивергенції.

Останнє означає, що якщо ми шукатимемо розподіл p(x,a), який зводить до мінімуму розходження деяких основоположних мір m(x,a), і отримаємо нову інформацію, яка впливає тільки на розподіл a, то розподіл p(x|a) не буде залежати від змін m(x|a).

У загальному випадку розходження Реньї з довільними значеннями α задовольняють умовам незаперечності, неперервності та інваріантності відносно перетворення координат випадкових величин. Важливою властивістю будь-яких ентропії і дивергенції Реньї є адитивність: коли A і X незалежні, з p(A,X)=p(A)p(X) випливає

Hα(A,X)=Hα(A)+Hα(X)

і

Dα(P(A)P(X)Q(A)Q(X))=Dα(P(A)Q(A))+Dα(P(X)Q(X)) .

Найсильніші властивості випадку α=1, які передбачають визначення умовної інформації і взаємної інформації з теорії зв'язку, можуть бути дуже важливими в інших застосуваннях або зовсім не важливими, залежно від вимог цих застосувань.

Перехресна ентропія Реньї

Перехресна ентропія Hα(P,Q) від двох розподілів з імовірностями pi і qi (i=1,...,n) в загальному випадку може визначатися по-різному (залежно від застосування), але має задовольняти умові Hα(P,P)=Hα(P). Один з варіантів визначення (аналогічну властивість має перехресна ентропія Шеннона):

Hα(P,Q)=Hα(P)+Dα(P,Q) .

Інше визначення, запропоноване А. Реньї, можна отримати з таких міркувань. Визначимо ефективне число станів системи як середнє геометричне зважене від величин 1/qi з вагами pi:

n=i=1n(1/qi)pi .

Звідси випливає вираз для перехресної ентропії Шеннона

H(P,Q)=logn=i=1npilogqi .

Міркуючи аналогічно, визначимо ефективне число станів системи як середнє степеневе зважене від величин 1/qi з вагами pi і параметром 1α:

n=(i=1npi(1/qi)1α)11α=(i=1npiqiα1)11α.

Таким чином, перехресна ентропія Реньї має вигляд

Hα(P,Q)=logn=11αlogi=1npiqiα1=11αlogqα1::P .
  • Легко бачити, що в разі, якщо розподіли ймовірностей p і q збігаються, перехресна ентропія Реньї збігається з ентропією Реньї.
  • Також при α1 перехресна ентропія Реньї збігається до перехресної ентропії Шеннона.
  • властивість H(P,Q)=H(P)+DKL(PQ)H(P), істинна для перехресної ентропії Шеннона, в загальному випадку не має місця. Перехресна ентропія Реньї може бути як більшою, так і меншою від ентропії Реньї.

Неперервний випадок

Для формального узагальнення ентропії Шеннона на випадок неперервного розподілу служить поняття диференціальна ентропія. Цілком аналогічно визначається диференційна ентропія Реньї:

Hα(f)=11αlogXfα(x)dx .

Розходження (дивергенція) Реньї в неперервному випадку також є узагальненням розходження Кульбака — Лейблера і має вигляд

Dα(g,f)=1α1logXgα(x)f1α(x)dx .

Визначення перехресної ентропії, запропоноване А. Реньї, в неперервному випадку має вигляд

Hα(g,f)=11αlogXg(x)fα1(x)dx .

У наведених формулах f(x) і g(x) — деякі функції густини розподілу ймовірностей, визначені на інтервалі XR, і покладається α>0, α1 .

Література