Entropia Rényiego - Rényi entropy

W teorii informacji , entropia Renyi uogólnia entropię Hartley , The entropii Shannona , na entropię kolizji i min-entropii . Entropie określają ilościowo różnorodność, niepewność lub losowość systemu. Entropia nosi imię Alfreda Rényi . W kontekście estymacji wymiaru fraktalnego entropia Rényi stanowi podstawę koncepcji wymiarów uogólnionych .

Entropia Rényi jest ważna w ekologii i statystyce jako wskaźnik różnorodności . Entropia Rényiego jest również ważna w informacji kwantowej , gdzie może być użyta jako miara splątania . W modelu łańcucha spinowego Heisenberga XY entropia Rényiego w funkcji α może być obliczona jawnie, ponieważ jest to funkcja automorficzna względem określonej podgrupy grupy modułowej . W informatyce teoretycznej min-entropia jest używana w kontekście ekstraktorów losowości .

Definicja

Entropia Rényi porządku , gdzie i , jest zdefiniowana jako

.

Tutaj jest dyskretną zmienną losową z możliwych wyników w zestawie i odpowiednich prawdopodobieństw dla . Logarytm zwyczajowo przyjmuje się za podstawę 2, w szczególności w ramach teorii informacji , gdzie bity substancje. Jeżeli prawdopodobieństwa są dla wszystkich , to wszystkie entropie Rényiego rozkładu są równe: . Ogólnie rzecz biorąc, dla wszystkich dyskretnych zmiennych losowych , jest funkcją nierosnącą w .

Aplikacje często wykorzystują następującą zależność między entropią Rényiego a p -normą wektora prawdopodobieństw:

.

Tutaj dyskretny rozkład prawdopodobieństwa jest interpretowany jako wektor w with i .

Entropią Rényi dla każdego jest wklęsłość Schura .

Przypadki specjalne

Entropia Rényi zmiennej losowej z dwoma możliwymi wynikami wobec p 1 , gdzie P = ( p 1 , 1 − p 1 ) . Pokazano H 0 , H 1 , H 2 i H , w jednostkach shannonów .

Gdy α zbliża się do zera, entropia Rényi coraz bardziej waży wszystkie zdarzenia z niezerowym prawdopodobieństwem bardziej równomiernie, niezależnie od ich prawdopodobieństw. W granicy dla α → 0, entropia Rényiego jest tylko logarytmem wielkości podpory X . Granicą dla α → 1 jest entropia Shannona . Gdy α zbliża się do nieskończoności, entropia Rényi jest coraz bardziej determinowana przez zdarzenia o najwyższym prawdopodobieństwie.

Hartley lub maksymalna entropia

Pod warunkiem, że prawdopodobieństwa są niezerowe, to logarytm liczności alfabetu ( ) stanowi , czasami nazywany entropii Hartley z ,

Entropia Shannona

Wartość graniczna as α → 1 to entropia Shannona :

Entropia kolizji

Entropia kolizyjna , czasami nazywana po prostu „entropią Rényi”, odnosi się do przypadku α = 2,

gdzie X i Yniezależne i identycznie rozłożone . Entropia kolizji jest powiązana ze wskaźnikiem koincydencji .

Min-entropia

W granicy jako , entropia Rényi zbiega się z min-entropią :

Równoważnie min-entropia jest największą liczbą rzeczywistą b taką, że wszystkie zdarzenia zachodzą z prawdopodobieństwem co najwyżej .

Nazwa min-entropia wynika z faktu, że jest to najmniejsza miara entropii w rodzinie entropii Rényiego. W tym sensie jest to najmocniejszy sposób pomiaru zawartości informacyjnej dyskretnej zmiennej losowej. W szczególności min-entropia nigdy nie jest większa niż entropia Shannona .

Min-entropia ma ważne zastosowania dla ekstraktorów losowości w informatyce teoretycznej : ekstraktory są w stanie wyodrębnić losowość ze źródeł losowych, które mają dużą min-entropię; samo posiadanie dużej entropii Shannona nie wystarcza do tego zadania.

Nierówności między różnymi wartościami α

To nie wzrasta dla dowolnego rozkładu prawdopodobieństw , co można udowodnić przez zróżnicowanie, jako

która jest proporcjonalna do dywergencji Kullbacka-Leiblera (która jest zawsze nieujemna), gdzie .

W szczególnych przypadkach nierówności można wykazać również za pomocą nierówności Jensena :

W przypadku wartości , występują również nierówności w drugą stronę. W szczególności mamy

Z drugiej strony entropia Shannona może być dowolnie wysoka dla zmiennej losowej, która ma daną min-entropię.

Rozbieżność Rényiego

Oprócz absolutnych entropii Rényiego, Rényi zdefiniował również spektrum miar rozbieżności uogólniających rozbieżność Kullbacka-Leiblera .

Renyi rozbieżność kolejnością alfa lub alfa-rozbieżności o dystrybucji P z rozkładu Q określa się jako

gdy 0 < α < ∞ i α ≠ 1 . Możemy zdefiniować dywergencję Rényi dla wartości specjalnych α = 0, 1, ∞ przyjmując granicę, aw szczególności granicę α → 1 daje dywergencję Kullbacka-Leiblera.

Niektóre szczególne przypadki:

 : minus prawdopodobieństwo logarytmu pod Q, że p i > 0 ;
 : minus dwukrotność logarytmu współczynnika Bhattacharyyi ; ( Nielsen i Boltz (2010) )
 : dywergencja Kullbacka–Leiblera ;
 : logarytm oczekiwanego stosunku prawdopodobieństw;
 : logarytm maksymalnego stosunku prawdopodobieństw.

Rozbieżność Rényiego jest rzeczywiście rozbieżnością , co oznacza po prostu, że jest większa lub równa zero, a zero tylko wtedy, gdy P = Q . Dla dowolnych stałych rozkładów P i Q dywergencja Rényiego nie maleje w funkcji jej rzędu α i jest ciągła na zbiorze α, dla którego jest skończona.

Interpretacje finansowe

Para rozkładów prawdopodobieństwa może być postrzegana jako gra losowa, w której jeden z rozkładów definiuje oficjalne kursy, a drugi zawiera rzeczywiste prawdopodobieństwa. Znajomość rzeczywistych prawdopodobieństw pozwala graczowi czerpać zyski z gry. Oczekiwana stopa zysku jest powiązana z rozbieżnością Rényiego w następujący sposób

gdzie jest rozkład określający oficjalne kursy (tj. „rynek”) dla gry, jest rozkładem według inwestorów i jest awersją inwestora do ryzyka (względna awersja do ryzyka Arrowa-Pratta).

Jeśli prawdziwy rozkład jest (niekoniecznie zbieżny z przekonaniem inwestora ), długoterminowa realizowana stopa jest zbieżna z prawdziwym oczekiwaniem, które ma podobną strukturę matematyczną

Dlaczego α = 1 jest wyjątkowe

Wartość α = 1 , co daje entropii Shannona i rozbieżności Kullback-Leiblera , jest wyjątkowy, ponieważ jest to tylko przy α = 1 , że zasada łańcuch prawdopodobieństwa warunkowego posiada dokładnie:

dla entropii absolutnych i

dla względnych entropii.

To ostatnie w szczególności oznacza , że jeśli szukamy rozkładu p ( x , a ) , który minimalizuje rozbieżność od pewnej podstawowej miary wcześniejszej m ( x , a ) i uzyskujemy nowe informacje , które wpływają tylko na rozkład a , to rozkład p ( x | a ) pozostaje m ( x | a ) , niezmienione.

Pozostałe rozbieżności Rényiego spełniają kryteria bycia pozytywnymi i ciągłymi; bycie niezmiennym przy przekształceniach współrzędnych 1 do 1; i addytywnego łączenia, gdy A i X są niezależne, tak że jeśli p ( A , X ) = p ( A ) p ( X ) , to

oraz

Silniejsze własności wielkości α = 1 , które pozwalają na definicję informacji warunkowej i informacji wzajemnej z teorii komunikacji, mogą być bardzo ważne w innych aplikacjach lub zupełnie nieistotne, w zależności od wymagań tych aplikacji.

Rodziny wykładnicze

Entropie i rozbieżności Rényiego dla rodziny wykładniczej dopuszczają proste wyrażenia

oraz

gdzie

jest rozbieżnością różnicy Jensen.

Fizyczne znaczenie

Entropia Rényiego w fizyce kwantowej nie jest uważana za obserwowalną ze względu na jej nieliniową zależność od macierzy gęstości. (Ta nieliniowa zależność ma zastosowanie nawet w szczególnym przypadku entropii Shannona.) Można jednak nadać jej znaczenie operacyjne poprzez dwukrotne pomiary (znane również jako statystyka pełnego zliczania) transferów energii.

Granica entropii Renyi jak jest entropia von Neumanna .

Zobacz też

Uwagi

Bibliografia