Entropia Rényiego - Rényi entropy
W teorii informacji , entropia Renyi uogólnia entropię Hartley , The entropii Shannona , na entropię kolizji i min-entropii . Entropie określają ilościowo różnorodność, niepewność lub losowość systemu. Entropia nosi imię Alfreda Rényi . W kontekście estymacji wymiaru fraktalnego entropia Rényi stanowi podstawę koncepcji wymiarów uogólnionych .
Entropia Rényi jest ważna w ekologii i statystyce jako wskaźnik różnorodności . Entropia Rényiego jest również ważna w informacji kwantowej , gdzie może być użyta jako miara splątania . W modelu łańcucha spinowego Heisenberga XY entropia Rényiego w funkcji α może być obliczona jawnie, ponieważ jest to funkcja automorficzna względem określonej podgrupy grupy modułowej . W informatyce teoretycznej min-entropia jest używana w kontekście ekstraktorów losowości .
Definicja
Entropia Rényi porządku , gdzie i , jest zdefiniowana jako
- .
Tutaj jest dyskretną zmienną losową z możliwych wyników w zestawie i odpowiednich prawdopodobieństw dla . Logarytm zwyczajowo przyjmuje się za podstawę 2, w szczególności w ramach teorii informacji , gdzie bity substancje. Jeżeli prawdopodobieństwa są dla wszystkich , to wszystkie entropie Rényiego rozkładu są równe: . Ogólnie rzecz biorąc, dla wszystkich dyskretnych zmiennych losowych , jest funkcją nierosnącą w .
Aplikacje często wykorzystują następującą zależność między entropią Rényiego a p -normą wektora prawdopodobieństw:
- .
Tutaj dyskretny rozkład prawdopodobieństwa jest interpretowany jako wektor w with i .
Entropią Rényi dla każdego jest wklęsłość Schura .
Przypadki specjalne
Gdy α zbliża się do zera, entropia Rényi coraz bardziej waży wszystkie zdarzenia z niezerowym prawdopodobieństwem bardziej równomiernie, niezależnie od ich prawdopodobieństw. W granicy dla α → 0, entropia Rényiego jest tylko logarytmem wielkości podpory X . Granicą dla α → 1 jest entropia Shannona . Gdy α zbliża się do nieskończoności, entropia Rényi jest coraz bardziej determinowana przez zdarzenia o najwyższym prawdopodobieństwie.
Hartley lub maksymalna entropia
Pod warunkiem, że prawdopodobieństwa są niezerowe, to logarytm liczności alfabetu ( ) stanowi , czasami nazywany entropii Hartley z ,
Entropia Shannona
Wartość graniczna as α → 1 to entropia Shannona :
Entropia kolizji
Entropia kolizyjna , czasami nazywana po prostu „entropią Rényi”, odnosi się do przypadku α = 2,
gdzie X i Y są niezależne i identycznie rozłożone . Entropia kolizji jest powiązana ze wskaźnikiem koincydencji .
Min-entropia
W granicy jako , entropia Rényi zbiega się z min-entropią :
Równoważnie min-entropia jest największą liczbą rzeczywistą b taką, że wszystkie zdarzenia zachodzą z prawdopodobieństwem co najwyżej .
Nazwa min-entropia wynika z faktu, że jest to najmniejsza miara entropii w rodzinie entropii Rényiego. W tym sensie jest to najmocniejszy sposób pomiaru zawartości informacyjnej dyskretnej zmiennej losowej. W szczególności min-entropia nigdy nie jest większa niż entropia Shannona .
Min-entropia ma ważne zastosowania dla ekstraktorów losowości w informatyce teoretycznej : ekstraktory są w stanie wyodrębnić losowość ze źródeł losowych, które mają dużą min-entropię; samo posiadanie dużej entropii Shannona nie wystarcza do tego zadania.
Nierówności między różnymi wartościami α
To nie wzrasta dla dowolnego rozkładu prawdopodobieństw , co można udowodnić przez zróżnicowanie, jako
która jest proporcjonalna do dywergencji Kullbacka-Leiblera (która jest zawsze nieujemna), gdzie .
W szczególnych przypadkach nierówności można wykazać również za pomocą nierówności Jensena :
W przypadku wartości , występują również nierówności w drugą stronę. W szczególności mamy
Z drugiej strony entropia Shannona może być dowolnie wysoka dla zmiennej losowej, która ma daną min-entropię.
Rozbieżność Rényiego
Oprócz absolutnych entropii Rényiego, Rényi zdefiniował również spektrum miar rozbieżności uogólniających rozbieżność Kullbacka-Leiblera .
Renyi rozbieżność kolejnością alfa lub alfa-rozbieżności o dystrybucji P z rozkładu Q określa się jako
gdy 0 < α < ∞ i α ≠ 1 . Możemy zdefiniować dywergencję Rényi dla wartości specjalnych α = 0, 1, ∞ przyjmując granicę, aw szczególności granicę α → 1 daje dywergencję Kullbacka-Leiblera.
Niektóre szczególne przypadki:
- : minus prawdopodobieństwo logarytmu pod Q, że p i > 0 ;
- : minus dwukrotność logarytmu współczynnika Bhattacharyyi ; ( Nielsen i Boltz (2010) )
- : logarytm oczekiwanego stosunku prawdopodobieństw;
- : logarytm maksymalnego stosunku prawdopodobieństw.
Rozbieżność Rényiego jest rzeczywiście rozbieżnością , co oznacza po prostu, że jest większa lub równa zero, a zero tylko wtedy, gdy P = Q . Dla dowolnych stałych rozkładów P i Q dywergencja Rényiego nie maleje w funkcji jej rzędu α i jest ciągła na zbiorze α, dla którego jest skończona.
Interpretacje finansowe
Para rozkładów prawdopodobieństwa może być postrzegana jako gra losowa, w której jeden z rozkładów definiuje oficjalne kursy, a drugi zawiera rzeczywiste prawdopodobieństwa. Znajomość rzeczywistych prawdopodobieństw pozwala graczowi czerpać zyski z gry. Oczekiwana stopa zysku jest powiązana z rozbieżnością Rényiego w następujący sposób
gdzie jest rozkład określający oficjalne kursy (tj. „rynek”) dla gry, jest rozkładem według inwestorów i jest awersją inwestora do ryzyka (względna awersja do ryzyka Arrowa-Pratta).
Jeśli prawdziwy rozkład jest (niekoniecznie zbieżny z przekonaniem inwestora ), długoterminowa realizowana stopa jest zbieżna z prawdziwym oczekiwaniem, które ma podobną strukturę matematyczną
Dlaczego α = 1 jest wyjątkowe
Wartość α = 1 , co daje entropii Shannona i rozbieżności Kullback-Leiblera , jest wyjątkowy, ponieważ jest to tylko przy α = 1 , że zasada łańcuch prawdopodobieństwa warunkowego posiada dokładnie:
dla entropii absolutnych i
dla względnych entropii.
To ostatnie w szczególności oznacza , że jeśli szukamy rozkładu p ( x , a ) , który minimalizuje rozbieżność od pewnej podstawowej miary wcześniejszej m ( x , a ) i uzyskujemy nowe informacje , które wpływają tylko na rozkład a , to rozkład p ( x | a ) pozostaje m ( x | a ) , niezmienione.
Pozostałe rozbieżności Rényiego spełniają kryteria bycia pozytywnymi i ciągłymi; bycie niezmiennym przy przekształceniach współrzędnych 1 do 1; i addytywnego łączenia, gdy A i X są niezależne, tak że jeśli p ( A , X ) = p ( A ) p ( X ) , to
oraz
Silniejsze własności wielkości α = 1 , które pozwalają na definicję informacji warunkowej i informacji wzajemnej z teorii komunikacji, mogą być bardzo ważne w innych aplikacjach lub zupełnie nieistotne, w zależności od wymagań tych aplikacji.
Rodziny wykładnicze
Entropie i rozbieżności Rényiego dla rodziny wykładniczej dopuszczają proste wyrażenia
oraz
gdzie
jest rozbieżnością różnicy Jensen.
Fizyczne znaczenie
Entropia Rényiego w fizyce kwantowej nie jest uważana za obserwowalną ze względu na jej nieliniową zależność od macierzy gęstości. (Ta nieliniowa zależność ma zastosowanie nawet w szczególnym przypadku entropii Shannona.) Można jednak nadać jej znaczenie operacyjne poprzez dwukrotne pomiary (znane również jako statystyka pełnego zliczania) transferów energii.
Granica entropii Renyi jak jest entropia von Neumanna .
Zobacz też
Uwagi
Bibliografia
- Becka, Christiana; Schlögl, Friedrich (1993). Termodynamika układów chaotycznych: wprowadzenie . Wydawnictwo Uniwersytetu Cambridge. Numer ISBN 0521433673.
- Jizba, P.; Arimitsu, T. (2004). „Świat według Rényi: Termodynamika systemów multifraktalnych”. Roczniki Fizyki . 312 (1): 17–59. arXiv : cond-mat/0207707 . Kod Bib : 2004AnPhy.312...17J . doi : 10.1016/j.aop.2004.01.002 . S2CID 119704502 .
- Jizba, P.; Arimitsu, T. (2004). „O obserwowalności entropii Rényiego”. Przegląd fizyczny E . 69 (2): 026128. arXiv : cond-mat/0307698 . Kod Bib : 2004PhRvE..69b6128J . doi : 10.1103/PhysRevE.69.026128 . PMID 14995541 . S2CID 39231939 .
- Bromiley, PA; Thacker, NA; Bouhova-Thacker, E. (2004), Entropia Shannon, Entropia Rényi i informacje , CiteSeerX 10.1.1.330.9856
- Franchini, F.; Jego, AR; Korepin, VE (2008). „Entropia Rényiego jako miara splątania w kwantowym łańcuchu spinowym”. Journal of Physics A: Matematyczne i teoretyczne . 41 (25302): 025302. arXiv : 0707.2534 . Kod bib : 2008JPhA...41b5302F . doi : 10.1088/1751-8113/41/2/025302 . S2CID 119672750 .
- "Test Rényi" , Encyklopedia Matematyki , EMS Press , 2001 [1994]
-
Bohater, AO; Michała O.; Gorman, J. (2002). „Rozbieżności alfa dla klasyfikacji, indeksowania i wyszukiwania” (PDF) . CiteSeerX 10.1.1.373.2763 . Cytowanie dziennika wymaga
|journal=
( pomoc ) - Jego, AR; Korepin, VE (2010). „Uogólniona entropia łańcucha spinowego Heisenberga”. Fizyka teoretyczna i matematyczna . 164 (3): 1136-1139. Kod bib : 2010TMP...164.1136I . doi : 10.1007/s11232-010-0091-6 . S2CID 119525704 .
- Nielsen F.; Boltz, S. (2010). „Centroidy Burbea-Rao i Bhattacharyya”. Transakcje IEEE dotyczące teorii informacji . 57 (8): 5455–5466. arXiv : 1004.5049 . doi : 10.1109/TIT.2011.2159046 . S2CID 14238708 .
- Nielsen, Frank; Nock, Richard (2012). „Wyrażenie w formie zamkniętej dla entropii Sharma-Mittal rodzin wykładniczych”. Czasopismo Fizyki A . 45 (3): 032003. arXiv : 1112,4221 . Kod Bib : 2012JPhA...45c2003N . doi : 10.1088/1751-8113/45/3/032003 . S2CID 8653096 .
- Nielsen, Frank; Nock, Richard (2011). „O entropiach i rozbieżnościach Rényi i Tsallisa dla rodzin wykładniczych”. Czasopismo Fizyki A . 45 (3): 032003. arXiv : 1105.3259 . Kod Bib : 2012JPhA...45c2003N . doi : 10.1088/1751-8113/45/3/032003 . S2CID 8653096 .
- Renyi, Alfred (1961). „O miarach informacji i entropii” (PDF) . Materiały z IV Sympozjum Berkeley na temat matematyki, statystyki i prawdopodobieństwa 1960 . s. 547-561.
- Rosso, OA (2006). „Analiza EEG przy użyciu narzędzi informacyjnych opartych na falkach”. Journal of Neuroscience Methods . 153 (2): 163–182. doi : 10.1016/j.jneumeth.2005.10.09 . PMID 16675027 . S2CID 7134638 .
- Zachosa, CK (2007). „Klasyczne ograniczenie entropii kwantowej”. Czasopismo Fizyki A . 40 (21): F407–F412. arXiv : hep-th/0609148 . Kod bib : 2007JPhA...40..407Z . doi : 10.1088/1751-8113/40/21/F02 . S2CID 1619604 .
- Nazarow, Y. (2011). „Przepływy entropii Rényi”. Przegląd fizyczny B . 84 (10): 205437. arXiv : 1108.3537 . Kod bib : 2015PhRvB..91j4303A . doi : 10.1103/PhysRevB.91.104303 . S2CID 40312624 .
- Ansari, Mohammad H.; Nazarow, Yuli V. (2015). „Entropia Rényi przepływa z kwantowych silników cieplnych”. Przegląd fizyczny B . 91 (10): 104303. arXiv : 1408.3910 . Kod bib : 2015PhRvB..91j4303A . doi : 10.1103/PhysRevB.91.104303 . S2CID 40312624 .
- Ansari, Mohammad H.; Nazarow, Yuli V. (2015). „Dokładna korespondencja między przepływami entropii Rényi i przepływami fizycznymi”. Przegląd fizyczny B . 91 (17): 174307. arXiv : 1502.08020 . Kod Bibcode : 2015PhRvB..91q4307A . doi : 10.1103/PhysRevB.91.174307 . S2CID 36847902 .
- Sokłakow, AN (2020). „Ekonomia rozbieżności — intuicja finansowa dla rozbieżności Rényi” . Entropia . 22 (8): 860. arXiv : 1811.08308 . doi : 10.3390/e22080860 .
- Ansari, Mohammad H.; van Steensel, Alwin; Nazarow, Yuli V. (2019). „Produkcja entropii w Quantum jest inna”. Entropia . 21 (9): 854. arXiv : 1907.09241 . doi : 10.3390/e21090854 . S2CID 198148019 .