Ograniczenie gęstości dyskretnych punktów - Limiting density of discrete points

W teorii informacji The ograniczenie gęstości dyskretnych punktów jest dostosowanie do wzoru Claude Shannon do różnicy entropii .

Został on sformułowany przez Edwina Thompsona Jaynesa, aby zająć się defektami w początkowej definicji entropii różnicowej.

Definicja

Shannon pierwotnie zapisał następujący wzór na entropię rozkładu ciągłego, znaną jako entropia różniczkowa :

W przeciwieństwie do wzoru Shannona na dyskretną entropię, nie jest to jednak wynik żadnego wyprowadzenia (Shannon po prostu zastąpił symbol sumowania w wersji dyskretnej całką), ale brakuje wielu właściwości, które czynią dyskretną entropię użyteczną miarą niepewność. W szczególności nie jest niezmienna przy zmianie zmiennych i może stać się ujemna. Ponadto nie jest nawet poprawny wymiarowo. Ponieważ byłby bezwymiarowy, musi mieć jednostki , co oznacza, że ​​argument do logarytmu nie jest bezwymiarowy zgodnie z wymaganiami.

Jaynes argumentował, że wzór na ciągłą entropię należy wyprowadzić, przyjmując granicę coraz gęstszych rozkładów dyskretnych. Załóżmy, że mamy taki zbiór punktów dyskretnych , że w granicy ich gęstość zbliża się do funkcji zwanej „miarą niezmienną”.

Jaynes wyprowadził z tego następujący wzór na ciągłą entropię, który, jak argumentował, powinien być przyjęty jako poprawny wzór:

Zwykle, gdy to jest napisane, termin jest pomijany, ponieważ zazwyczaj nie byłby skończony. A więc rzeczywista powszechna definicja to

Tam, gdzie nie jest jasne, czy termin powinien zostać pominięty, czy nie , można napisać

Zauważ, że we wzorze Jaynesa jest gęstość prawdopodobieństwa. Dla każdego skończonego, który jest jednorodną gęstością w kwantyzacji ciągłej przestrzeni, która jest używana w sumie Riemanna. W granicach znajduje się ciągła graniczna gęstość punktów w kwantyzacji używanych do reprezentowania zmiennej ciągłej .

Załóżmy, że jeden z nich miał format liczbowy, który przyjmował możliwe wartości, rozłożone zgodnie z . Wtedy (jeśli jest na tyle duża, że ​​ciągłe przybliżenie jest poprawne) jest dyskretną entropią zmiennej w tym kodowaniu. Jest to równe średniej liczbie bitów wymaganych do przesłania tych informacji i nie przekracza . Dlatego można ją traktować jako ilość informacji uzyskanych dzięki wiedzy, że zmienna podąża za rozkładem i nie jest równomiernie rozłożona na możliwe skwantowane wartości, jak miałoby to miejsce, gdyby następowała . jest w rzeczywistości (ujemną) dywergencją Kullbacka-Leiblera od do , która jest uważana za informację uzyskaną poprzez poznanie, że zmienna, która wcześniej uważana była za rozłożoną, tak jak jest faktycznie rozprowadzana jako .

Entropia ciągły wzór Jaynesa ma taką właściwość, że niezmienna przy zmianie zmiennych, pod warunkiem, że i są przetwarzane w podobny sposób. (To motywuje nazwę „niezmienną miarą” dla m .) To rozwiązuje wiele trudności, które wynikają z zastosowania wzoru ciągłej entropii Shannona. Sam Jaynes zrezygnował z tego terminu, ponieważ nie był on istotny dla jego pracy (maksymalne rozkłady entropii) i jest nieco niewygodne, aby mieć nieskończony termin w obliczeniach. Niestety, nie można temu zaradzić, jeśli kwantyzacja jest dowolnie precyzyjna, jak miałoby to miejsce w przypadku ciągłego limitu. Zauważ, że zgodnie z definicją w tym miejscu (bez terminu) zawsze byłaby niedodatnia, ponieważ dywergencja KL byłaby zawsze nieujemna.

Jeśli jest to przypadek, który jest stały w pewnym przedziale wielkości i zasadniczo wynosi zero poza tym przedziałem, to graniczna gęstość punktów dyskretnych (LDDP) jest ściśle związana z entropią różnicową

Bibliografia

Dalsza lektura

  • Jaynes, ET (2003). Teoria prawdopodobieństwa: logika nauki . Cambridge University Press. ISBN   978-0521592710 .