Wspólna entropia - Joint entropy

Wprowadzający w błąd diagram Venna pokazujący addytywne i subtraktywne relacje między różnymi miarami informacyjnymi związanymi ze skorelowanymi zmiennymi X i Y. Obszar zawarty przez oba koła to łączna entropia H(X,Y). Okrąg po lewej (czerwony i fioletowy) to indywidualna entropia H(X), a czerwony to warunkowa entropia H(X|Y). Okrąg po prawej (niebieski i fioletowy) to H(Y), a niebieski to H(Y|X). Fiolet to wzajemna informacja I(X;Y).

W teorii informacji , wspólne entropia jest miarą niepewności związanej z zestawem zmiennych .

Definicja

Wspólna entropia Shannona (w bitach ) dwóch dyskretnych zmiennych losowych i z obrazami i jest zdefiniowana jako

 

 

 

 

( Równanie 1 )

gdzie i szczególne wartości i , odpowiednio, jest wspólny prawdopodobieństwo tych wartości występują razem, i określa się, czy 0 .

Dla więcej niż dwóch zmiennych losowych rozszerza się to do:

 

 

 

 

( Równanie 2 )

gdzie są poszczególne wartości , odpowiednio, jest prawdopodobieństwem wystąpienia tych wartości razem i jest zdefiniowane jako 0 jeśli .

Nieruchomości

Nienegatywność

Łączna entropia zbioru zmiennych losowych jest liczbą nieujemną.

Większe niż indywidualne entropie

Łączna entropia zbioru zmiennych jest większa lub równa maksimum wszystkich indywidualnych entropii zmiennych w zbiorze.

Mniejsza lub równa sumie poszczególnych entropii

Łączna entropia zbioru zmiennych jest mniejsza lub równa sumie indywidualnych entropii zmiennych w zbiorze. To jest przykład subaddytywności . Ta nierówność jest równością wtedy i tylko wtedy i są statystycznie niezależne .

Związki z innymi miarami entropii

Entropia łączna jest używana w definicji entropii warunkowej

,

oraz

Jest również używany w definicji wzajemnej informacji

W teorii informacji kwantowej połączona entropia jest uogólniana na połączoną entropię kwantową .

Wspólna entropia różniczkowa

Definicja

Powyższa definicja dotyczy dyskretnych zmiennych losowych i jest równie ważna w przypadku ciągłych zmiennych losowych. Ciągła wersja dyskretnej entropii stawu nazywana jest wspólną entropią różniczkową (lub ciągłą) . Niech i będą ciągłymi zmiennymi losowymi z łączną funkcją gęstości prawdopodobieństwa . Różnicowa entropia stawu jest zdefiniowana jako

 

 

 

 

( Równanie 3 )

Dla więcej niż dwóch ciągłych zmiennych losowych definicję uogólnia się na:

 

 

 

 

( Równanie 4 )

Integralną zostaje przejęty wsparciu . Możliwe, że całka nie istnieje i wtedy mówimy, że entropia różniczkowa nie jest zdefiniowana.

Nieruchomości

Podobnie jak w przypadku dyskretnym, łączna entropia różniczkowa zbioru zmiennych losowych jest mniejsza lub równa sumie entropii poszczególnych zmiennych losowych:

Poniższa reguła łańcucha obowiązuje dla dwóch zmiennych losowych:

W przypadku więcej niż dwóch zmiennych losowych uogólnia się to do:

Łączna entropia różniczkowa jest również używana w definicji wzajemnej informacji między ciągłymi zmiennymi losowymi:

Bibliografia