Historia teorii informacji - History of information theory
Decydującym wydarzeniem, które ustanowiło dyscyplinę teorii informacji i zwróciło na nią natychmiastową uwagę świata, była publikacja klasycznego artykułu Claude'a E. Shannona „ A Mathematical Theory of Communication ” w Bell System Technical Journal w lipcu i październiku 1948 roku.
W tym rewolucyjnym i przełomowym artykule, pracy, którą Shannon zasadniczo ukończył w Bell Labs do końca 1944 r., Shannon po raz pierwszy przedstawił jakościowy i ilościowy model komunikacji jako proces statystyczny leżący u podstaw teorii informacji, rozpoczynając od stwierdzenia, że
- „Podstawowym problemem komunikacji jest odtworzenie w jednym punkcie, dokładnie lub w przybliżeniu, wiadomości wybranej w innym punkcie”.
Wraz z nim pojawiły się pomysły
- entropia informacji i redundancji źródła oraz ich przydatności przez źródło twierdzenia kodowania ;
- wzajemnego przekazywania informacji , a pojemność kanału z hałaśliwym kanału, w tym obietnicę doskonałej komunikacji bez strat podanych przez Noisy-kanał twierdzenie kodowania ;
- praktyczny wynik prawa Shannona – Hartleya dla przepustowości kanału Gaussa; i oczywiście
- bit - nowy sposób widzenia najbardziej podstawową jednostką informacji.
Przed 1948 rokiem
Telekomunikacja wczesna
Niektóre z najstarszych metod telekomunikacyjnych pośrednio wykorzystują wiele pomysłów, które później zostały ujęte ilościowo w teorii informacji. We współczesnej telegrafii , począwszy od lat trzydziestych XIX wieku, używano alfabetu Morse'a , w którym bardziej popularne litery (jak „E”, które jest wyrażane jako jedna „kropka”) są przesyłane szybciej niż mniej popularne litery (np. „J”, co jest wyrażone przez jedna „kropka”, po której następują trzy „kreski”). Idea kodowania informacji w ten sposób jest podstawą bezstratnej kompresji danych . Sto lat później modulacja częstotliwości pokazała, że szerokość pasma można traktować jedynie jako inny stopień swobody. Vocoder , obecnie w dużej mierze postrzegana jako audio inżynierskiej ciekawości, został zaprojektowany w 1939 roku w użyciu mniejszej przepustowości niż w przypadku oryginalnej wiadomości, w taki sam sposób, że telefony komórkowe obecnie kompromis jakość dźwięku z pasma.
Ilościowe idee informacji
Najbardziej bezpośrednimi poprzednikami prac Shannona były dwa artykuły opublikowane w latach dwudziestych XX wieku przez Harry'ego Nyquista i Ralpha Hartleya , którzy nadal byli liderami badań w Bell Labs, kiedy Shannon przybył na początku lat czterdziestych.
Artykuł Nyquista z 1924 r., „Pewne czynniki wpływające na prędkość telegrafu”, dotyczy głównie niektórych szczegółowych aspektów inżynieryjnych sygnałów telegraficznych. Ale bardziej teoretyczna sekcja omawia kwantyfikację „inteligencji” i „szybkości linii”, z jaką może być przesyłana przez system komunikacyjny, podając zależność
gdzie W jest prędkością transmisji inteligencji, m jest liczbą różnych poziomów napięcia do wyboru w każdym kroku czasowym, a K jest stałą.
Artykuł Hartleya z 1928 roku, zatytułowany po prostu „Przekazywanie informacji”, poszedł dalej, używając słowa informacja (w sensie technicznym) i wyraźnie wyjaśniając, że informacja w tym kontekście jest mierzalną ilością, odzwierciedlającą jedynie zdolność odbiorcy do rozróżnienia tej jednej sekwencji symboli było zamierzone przez nadawcę, a nie jakikolwiek inny - bez względu na jakiekolwiek skojarzone znaczenie lub inny aspekt psychologiczny lub semantyczny, który symbole mogą przedstawiać. Tę ilość informacji, które określił ilościowo jako
gdzie S to liczba możliwych symboli, an liczba symboli w transmisji. Naturalną jednostką informacji była zatem cyfra dziesiętna, znacznie później przemianowana na hartley na jego cześć jako jednostka, skala lub miara informacji. Informacja Hartleya , H 0 , jest nadal używana jako wielkość logarytmu całkowitej liczby możliwości.
Podobną jednostkę prawdopodobieństwa log 10 , zakaz i jego jednostkę pochodną decyban (jedna dziesiąta zakazu), wprowadził Alan Turing w 1940 roku w ramach analizy statystycznej łamania szyfrów Enigmy z czasów drugiej wojny światowej. Decibannage reprezentuje redukcję (logarytmu) całkowita liczba możliwości (podobnie jak zmiany w informacji Hartley); a także iloraz logarytmu wiarygodności (lub zmianę wagi dowodów), który można wywnioskować dla jednej hipotezy na podstawie zestawu obserwacji. Oczekiwana zmiana wagi dowodów jest równoważna z tym, co później nazwano informacją o dyskryminacji Kullbacka .
Ale u podstaw tego pojęcia nadal leżała idea równych prawdopodobieństw a priori, a nie zawartość informacyjna wydarzeń o nierównym prawdopodobieństwie; ani jeszcze żadnego podstawowego obrazu pytań dotyczących przekazywania tak różnych wyników.
Entropia w mechanice statystycznej
Obszarem, w którym nierówne prawdopodobieństwa były rzeczywiście dobrze znane, była mechanika statystyczna, w której Ludwig Boltzmann w kontekście swojego twierdzenia H z 1872 r. Po raz pierwszy wprowadził wielkość
jako miara szerokości rozprzestrzeniania się stanów dostępnych dla pojedynczej cząstki w gazie podobnych cząstek, gdzie f reprezentuje względny rozkład częstotliwości każdego możliwego stanu. Boltzmann argumentował matematycznie, że efekt zderzeń między cząstkami spowodowałby nieuchronny wzrost funkcji H od dowolnej konfiguracji początkowej, aż do osiągnięcia równowagi; a ponadto zidentyfikować go jako podstawowej mikroskopowej uzasadnienie makroskopowej termodynamicznej entropii z Clausiusa .
Definicja Boltzmanna wkrótce przerobione przez American fizyka matematycznego J. Willard Gibbs w ogólnym entropii statystyczno-mechanicznego nie wymaga identyczne i nie-oddziaływanie cząstek, ale w oparciu o rozkład prawdopodobieństwa P I do całkowitego microstate I z cały system:
Można stwierdzić, że ta entropia (Gibbsa) z mechaniki statystycznej bezpośrednio odpowiada klasycznej definicji termodynamicznej Clausiusa .
Sam Shannon najwyraźniej nie był szczególnie świadomy bliskiego podobieństwa między jego nową miarą a wcześniejszymi pracami w dziedzinie termodynamiki, ale John von Neumann był. Mówi się, że kiedy Shannon zastanawiał się, jak nazwać swój nowy miernik i obawiając się, że termin „informacja” jest już nadużywany, von Neumann powiedział mu stanowczo: „Powinieneś nazwać to entropią, z dwóch powodów. Funkcja niepewności była używana w mechanice statystycznej pod tą nazwą, więc ma już swoją nazwę. Po drugie, i co ważniejsze, nikt tak naprawdę nie wie, czym naprawdę jest entropia, więc w debacie zawsze będziesz miał przewagę. "
(Związki między informacyjno-teoretyczną entropią a termodynamiczną entropią, w tym ważny wkład Rolfa Landauera w latach 60., są omówione dalej w artykule Entropia w termodynamice i teorii informacji ).
Rozwój od 1948 roku
Publikacja artykułu Shannona z 1948 r. „ A Mathematical Theory of Communication ” w Bell System Technical Journal była podstawą teorii informacji, jaką znamy dzisiaj. Od tamtego czasu dokonano wielu zmian i zastosowań tej teorii, co umożliwiło stworzenie wielu nowoczesnych urządzeń do przesyłania i przechowywania danych, takich jak CD-ROM i telefony komórkowe .
Znaczące późniejsze osiągnięcia są wymienione na osi czasu teorii informacji , w tym:
- 1951, wynalazek kodowania Huffmana , metody znajdowania optymalnych kodów prefiksów dla bezstratnej kompresji danych .
- Irving S. Reed i David E. Muller zaproponowali kody Reeda-Mullera w 1954 roku.
- Propozycja kodów Reeda-Salomona z 1960 roku .
- W 1966 roku Fumitada Itakura ( Uniwersytet Nagoya ) i Shuzo Saito ( Nippon Telegraph and Telephone ) opracowali liniowe kodowanie predykcyjne (LPC), formę kodowania mowy .
- W 1968 roku Elwyn Berlekamp wymyśla algorytm Berlekampa-Masseya ; jego zastosowanie do dekodowania kodów BCH i Reed-Solomon zostało wskazane przez Jamesa L. Masseya w następnym roku.
- W 1972 roku Nasir Ahmed proponuje dyskretną transformatę kosinusową (DCT). Później staje się najczęściej używanym do kompresji stratnej algorytmu i podstawę cyfrowych mediów standardów kompresji począwszy od roku 1988, w tym H.26x (od H.261 ) oraz MPEG video standardów kodowania , JPEG kompresji obrazu , MP3 kompresji audio i Advanced Audio Kodowanie (AAC).
- W 1976 roku Gottfried Ungerboeck wygłasza pierwszy artykuł o modulacji kratowej ; bardziej szczegółowa ekspozycja z 1982 r. prowadzi do podniesienia prędkości modemów analogowych POTS z 9,6 kbit / s do 33,6 kbit / s
- W 1977 roku Abraham Lempel i Jacob Ziv opracowali kompresję Lempel – Ziv ( LZ77 )
- We wczesnych latach osiemdziesiątych Renuka P. Jindal z Bell Labs poprawia parametry szumowe urządzeń półprzewodnikowych z tlenkiem metalu (MOS), rozwiązując problemy, które ograniczały czułość ich odbiornika i szybkość transmisji danych . Prowadzi to do szerokiego zastosowania technologii MOS w laserowych systemach fal świetlnych i aplikacjach terminali bezprzewodowych , umożliwiając zastosowanie prawa Edholma .
- W 1989 roku Phil Katz publikuje w
.zip
formacie tym opróżnić (LZ77 + Huffman kodowania); później stał się najczęściej używanym kontenerem archiwum. - W 1995 roku Benjamin Schumacher używa terminu kubit i udowadnia kwantowe bezszumowe twierdzenie o kodowaniu.