Historia Internetu - History of the Internet

Historia Internetu ma swoje źródło w wysiłkach zbudować i interkonekt sieci komputerowych , które pojawiły się od badań i rozwoju w Stanach Zjednoczonych i zaangażowanych współpracy międzynarodowej, szczególnie z naukowców w Wielkiej Brytanii i Francji .

Informatyka była rozwijającą się dyscypliną w późnych latach pięćdziesiątych, która zaczęła rozważać podział czasu między użytkownikami komputerów, a później możliwość osiągnięcia tego w sieciach rozległych . Niezależnie Paul Baran zaproponował sieć rozproszoną opartą na danych w blokach komunikatów na początku lat 60., a Donald Davies wymyślił przełączanie pakietów w 1965 r. w National Physical Laboratory (NPL) i zaproponował zbudowanie krajowej komercyjnej sieci danych w Wielkiej Brytanii. Projekty Agencja Zaawansowanych Badań (ARPA) z Departamentu Obrony USA przyznano kontrakty w 1969 roku dla rozwoju ARPANET projektu, w reżyserii Roberta Taylora i zarządzanego przez Lawrence Roberts . ARPANET zaadoptował technologię przełączania pakietów zaproponowaną przez Daviesa i Barana, popartą pracami matematycznymi we wczesnych latach 70-tych Leonardem Kleinrockiem z UCLA . Sieć zbudowali Bolt, Beranek i Newman .

Wczesne sieci z przełączaniem pakietów, takie jak sieć NPL , ARPANET, Merit Network i CYCLADES , badały i zapewniały sieci danych na początku lat 70. XX wieku. Projekty ARPA i międzynarodowe grupy robocze doprowadziły do ​​opracowania protokołów dla intersieci , w których wiele oddzielnych sieci można było łączyć w sieć sieci, która tworzyła różne standardy. Bob Kahn z ARPA i Vint Cerf z Uniwersytetu Stanforda opublikowali w 1974 roku badania, które przekształciły się w protokół kontroli transmisji (TCP) i protokół internetowy (IP), dwa protokoły z zestawu protokołów internetowych . W projekcie wykorzystano koncepcje z francuskiego projektu CYCLADES w reżyserii Louisa Pouzina .

Na początku lat 80. Narodowa Fundacja Nauki (NSF) sfinansowała krajowe centra obliczeń superkomputerowych na kilku uniwersytetach w Stanach Zjednoczonych i zapewniła łączność w 1986 r. z projektem NSFNET , tworząc w ten sposób dostęp sieciowy do tych superkomputerów dla organizacji badawczych i akademickich w Stanach Zjednoczonych. Państwa. Międzynarodowe połączenia z NSFNET, pojawienie się architektury, takiej jak Domain Name System , oraz międzynarodowe przyjęcie TCP/IP w istniejących sieciach to początki Internetu . Komercyjni dostawcy usług internetowych (ISP) pojawili się w 1989 roku w Stanach Zjednoczonych i Australii. Sieć ARPANET została zlikwidowana w 1990 r. Ograniczone prywatne połączenia z częściami Internetu przez oficjalne podmioty komercyjne pojawiły się w kilku amerykańskich miastach pod koniec 1989 i 1990 r. Sieć NSFNET została zlikwidowana w 1995 r. ruch drogowy.

Badania w CERN w Szwajcarii przeprowadzone przez brytyjskiego informatyka Tima Bernersa-Lee w latach 1989-90 zaowocowały powstaniem sieci WWW , łączącej dokumenty hipertekstowe z systemem informacyjnym dostępnym z dowolnego węzła w sieci. Od połowy lat 90. Internet wywarł rewolucyjny wpływ na kulturę, handel i technologię, w tym rozwój niemal natychmiastowej komunikacji za pośrednictwem poczty elektronicznej , komunikatorów , połączeń telefonicznych Voice over Internet Protocol (VoIP), czatów wideo i World Wide Web z forami dyskusyjnymi , blogami , serwisami społecznościowymi i sklepami internetowymi. Coraz większe ilości danych są przesyłane z coraz większą prędkością przez sieci światłowodowe działające z szybkością 1 Gbit/s , 10 Gbit/s lub większą. Internet przejął globalny krajobraz komunikacyjny szybko w ujęciu historycznym: przekazywał tylko 1% informacji przepływających przez dwukierunkowe sieci telekomunikacyjne w 1993 roku, 51% do 2000 roku i ponad 97% informacji telekomunikacyjnych do 2007 roku Internet wciąż się rozwija, napędzany coraz większą ilością informacji, handlu, rozrywki i serwisów społecznościowych online . Jednak przyszłość globalnej sieci może być kształtowana przez różnice regionalne.

Podwaliny

Prekursory

Koncepcja komunikacji danych – przesyłania danych między dwoma różnymi miejscami za pomocą nośnika elektromagnetycznego, takiego jak radio lub przewód elektryczny – poprzedza wprowadzenie pierwszych komputerów. Takie systemy komunikacyjne były zazwyczaj ograniczone do komunikacji punkt-punkt między dwoma urządzeniami końcowymi. Linie semaforowe , systemy telegraficzne i teleksery można uznać za wczesnych prekursorów tego rodzaju komunikacji. Telegraf pod koniec XIX wieku był pierwszym w pełni cyfrowym systemem komunikacji.

Fundamentalne prace teoretyczne nad teorią informacji zostały opracowane przez Harry'ego Nyquista i Ralpha Hartleya w latach dwudziestych XX wieku. Teoria informacji, jak głosił Claude Shannon w latach 40. XX wieku, dostarczyła mocnych podstaw teoretycznych do zrozumienia kompromisów między stosunkiem sygnału do szumu , szerokością pasma i bezbłędną transmisją w obecności szumu w technologii telekomunikacyjnej . Był to jeden z trzech kluczowych osiągnięć, wraz z postępem w technologii tranzystorowej (w szczególności tranzystorów MOS ) i technologii laserowej , który umożliwił szybki wzrost przepustowości telekomunikacyjnej w ciągu następnego półwiecza.

Wczesne komputery w latach 40. miały jednostkę centralną i terminale użytkowników . Wraz z rozwojem technologii w latach 50. opracowano nowe systemy umożliwiające komunikację na większe odległości (w przypadku terminali) lub z większą prędkością (w przypadku połączeń lokalnych urządzeń), które były niezbędne w przypadku modelu komputera typu mainframe . Technologie te umożliwiły wymianę danych (takich jak pliki) między komputerami zdalnymi. Model komunikacji punkt-punkt był jednak ograniczony, ponieważ nie pozwalał na bezpośrednią komunikację pomiędzy dowolnymi dwoma dowolnymi systemami; konieczne było fizyczne łącze. Technologia została również uznana za podatną na strategiczne i wojskowe zastosowanie, ponieważ nie było alternatywnych ścieżek komunikacji w przypadku zerwania łącza.

Inspiracja do pracy w sieci i interakcji z komputerami

Najwcześniejsze komputery były podłączane bezpośrednio do terminali używanych przez indywidualnego użytkownika. Christopher Strachey , który został pierwszym profesorem obliczeń na Uniwersytecie Oksfordzkim , złożył wniosek patentowy na podział czasu w lutym 1959 roku. W czerwcu tego samego roku wygłosił referat „Podział czasu w dużych szybkich komputerach” na konferencji UNESCO Information Processing Conference w Paryżu, gdzie przekazał koncepcję JCR Lickliderowi z MIT . Licklider, wiceprezes Bolt Beranek and Newman, Inc. , zaproponował sieć komputerową w swoim artykule ze stycznia 1960 r. Man-Computer Symbiosis :

Sieć takich ośrodków, połączonych ze sobą szerokopasmowymi liniami komunikacyjnymi [...] funkcje współczesnych bibliotek wraz z przewidywanymi postępami w zakresie przechowywania i wyszukiwania informacji oraz funkcjami symbiotycznymi sugerowanymi wcześniej w tym artykule

W sierpniu 1962 roku Licklider i Welden Clark opublikowali artykuł „On-Line Man-Computer Communication”, który był jednym z pierwszych opisów sieciowej przyszłości.

W październiku 1962 roku Licklider został zatrudniony przez Jacka Ruinę jako dyrektor nowo utworzonego Biura Technik Przetwarzania Informacji (IPTO) w ramach DARPA , z mandatem do połączenia głównych komputerów Departamentu Obrony Stanów Zjednoczonych w Cheyenne Mountain, Pentagonu i SAC Kwatera Główna Tam utworzył nieformalną grupę w ramach DARPA do dalszych badań komputerowych. Zaczął od pisania notatek w 1963 roku opisujących sieć rozproszoną dla personelu IPTO, którego nazwał „członkami i afiliantami międzygalaktycznej sieci komputerowej ”.

Chociaż opuścił IPTO w 1964, pięć lat przed uruchomieniem ARPANET, to właśnie jego wizja uniwersalnej sieci dała impuls jednemu z jego następców, Robertowi Taylorowi , do zainicjowania rozwoju ARPANET. Licklider powrócił później, aby przez dwa lata przewodzić IPTO w 1973 roku.

Przełączanie pakietów

Problem łączenia oddzielnych sieci fizycznych w jedną sieć logiczną był pierwszym z wielu problemów. Wczesne sieci wykorzystywały systemy z komutacją komunikatów, które wymagały sztywnych struktur routingu, podatnych na awarię pojedynczego punktu . W latach sześćdziesiątych Paul Baran z RAND Corporation opracował badania nad możliwymi do przetrwania sieciami dla armii amerykańskiej w przypadku wojny nuklearnej. Informacje przesyłane przez sieć Barana zostaną podzielone na to, co nazwał „blokami wiadomości”. Niezależnie Donald Davies ( Narodowe Laboratorium Fizyczne, Wielka Brytania ) zaproponował i wprowadził w życie sieć lokalną opartą na tym, co nazwał przełączaniem pakietów , termin, który ostatecznie zostanie przyjęty.

Przełączanie pakietów to szybki projekt sieciowy przechowywania i przekazywania, który dzieli wiadomości na dowolne pakiety, a decyzje dotyczące routingu są podejmowane na pakiet. Zapewnia lepsze wykorzystanie przepustowości i czasy odpowiedzi niż tradycyjna technologia przełączania obwodów stosowana w telefonii, szczególnie w przypadku łączy wzajemnych o ograniczonych zasobach.

Sieci, które doprowadziły do ​​Internetu

Sieć NPL

Po rozmowach z JCR Licklider w 1965 r. Donald Davies zainteresował się komunikacją danych w sieciach komputerowych. Później w tym samym roku, w National Physical Laboratory (Wielka Brytania) , Davies zaprojektował i zaproponował krajową komercyjną sieć danych opartą na komutacji pakietów. W następnym roku opisał wykorzystanie „komputera interfejsu” jako routera . Propozycja nie została przyjęta w całym kraju, ale opracował projekt sieci lokalnej na potrzeby NPL i udowodnił wykonalność przełączania pakietów przy użyciu szybkiej transmisji danych. On i jego zespół byli jednymi z pierwszych, którzy użyli terminu „protokół” w kontekście komutacji danych w 1967 roku.

W 1969 zaczął budować sieć z komutacją pakietów Mark I, aby sprostać potrzebom multidyscyplinarnego laboratorium i sprawdzić technologię w warunkach operacyjnych. W 1976 r. podłączono 12 komputerów i 75 urządzeń końcowych, a do momentu zastąpienia sieci w 1986 r. dodano kolejne. Lata 70. Zespół NPL przeprowadził prace symulacyjne w sieciach pakietowych, w tym sieci datagramowych , oraz badania nad intersiecią .

ARPANET

Robert Taylor został awansowany na stanowisko szefa Biura Technik Przetwarzania Informacji (IPTO) w Agencji Zaawansowanych Projektów Badawczych Obrony (DARPA) w 1966 roku. Zamierzał zrealizować idee Licklidera dotyczące systemu połączonej sieci. W ramach roli IPTO zainstalowano trzy terminale sieciowe: jeden dla System Development Corporation w Santa Monica , jeden dla Project Genie na Uniwersytecie Kalifornijskim w Berkeley i jeden dla projektu Kompatybilnego systemu współdzielenia czasu w Massachusetts Institute of Technology ( MIT). Zidentyfikowana przez Taylora potrzeba networkingu stała się oczywista z oczywistego dla niego marnowania zasobów.

Dla każdego z tych trzech terminali miałem trzy różne zestawy poleceń użytkownika. Więc jeśli rozmawiałem online z kimś w SDC i chciałem porozmawiać o tym z kimś, kogo znałem z Berkeley lub MIT, musiałem wstać z terminala SDC, podejść i zalogować się do drugiego terminala i skontaktować się z nimi .... Powiedziałem, o rany, to oczywiste, co zrobić: jeśli masz te trzy terminale, powinien być jeden terminal, który idzie tam, gdzie chcesz, gdzie masz interaktywne przetwarzanie. Tym pomysłem jest ARPAnet.

Sprowadzając Larry'ego Robertsa z MIT w styczniu 1967, zainicjował projekt budowy takiej sieci. Roberts i Thomas Merrill badali współdzielenie czasu przez komputer w sieciach rozległych (WAN). Sieci rozległe pojawiły się w latach pięćdziesiątych i powstały w latach sześćdziesiątych. Na pierwszym sympozjum ACM dotyczącym zasad systemów operacyjnych w październiku 1967 r. Roberts przedstawił propozycję „sieci ARPA”, opartą na propozycji Wesleya Clarka, aby użyć procesorów komunikatów interfejsu do stworzenia sieci przełączania komunikatów . Na konferencji Roger Scantlebury przedstawił pracę Donalda Daviesa nad komutacją pakietów w komunikacji danych i wspomniał o pracy Paula Barana z RAND . Roberts włączył koncepcje przełączania pakietów do projektu ARPANET i uaktualnił proponowaną prędkość komunikacji z 2,4 kb/s do 50 kb/s. Leonard Kleinrock następnie rozwinął teorię matematyczną stojącą za działaniem tej technologii, opierając się na swojej wcześniejszej pracy nad teorią kolejek .

ARPA przyznała kontrakt na budowę sieci firmie Bolt Beranek & Newman , a pierwsze połączenie ARPANET zostało ustanowione między Uniwersytetem Kalifornijskim w Los Angeles ( UCLA ) a Stanford Research Institute o godzinie 22:30 w dniu 29 października 1969 roku.

„Ustawiliśmy połączenie telefoniczne między nami a chłopakami z SRI…”, Kleinrock… powiedział w wywiadzie: „Wpisaliśmy L i zapytaliśmy przez telefon,

"Widzisz L?"
„Tak, widzimy L” – nadeszła odpowiedź.
Wpisaliśmy O i zapytaliśmy: „Czy widzisz O”.
„Tak, widzimy O”.
Potem wpisaliśmy G i system się zawiesił...

A jednak rozpoczęła się rewolucja” ....

35 lat Internetu, 1969–2004. Pieczęć Azerbejdżanu, 2004.

Do grudnia 1969 roku sieć czterowęzłowa została połączona poprzez dodanie Uniwersytetu Utah i Uniwersytetu Kalifornijskiego w Santa Barbara . W tym samym roku Taylor pomógł sfinansować ALOHAnet , system zaprojektowany przez profesora Normana Abramsona i innych z University of Hawaii w Manoa, który przesyłał dane drogą radiową między siedmioma komputerami na czterech wyspach na Hawajach . Oprogramowaniem do ustanawiania połączeń pomiędzy lokalizacjami sieciowymi w ARPANET był Program Kontroli Sieci (NCP), ukończony w ok. roku. 1970.

Rozwój ARPANET koncentrował się wokół procesu Request for Comments (RFC), który jest nadal używany do proponowania i rozpowszechniania protokołów i systemów internetowych. RFC 1, zatytułowany „Host Software”, został napisany przez Steve'a Crockera z Uniwersytetu Kalifornijskiego w Los Angeles i opublikowany 7 kwietnia 1969 roku. Te wczesne lata zostały udokumentowane w filmie z 1972 roku Computer Networks: The Heralds of Resource Sharing .

Wczesna międzynarodowa współpraca nad ARPANET była rzadka. W 1973 r. nawiązano połączenia z Norweską Macierzą Sejsmiczną ( NORSAR ) za pośrednictwem łącza satelitarnego na Stacji Ziemi Tanum w Szwecji oraz z grupą badawczą Petera Kirsteina w University College London, która zapewniła furtkę do brytyjskich sieci akademickich. Do 1981 roku liczba hostów wzrosła do 213. ARPANET stał się rdzeniem technicznym tego, co miało stać się Internetem, i podstawowym narzędziem w rozwoju wykorzystywanych technologii.

Sieć zasług

Merit Sieć powstała w 1966 roku jako Michigan Informacyjnego Badań Edukacyjnych Triady do odkrywania sieci komputerowej pomiędzy trzema uczelniami publicznymi Michigan jako środek pomagający rozwoju edukacyjnego i gospodarczego państwa. Przy początkowym wsparciu ze strony stanu Michigan i National Science Foundation (NSF) sieć z komutacją pakietów została po raz pierwszy zademonstrowana w grudniu 1971 r., kiedy nawiązano interaktywne połączenie host-host między komputerami mainframe IBM na Uniwersytecie Michigan w Ann. Uniwersytet Stanowy Arbor i Wayne w Detroit . W październiku 1972 roku triadę zakończyły połączenia z komputerem mainframe CDC na Michigan State University w East Lansing . W ciągu następnych kilku lat, oprócz interaktywnych połączeń host-host, sieć została rozbudowana o obsługę połączeń terminal-host, połączeń wsadowych host-host (zdalne przesyłanie zadań, drukowanie zdalne, przesyłanie plików wsadowych), interaktywny transfer plików, bramy do Tymnet i Telenet, publiczne sieci danych , przyłącza hosta X.25 , bramy do sieci danych X.25, hosty podłączone do Ethernetu , a ostatecznie do sieci dołączają TCP/IP i dodatkowe publiczne uniwersytety w Michigan . Wszystko to przygotowało grunt pod rolę Merit w projekcie NSFNET, który rozpoczął się w połowie lat osiemdziesiątych.

CYKLADY

Sieć przełączania pakietów CYCLADES była francuską siecią badawczą zaprojektowaną i kierowaną przez Louisa Pouzina . Opierając się na pomysłach Donalda Daviesa, Pouzin opracował sieć w celu zbadania alternatyw dla wczesnego projektu ARPANET i wspierania badań nad intersiecią. Po raz pierwszy zademonstrowany w 1973 roku, była to pierwsza sieć, w której za niezawodne dostarczanie danych były odpowiedzialne hosty, a nie sama sieć, przy użyciu zawodnych datagramów i powiązanych mechanizmów protokołu end-to-end . Koncepcje tej sieci wpłynęły na późniejszą architekturę ARPANET.

X.25 i publiczne sieci danych

1974 Wywiad ABC z Arthurem C. Clarke'em , w którym opisuje on przyszłość wszechobecnych komputerów osobistych w sieci.

W oparciu o międzynarodowe inicjatywy badawcze, w szczególności wkład Rémi Després , Międzynarodowy Komitet Konsultacyjny ds. Telegrafii i Telefonów (ITU-T) opracował standardy sieci z przełączaniem pakietów w postaci X.25 i standardów pokrewnych. X.25 opiera się na koncepcji wirtualnych obwodów emulujących tradycyjne połączenia telefoniczne. W 1974 r. X.25 stał się podstawą sieci SERCnet między brytyjskimi ośrodkami akademickimi i badawczymi, która później przekształciła się w JANET . Pierwotny standard ITU dotyczący X.25 został zatwierdzony w marcu 1976 r.

W 1978 r. brytyjska poczta , Western Union International i Tymnet stworzyły pierwszą międzynarodową sieć z przełączaniem pakietów, zwaną Międzynarodową Usługą Przełączania Pakietów (IPSS). Sieć ta rozrosła się z Europy i Stanów Zjednoczonych, obejmując Kanadę, Hongkong, i Australii do 1981 roku. W latach 90. zapewniła ogólnoświatową infrastrukturę sieciową.

W przeciwieństwie do ARPANET, X.25 był powszechnie dostępny do użytku biznesowego. Telenet zaoferował swoją usługę poczty elektronicznej Telemail, która była również ukierunkowana do użytku korporacyjnego, a nie do ogólnego systemu poczty elektronicznej ARPANET.

Pierwsze publiczne sieci wdzwaniane wykorzystywały asynchroniczne protokoły terminalowe TTY , aby dotrzeć do koncentratora działającego w sieci publicznej. Niektóre sieci, takie jak Telenet i CompuServe , wykorzystywały protokół X.25 do multipleksowania sesji terminalowych do szkieletów z przełączaniem pakietów, podczas gdy inne, takie jak Tymnet , stosowały protokoły zastrzeżone. W 1979 roku CompuServe stał się pierwszą usługą oferującą funkcje poczty elektronicznej i wsparcie techniczne użytkownikom komputerów osobistych. Firma ponownie wkroczyła na nowy grunt w 1980 roku jako pierwsza, oferując czat w czasie rzeczywistym za pomocą swojego symulatora CB . Inne główne sieci wdzwaniane to America Online (AOL) i Prodigy, które również dostarczały funkcje komunikacyjne, treściowe i rozrywkowe. Wiele sieci systemów biuletynów informacyjnych (BBS) również zapewniało dostęp on-line, na przykład FidoNet, który był popularny wśród hobbystów, wśród których wielu było hakerami i radioamatorami .

W ZSRR pierwsze sieci komputerowe pojawiły się w latach 50. w systemie obrony przeciwrakietowej w Sary Shagan (najpierw testowano je w Moskwie w Instytucie Mechaniki Precyzyjnej i Inżynierii Komputerowej im . Lebiediewa ). W latach 60. zaproponowano ogromny projekt sieci komputerowej o nazwie OGAS, ale nie udało się go zrealizować. Wspólny program kosmiczny Apollo–Sojuz USA–ZSRR (1972–1975) wykorzystywał dane cyfrowe dla statków kosmicznych przesyłanych między dwoma krajami. Od późnych lat 70. zaczęły pojawiać się sowieckie sieci X.25, aw 1978 r. w Leningradzie pojawił się Akademset . Do 1982 r. w Moskwie utworzono instytut VNIIPAS , który miał służyć jako centralny węzeł Akademset, który ustanowił regularne połączenie X.25 z IIASA w Austrii (co pozwoliło dostęp do innych sieci na całym świecie). W 1983 roku VNIIPAS wraz z rządem USA i Georgem Sorosem stworzył radzieckiego dostawcę usług X.25 o nazwie SFMT („Teleport San Francisco — Moskwa”), który później stał się Teleportem Sovam („ Teleport Sowiecko -Amerykański”). VNIIPAS świadczył również usługi X.25, w tym drogą satelitarną, do krajów bloku wschodniego wraz z Mongolią, Kubą i Wietnamem. W tym czasie zachodnie użytkownicy Usenetu były zazwyczaj nieświadomi, że i uwzględnić takie sieci w ZSRR unexistent, więc jeden z nich w dniu 1 kwietnia 1984 popisał się „ Prima Aprilis ” oszustwo o „ Kremvax ” ( „ Kreml VAX ”), który uzyskał pewną popularność na kolejne lata. ZSRR nominalnie dołączył do prywatnej sieci Fidonet w październiku 1990 roku, kiedy w Nowosybirsku pojawił się pierwszy węzeł Regionu 50 . Teleport Sovam na początku lat 90. stał się pierwszym dostawcą sieci SWIFT dla wschodzących banków rosyjskich (ponad X.25). Niektóre z wczesnych sowieckich/rosyjskich sieci zostały również zainicjowane jako część BITNET .

UUCP i Usenet

W 1979 roku dwóch studentów Uniwersytetu Duke'a , Tom Truscott i Jim Ellis , wpadło na pomysł wykorzystania skryptów powłoki Bourne'a do przesyłania wiadomości i wiadomości za pośrednictwem łącza szeregowego UUCP z pobliskim Uniwersytetem Północnej Karoliny w Chapel Hill . Po publicznym udostępnieniu oprogramowania w 1980 r. siatka hostów UUCP przekazujących wiadomości w sieci Usenet gwałtownie się rozszerzyła. UUCPnet, jak zostanie później nazwany, stworzył również bramy i łącza między FidoNet a dial-upowymi hostami BBS. Sieci UUCP rozprzestrzeniają się szybko ze względu na niższe koszty, możliwość korzystania z istniejących łączy dzierżawionych, łączy X.25 lub nawet połączeń ARPANET oraz brak ścisłych zasad użytkowania w porównaniu z późniejszymi sieciami, takimi jak CSNET i Bitnet . Wszystkie połączenia były lokalne. Do 1981 r. liczba hostów UUCP wzrosła do 550, prawie podwajając się do 940 w 1984 r.

Sublink Network , działająca od 1987 r. i oficjalnie założona we Włoszech w 1989 r., oparła swoją łączność na UUCP w celu redystrybucji wiadomości pocztowych i grup dyskusyjnych we włoskich węzłach (w tym czasie około 100) będących własnością zarówno osób prywatnych, jak i małych firm. Sublink Network stanowił prawdopodobnie jeden z pierwszych przykładów postępu technologii internetowej poprzez popularną dyfuzję.

1973–1989: Łączenie sieci i tworzenie Internetu

Mapa sieci testowej TCP/IP w lutym 1982 r.

TCP/IP

Pierwsza demonstracja internetowa, łącząca ARPANET , PRNET i SATNET 22 listopada 1977 r.

Przy tak wielu różnych metodach sieciowych, coś było potrzebne do ich ujednolicenia. Bob Kahn z DARPA zwerbował Vintona Cerfa z Uniwersytetu Stanforda, aby pracował z nim nad tym problemem. Steve Crocker utworzył z Vintem Cerfem grupę roboczą ARPA „Networking Working Group”. Równolegle powstała w 1972 roku Międzynarodowa Grupa Robocza ds. Sieci ; aktywnymi członkami byli Vint Cerf, Alex McKenzie, Donald Davies , Roger Scantlebury , Louis Pouzin i Hubert Zimmermann . Do 1973 r. grupy te wypracowały fundamentalną zmianę składu, w której różnice między protokołami sieciowymi zostały ukryte za pomocą wspólnego protokołu intersieciowego, a zamiast sieci odpowiedzialnej za niezawodność, jak w ARPANET, odpowiedzialność przejęły hosty. W ramach tej pracy ukuto również termin catenet (sieć połączona).

Kahn i Cerf opublikowali swoje pomysły w 1974 roku, które zawierały koncepcje zaproponowane przez Louisa Pouzina i Huberta Zimmermanna, projektantów sieci CYCLADES . Specyfikacja powstałego protokołu, Transmission Control Program , została opublikowana jako RFC  675 przez Network Working Group w grudniu 1974. Zawiera ona pierwsze potwierdzone użycie terminu internet , jako skrótu dla intersieci . Oprogramowanie to było monolityczne w konstrukcji, wykorzystując dwa proste kanały komunikacji dla każdej sesji użytkownika.

Gdy rola sieci została zredukowana do rdzenia funkcjonalności, stała się możliwa wymiana ruchu z innymi sieciami niezależnie od ich szczegółowej charakterystyki, rozwiązując tym samym podstawowe problemy intersieci . DARPA zgodziła się sfinansować rozwój prototypowego oprogramowania. Testowanie rozpoczęło się w 1975 roku poprzez równoległe wdrożenia w Stanford, BBN i University College London . Po kilku latach prac pierwszy pokaz bramy między siecią Packet Radio (PRNET) w rejonie SF Bay a ARPANET został przeprowadzony przez Stanford Research Institute . 22 listopada 1977 przeprowadzono demonstrację trzech sieci, w tym ARPANET, Packet Radio Van SRI w Packet Radio Network oraz Atlantic Packet Satellite Network (SATNET).

Oprogramowanie zostało przeprojektowane jako modułowy stos protokołów, wykorzystujący kanały pełnego dupleksu. W latach 1976-1977 Yogen Dalal zaproponował rozdzielenie funkcji routingu i kontroli transmisji TCP na dwie dyskretne warstwy, co doprowadziło do podziału programu kontroli transmisji na protokół kontroli transmisji (TCP) i protokół IP (IP) w wersji 3 w 1978 r. Pierwotnie określany jako IP/TCP , wersja 4 została opisana w publikacji IETF RFC 791 (wrzesień 1981), 792 i 793. Został zainstalowany w SATNET w 1982 i ARPANET w styczniu 1983 po tym, jak DoD uczynił go standardem dla wszystkich komputerów wojskowych sieci. Doprowadziło to do powstania modelu sieciowego, który stał się nieformalnie znany jako TCP/IP. Nazywano go również modelem Departamentu Obrony (DoD), modelem DARPA lub modelem ARPANET. Cerf przypisuje swoim studentom Yogenowi Dalalowi, Carlowi Sunshine, Judy Estrin i Richardowi Karpowi ważną pracę nad projektowaniem i testowaniem. DARPA sponsorowała lub zachęcała do rozwoju implementacji TCP/IP dla wielu systemów operacyjnych.

Dekompozycja adresu IPv4 z czterema kropkami na jego wartość binarną

IPv4 wykorzystuje 32- bitowe adresy, co ogranicza przestrzeń adresową do 2 32 adresów, czyli 4 294 967 296 adresów. Ostatni dostępny adres IPv4 został nadany w styczniu 2011 roku. IPv4 jest zastępowany przez jego następcę o nazwie „ IPv6 ”, który wykorzystuje 128-bitowe adresy, zapewniając 2 128 adresów, czyli 340 282 366 920 938 463 463 374 607 431 768 211 456 . To znacznie zwiększona przestrzeń adresowa. Oczekuje się, że przejście na IPv6 zajmie wiele lat, dziesięcioleci, a może i dłużej, ponieważ na początku tej zmiany istniały cztery miliardy maszyn z IPv4.

Od ARPANETU do NSFNET

Internetowa mapa TCP/IP BBN Technologies z początku 1986 roku.

Po kilku latach funkcjonowania ARPANET, ARPA szukała innej agencji, której mogłaby przekazać sieć; Główną misją ARPA było finansowanie nowatorskich badań i rozwoju, a nie prowadzenie narzędzia komunikacyjnego. Ostatecznie, w lipcu 1975 roku, sieć została przekazana Agencji Komunikacji Obronnej , również będącej częścią Departamentu Obrony . W 1983 roku amerykańska część ARPANET, militarna, została oddzielona jako oddzielna sieć, MILNET . Następnie MILNET stał się niesklasyfikowanym, ale tylko wojskowym NIPRNET , równolegle z SIPRNET na poziomie SECRET i JWICS dla TOP SECRET i wyższych. NIPRNET posiada kontrolowane bramy bezpieczeństwa do publicznego Internetu.

Sieci oparte na ARPANET były finansowane przez rząd, a zatem ograniczone do zastosowań niekomercyjnych, takich jak badania; niepowiązane wykorzystanie komercyjne było surowo zabronione. Początkowo ograniczało to połączenia z obiektami wojskowymi i uniwersytetami. W latach 80. połączenia rozszerzyły się na kolejne instytucje edukacyjne, a nawet na coraz większą liczbę firm, takich jak Digital Equipment Corporation i Hewlett-Packard , które brały udział w projektach badawczych lub świadczyły usługi tym, którzy brali udział.

Kilka innych gałęzi rządu USA , Narodowa Agencja Aeronautyki i Przestrzeni Kosmicznej (NASA), Narodowa Fundacja Nauki (NSF) i Departament Energii (DOE) mocno zaangażowały się w badania nad Internetem i rozpoczęły prace nad następcą ARPANET. W połowie lat 80. wszystkie te trzy gałęzie stworzyły pierwsze sieci rozległe oparte na protokole TCP/IP. NASA stworzyła NASA Science Network , NSF stworzyła CSNET, a DOE rozwinęła Energy Sciences Network lub ESNet.

Szkielet T3 NSFNET, c. 1992

NASA opracowała NASA Science Network (NSN) opartą na TCP/IP w połowie lat 80., łącząc naukowców zajmujących się kosmosem z danymi i informacjami przechowywanymi w dowolnym miejscu na świecie. W 1989 r. w NASA Ames Research Center połączono opartą na DECnet sieć analiz fizyki przestrzeni kosmicznej (SPAN) i NASA Science Network (NSN) opartą na TCP/IP, tworząc pierwszą wieloprotokołową sieć rozległą o nazwie NASA Science Internet lub NSI . NSI została założona w celu zapewnienia całkowicie zintegrowanej infrastruktury komunikacyjnej społeczności naukowej NASA w celu rozwoju nauk o Ziemi, kosmosie i nauk przyrodniczych. Jako szybka, wieloprotokołowa, międzynarodowa sieć, NSI zapewniła łączność ponad 20 000 naukowcom na wszystkich siedmiu kontynentach.

W 1981 roku NSF wsparła rozwój Sieci Informatycznej (CSNET). CSNET łączył się z ARPANET za pomocą protokołu TCP/IP i korzystał z protokołu TCP/IP przez X.25 , ale obsługiwał również działy bez zaawansowanych połączeń sieciowych, wykorzystując zautomatyzowaną wymianę poczty wdzwanianego.

W 1986 r. NSF utworzyła NSFNET , sieć szkieletową 56 kbit/s do obsługi centrów superkomputerowych sponsorowanych przez NSF . NSFNET zapewnił również wsparcie dla tworzenia regionalnych sieci badawczych i edukacyjnych w Stanach Zjednoczonych oraz dla połączenia sieci kampusów uniwersyteckich i uniwersyteckich z sieciami regionalnymi. Wykorzystanie NSFNET i sieci regionalnych nie ograniczało się do użytkowników superkomputerów, a sieć 56 kbit/s szybko uległa przeciążeniu. NSFNET został zaktualizowany do 1,5 Mbit/s w 1988 roku na mocy umowy o współpracy z Merit Network we współpracy z IBM , MCI i stanem Michigan . Istnienie NSFNET i utworzenie Federalnej Giełdy Internetowej (FIX) pozwoliło na wycofanie ARPANET z użytku w 1990 roku.

Sieć NSFNET została rozszerzona i zaktualizowana do 45 Mbit/s w 1991 roku, a wycofana z użytku w 1995 roku, kiedy została zastąpiona przez sieci szkieletowe obsługiwane przez kilku komercyjnych dostawców usług internetowych .

Społeczność naukowa i akademicka nadal rozwija i wykorzystuje zaawansowane sieci, takie jak Internet2 w Stanach Zjednoczonych i JANET w Wielkiej Brytanii.

Przejście do Internetu

Termin „internet” został odzwierciedlony w pierwszym dokumencie RFC dotyczącym protokołu TCP (RFC 675: Internet Transmission Control Program, grudzień 1974) jako skrócona forma intersieci , w którym oba terminy były używane zamiennie. Ogólnie rzecz biorąc, internet był zbiorem sieci połączonych wspólnym protokołem. W okresie, gdy ARPANET był podłączony do nowo powstałego projektu NSFNET pod koniec lat 80., termin ten był używany jako nazwa sieci, Internet, będąca dużą i globalną siecią TCP/IP.

W miarę jak zainteresowanie sieciami wzrosło ze względu na potrzebę współpracy, wymiany danych i dostępu do zdalnych zasobów obliczeniowych, technologie TCP/IP rozprzestrzeniły się na resztę świata. Niezależne od sprzętu podejście w protokole TCP/IP wspierało wykorzystanie istniejącej infrastruktury sieciowej, takiej jak sieć IPSS ( International Packet Switched Service ) X.25, do przenoszenia ruchu internetowego.

Wiele witryn, które nie mogą połączyć się bezpośrednio z Internetem, stworzyło proste bramki do przesyłania poczty elektronicznej, najważniejszego w tamtych czasach aplikacji. Witryny z połączeniami przerywanymi korzystały z UUCP lub FidoNet i polegały na bramach między tymi sieciami a Internetem. Niektóre usługi bram wykraczały poza zwykłą komunikację równorzędną poczty, na przykład umożliwiając dostęp do witryn protokołu FTP ( File Transfer Protocol ) za pośrednictwem UUCP lub poczty.

Wreszcie, opracowano technologie routingu dla Internetu, aby usunąć pozostałe scentralizowane aspekty routingu. Exterior Gateway Protocol (EGP) został zastąpiony przez nowego protokołu Border Gateway Protocol (BGP). Zapewniło to topologię siatki dla Internetu i zmniejszyło architekturę centryczną, na którą kładł nacisk ARPANET. W 1994 roku wprowadzono Classless Inter-Domain Routing (CIDR) w celu lepszego zachowania przestrzeni adresowej, co umożliwiło wykorzystanie agregacji tras w celu zmniejszenia rozmiaru tablic routingu .

TCP/IP staje się globalny (lata 80. XX wieku)

CERN, europejski Internet, łącze do Pacyfiku i nie tylko

Na początku 1982 roku grupa NORSAR i Petera Kirsteina z University College London (UCL) opuściła ARPANET i zaczęła używać TCP/IP przez SATNET. UCL zapewnił dostęp między Internetem a sieciami akademickimi w Wielkiej Brytanii.

W latach 1984-1988 CERN rozpoczął instalację i eksploatację TCP/IP w celu połączenia swoich głównych wewnętrznych systemów komputerowych, stacji roboczych, komputerów PC i systemu sterowania akceleratorami. CERN nadal eksploatował wewnętrznie ograniczony, samodzielnie opracowany system (CERNET) i kilka niekompatybilnych (zwykle zastrzeżonych) protokołów sieciowych na zewnątrz. W Europie istniał znaczny opór wobec powszechniejszego korzystania z protokołu TCP/IP, a intranety TCP/IP w CERN pozostawały odizolowane od Internetu do 1989 r., kiedy nawiązano połączenie transatlantyckie z Uniwersytetem Cornell.

W 1988 roku pierwsze połączenia międzynarodowe do NSFNET zostały ustanowione przez francuską INRIA oraz Pieta Beertemę w Centrum Wiskunde & Informatica (CWI) w Holandii. Daniel Karrenberg z CWI odwiedził Bena Segala, koordynatora TCP/IP w CERN, szukając porady na temat przejścia EUnet , europejskiej strony sieci Usenet UUCP (z której większość przebiegała przez łącza X.25) na TCP/IP. W poprzednim roku Segal spotkał się z Lenem Bosackiem z wówczas jeszcze małej firmy Cisco w sprawie zakupu niektórych routerów TCP/IP dla CERN, a Segal był w stanie udzielić Karrenbergowi porady i przekazać go do Cisco w celu uzyskania odpowiedniego sprzętu. To rozszerzyło europejską część Internetu na istniejące sieci UUCP. NORDUnet połączenie NSFNet był na miejscu zaraz po, zapewniając swobodny dostęp dla studentów w Danii, Finlandii, Islandii, Norwegii i Szwecji. W styczniu 1989 r. CERN otworzył swoje pierwsze zewnętrzne połączenia TCP/IP. Zbiegło się to z utworzeniem Réseaux IP Européens ( RIPE ), początkowo grupy administratorów sieci IP, którzy spotykali się regularnie, aby wspólnie prowadzić koordynację. Później, w 1992 roku, RIPE została formalnie zarejestrowana jako spółdzielnia w Amsterdamie.

W 1991 r. JANET , brytyjska krajowa sieć badawcza i edukacyjna, przyjęła protokół internetowy w istniejącej sieci. W tym samym roku Dai Davies wprowadził technologię internetową do paneuropejskiej sieci NREN , EuropaNet , która została zbudowana na protokole X.25. European Academic and Research Network (EARN) i RARE przyjęty IP w tym samym czasie, a Europejski kręgosłup Internet EBONE zaczął funkcjonować w 1992 roku.

W tym samym czasie, w którym pojawił się internetworking w Europie, powstały sieci ad hoc do ARPA i pomiędzy australijskimi uniwersytetami, oparte na różnych technologiach, takich jak X.25 i UUCP Net. Były one ograniczone w połączeniu z sieciami globalnymi, ze względu na koszt wykonywania indywidualnych międzynarodowych połączeń dial-up UUCP lub X.25. W 1989 roku australijskie uniwersytety przyłączyły się do dążenia do wykorzystania protokołów IP do ujednolicenia infrastruktury sieciowej. AARNet została utworzona w 1989 r. przez australijski komitet wicekanclerzy i zapewniła australijską sieć opartą na IP. Pierwsze międzynarodowe połączenie internetowe w Nowej Zelandii zostało uruchomione w tym samym roku.

W maju 1982 r. Korea Południowa utworzyła dwuwęzłową krajową sieć TCP/IP, dodając trzeci węzeł w następnym roku. Japonia, która zbudowała opartą na UUCP sieć JUNET w 1984 roku, połączyła się z NSFNET w 1989 roku, co oznaczało rozprzestrzenienie się Internetu w Azji. Był gospodarzem dorocznego spotkania Stowarzyszenia Internetowego INET'92 w Kobe . Singapur rozwinął TECHNET w 1990 roku, a Tajlandia uzyskała globalne połączenie internetowe między Chulalongkorn University a UUNET w 1992 roku.

Niemniej jednak, w późnych latach 80. i wczesnych 90. inżynierowie, organizacje i narody były spolaryzowane w kwestii tego, który standard , model OSI czy pakiet protokołów internetowych zapewniłby najlepsze i najbardziej niezawodne sieci komputerowe.

Pojawia się wczesna globalna „przepaść cyfrowa”

Podczas gdy kraje rozwinięte z infrastrukturą technologiczną przystępowały do ​​Internetu, kraje rozwijające się zaczęły doświadczać przepaści cyfrowej oddzielającej je od Internetu. Na zasadzie kontynentalnej budują organizacje do administrowania zasobami internetowymi i dzielą się doświadczeniami operacyjnymi, ponieważ powstaje coraz więcej urządzeń transmisyjnych.

Afryka

Na początku lat 90. kraje afrykańskie polegały na łączach X.25 IPSS i modemie UUCP o szybkości 2400 bodów w międzynarodowej i intersieciowej komunikacji komputerowej.

W sierpniu 1995 r. InfoMail Uganda, Ltd., prywatna firma z Kampali, obecnie znana jako InfoCom, oraz NSN Network Services z Avon w stanie Kolorado, sprzedana w 1997 r. i obecnie znana jako Clear Channel Satellite, ustanowiły pierwszy w Afryce natywny protokół TCP/IP o wysokiej usługi szybkiego Internetu satelitarnego. Połączenie danych było pierwotnie przesyłane przez rosyjskiego satelitę C-Band RSCC, który łączył biura InfoMail w Kampali bezpośrednio z punktem obecności NSN MAE-West za pomocą prywatnej sieci z wydzierżawionej przez NSN stacji naziemnej w New Jersey. Pierwsze połączenie satelitarne firmy InfoCom miało prędkość zaledwie 64 kb/s, obsługując komputer-host firmy Sun i dwanaście modemów dial-up US Robotics.

W 1996 roku, finansowany przez USAID projekt Leland Initiative , rozpoczął prace nad stworzeniem pełnej łączności z Internetem na kontynencie. Gwinea , Mozambik, Madagaskar i Rwanda zyskały satelitarne stacje naziemne w 1997 roku, a następnie Wybrzeże Kości Słoniowej i Benin w 1998 roku.

Afryka buduje infrastrukturę internetową. AFRINIC z siedzibą na Mauritiusie zarządza przydzielaniem adresów IP na kontynencie. Podobnie jak inne regiony internetowe, istnieje forum operacyjne, Internetowa Społeczność Specjalistów ds. Sieci Operacyjnych.

Istnieje wiele programów zapewniających wysokowydajną instalację transmisyjną, a zachodnie i południowe wybrzeża mają podmorski kabel optyczny. Kable dużych prędkości łączą Afrykę Północną i Róg Afryki w międzykontynentalne systemy kablowe. Rozwój kabli podmorskich jest wolniejszy w Afryce Wschodniej; pierwotny wspólny wysiłek Nowego Partnerstwa na rzecz Rozwoju Afryki (NEPAD) i Wschodnioafrykańskiego Systemu Okrętów Podwodnych (Eassy) został przerwany i może stać się dwoma wysiłkami.

Azja i Oceania

Asia Pacific Network Information Center (APNIC) , z siedzibą w Australii, zarządza alokacji adresów IP dla kontynentu. APNIC sponsoruje forum operacyjne, Regionalną Konferencję Internetową Azji i Pacyfiku na temat technologii operacyjnych (APRICOT).

Pierwszy system internetowy Korei Południowej, System Development Network (SDN) rozpoczął działanie 15 maja 1982 r. SDN został połączony z resztą świata w sierpniu 1983 r. za pomocą UUCP (Unixto-Unix-Copy); przyłączony do CSNET w grudniu 1984 r.; i formalnie podłączony do Internetu w USA w 1990 roku.

W 1991 roku w Chińskiej Republice Ludowej powstała pierwsza sieć uczelniana TCP/IP , TUNET Uniwersytetu Tsinghua . ChRL ustanowiła swoje pierwsze globalne połączenie internetowe w 1994 r., między Beijing Electro-Spectrometer Collaboration a Linear Accelerator Center na Uniwersytecie Stanforda . Jednak Chiny wdrożyły własną przepaść cyfrową, wdrażając ogólnokrajowy filtr treści .

Ameryka Łacińska

Podobnie jak w przypadku innych regionów, rejestr adresów internetowych Ameryki Łacińskiej i Karaibów (LACNIC) zarządza przestrzenią adresów IP i innymi zasobami na swoim obszarze. LACNIC, z siedzibą w Urugwaju, obsługuje rootowanie DNS, odwrotne DNS i inne kluczowe usługi.

1989–2004: Powstanie globalnego Internetu, Web 1.0

Początkowo, podobnie jak w przypadku poprzednich sieci, system, który przekształcił się w Internet, był przeznaczony przede wszystkim do użytku rządu i organów rządowych. Jednak zainteresowanie komercyjnym wykorzystaniem Internetu szybko stało się powszechnie dyskutowanym tematem. Chociaż wykorzystanie komercyjne było zabronione, dokładna definicja wykorzystania komercyjnego była niejasna i subiektywna. UUCP Net i X.25 IPSS nie miały takich ograniczeń, co ostatecznie doprowadziłoby do oficjalnego zakazu korzystania przez UUCPNet z połączeń ARPANET i NSFNET . (Niektóre łącza UUCP nadal jednak łączyły się z tymi sieciami, ponieważ administratorzy przymykali oko na ich działanie).

Liczba hostów internetowych na całym świecie: 1969-obecnie
Źródło: Konsorcjum Systemów Internetowych .

W rezultacie pod koniec lat 80. powstały pierwsze firmy świadczące usługi internetowe (ISP). Firmy takie jak PSINet , UUNET , Netcom i Portal Software zostały utworzone w celu świadczenia usług na regionalnych sieci badawczych oraz zapewnienie alternatywnego dostępu do sieci, e-mail w oparciu UUCP i dyskusyjnych, do publicznej wiadomości. Pierwszym komercyjnym ISP w Stanach Zjednoczonych był The World , który został otwarty w 1989 roku.

W 1992 r. Kongres USA uchwalił ustawę o nauce i zaawansowanych technologiach, 42 USC  § 1862(g) , która umożliwiała NSF wspieranie dostępu społeczności naukowych i edukacyjnych do sieci komputerowych, które nie były wykorzystywane wyłącznie do celów badawczych i edukacyjnych, a zatem pozwalając NSFNET na łączenie się z sieciami komercyjnymi. Wywołało to kontrowersje w środowisku naukowym i edukacyjnym, które obawiało się, że komercyjne wykorzystanie sieci może prowadzić do tego, że Internet będzie mniej reagował na ich potrzeby, oraz w społeczności komercyjnych dostawców sieci, którzy uważali, że dotacje rządowe dają nieuczciwą przewagę do niektórych organizacji.

Do 1990 roku cele ARPANET zostały osiągnięte, a nowe technologie sieciowe przekroczyły pierwotny zakres i projekt dobiegł końca. Nowi dostawcy usług sieciowych, w tym PSINet , Alternet , CERFNet, ANS CO+RE i wielu innych, oferowali dostęp do sieci klientom komercyjnym. NSFNET przestał być de facto szkieletem i punktem wymiany w Internecie. Komercyjna Internet Exchange (CIX), Centrale Metropolitan Area (Maes), a później Network Access Points (KPD) stawały podstawowych połączeń między wieloma sieciami. Ostateczne ograniczenia w prowadzeniu ruchu komercyjnego zakończyły się 30 kwietnia 1995 r., kiedy National Science Foundation zakończyła sponsorowanie usługi NSFNET Backbone Service i usługa została zakończona. NSF zapewniło wstępne wsparcie dla NAP i tymczasowe wsparcie, aby pomóc regionalnym sieciom badawczym i edukacyjnym przejść do komercyjnych dostawców usług internetowych. NSF sponsorowała również bardzo szybką usługę sieci szkieletowej (vBNS), która nadal zapewniała wsparcie dla ośrodków superkomputerowych oraz badań i edukacji w Stanach Zjednoczonych.

World Wide Web i wprowadzenie przeglądarek

Ogłoszenie z 1997 r. w State Magazine przez Bibliotekę Departamentu Stanu USA na sesje wprowadzające do nieznanej wówczas sieci Web

Sieć WWW (czasami w skrócie „www” lub „W3”) to przestrzeń informacyjna, w której dokumenty i inne zasoby internetowe są identyfikowane za pomocą identyfikatorów URI , połączone łączami hipertekstowymi i można uzyskać do nich dostęp przez Internet za pomocą przeglądarki internetowej i (od niedawna ) aplikacje internetowe . Stało się znane po prostu jako „sieć”. Od 2010 roku sieć WWW jest podstawowym narzędziem używanym przez miliardy do interakcji w Internecie i niezmiernie zmieniła życie ludzi.

Prekursory przeglądarki internetowej pojawiły się w postaci aplikacji z hiperłączami w połowie i pod koniec lat 80. (sama koncepcja hiperłącza istniała już od kilkudziesięciu lat). Następnie Timowi Bernersowi-Lee przypisuje się wynalezienie sieci WWW w 1989 r. i opracowanie w 1990 r. zarówno pierwszego serwera WWW , jak i pierwszej przeglądarki internetowej o nazwie WorldWideWeb (bez spacji), a później przemianowanej na Nexus. Wkrótce powstało wiele innych, z Mosaic Marca Andreessena z 1993 roku (później Netscape ), szczególnie łatwym w użyciu i instalacji, i często przypisywanym wywołaniu boomu internetowego w latach dziewięćdziesiątych. Inne popularne przeglądarki internetowe to Internet Explorer , Firefox , Google Chrome , Microsoft Edge , Opera i Safari .

NCSA Mosaic była graficzną przeglądarką działającą na kilku popularnych komputerach biurowych i domowych. Przypisuje mu się to, że jako pierwszy dostarcza treści multimedialne użytkownikom nietechnicznym, umieszczając obrazy i tekst na tej samej stronie, w przeciwieństwie do poprzednich projektów przeglądarek; Marc Andreessen, jego twórca, również siedzibę firmy, która w 1994 roku, wydany Netscape Navigator , co zaowocowało jednym z pierwszych wojen przeglądarek , kiedy to znalazł się w konkursie o dominację (który stracił) z Microsoft Windows ' Internet Explorer , która został dołączony do systemu Windows, co z kolei doprowadziło do pozwu antymonopolowego między Stanami Zjednoczonymi a Microsoft Corporation . Sieć zaczęła wchodzić do powszechnego użytku w latach 1993-4, kiedy zaczęły pojawiać się strony internetowe do codziennego użytku . Ograniczenia dotyczące komercyjnego wykorzystania zostały zniesione w 1995 roku. W Stanach Zjednoczonych usługa online America Online (AOL) oferowała swoim użytkownikom połączenie z Internetem za pośrednictwem ich własnej przeglądarki wewnętrznej, z wykorzystaniem połączenia internetowego typu dial-up . Szybsze szerokopasmowe połączenia internetowe zastąpiły wiele połączeń dial-up od początku 2000 roku.

Używaj w szerszym społeczeństwie

Opieczętowane koperty z rosyjskim Napisz wydany w 1993 roku z pieczęcią i grafiki przeznaczonej do pierwszego rosyjskiego podwodnego kabla światłowodowego cyfrowej przewidzianą w 1993 roku przez Rostelecom od Kingisepp do Kopenhagi

W ciągu pierwszej dekady publicznego Internetu ogromne zmiany, które ostatecznie umożliwił w 2000 roku, wciąż powstawały. Jeśli chodzi o zapewnienie kontekstu dla tego okresu, mobilne urządzenia komórkowe („smartfony” i inne urządzenia komórkowe), które obecnie zapewniają niemal powszechny dostęp, były wykorzystywane w biznesie, a nie jako rutynowy przedmiot gospodarstwa domowego będący własnością rodziców i dzieci na całym świecie. Media społecznościowe w nowoczesnym sensie jeszcze nie powstały, laptopy były nieporęczne, a większość gospodarstw domowych nie miała komputerów. Szybkość przesyłania danych była niska, a większości ludzi brakowało środków do wideo lub digitalizacji wideo; przechowywanie nośników powoli przechodziło z taśm analogowych na cyfrowe dyski optyczne ( DVD iw pewnym stopniu dyskietki na CD ). Włączenie technologii używanych od początku 2000 roku takich jak PHP , współczesny JavaScript i Java , technologie takie jak AJAX , HTML 4 (z naciskiem na CSS ) oraz różne frameworki programowe , które umożliwiły i uprościły szybkość tworzenia stron internetowych, w dużej mierze wyczekiwane wynalezienie i ich ewentualne powszechne przyjęcie.

Internet był powszechnie stosowany na listach dyskusyjnych , wiadomości e-mail , e-commerce i wcześnie popularnej zakupy online ( Amazon i eBay na przykład), w Internecie fora i tablice ogłoszeń i osobiste strony internetowe i blogi , a także stosowanie szybko rośnie, ale bardziej nowoczesnymi standardami stosowane systemy były statyczne i nie miały szerokiego zaangażowania społecznego. Na początku XXI wieku oczekiwano na wiele wydarzeń, aby zmienić technologię komunikacyjną w kluczową część infrastruktury społeczeństwa globalnego.

Typowe elementy projektu tych witryn z ery „Web 1.0” obejmowały: Strony statyczne zamiast dynamicznego HTML ; treść serwowana z systemów plików zamiast z relacyjnych baz danych ; strony zbudowane przy użyciu funkcji dołączania po stronie serwera lub CGI zamiast aplikacji sieci Web napisanej w dynamicznym języku programowania ; Struktury ery HTML 3.2 , takie jak ramki i tabele do tworzenia układów stron; księgi gości online ; nadużywanie przycisków GIF i podobnych małych grafik promujących poszczególne przedmioty; oraz formularze HTML wysyłane pocztą elektroniczną . (Obsługa skryptów po stronie serwera była rzadka na serwerach współdzielonych, więc zwykłym mechanizmem przesyłania informacji zwrotnych był e-mail, przy użyciu formularzy mailto i ich programu pocztowego .

W latach 1997-2001 miała miejsce pierwsza spekulacyjna bańka inwestycyjna związana z Internetem, w której firmy „dot-com” (odnoszące się do domeny najwyższego poziomu.com ” używanej przez firmy) zostały zmuszone do wyjątkowo wysokich wycen jako inwestorzy szybko podbiły ceny akcji , po czym nastąpił krach na rynku ; pierwsza bańka dot-com . Jednak to tylko chwilowo spowolniło entuzjazm i wzrost, który szybko powrócił i nadal rósł.

Wkrótce potem pojawiło się wezwanie do Web 2.0, okres Internetu do około 2004-2005 został nazwany i opisany przez niektórych jako Web 1.0.

2005–obecnie: Web 2.0, globalna wszechobecność, media społecznościowe

Zmiany, które miały wprowadzić Internet na swoje miejsce jako system społeczny, miały miejsce w stosunkowo krótkim okresie, nie dłuższym niż pięć lat, od około 2005 do 2010 roku. Obejmowały one:

  • Wezwanie do „ Web 2.0 ” w 2004 r. (po raz pierwszy zaproponowane w 1999 r.),
  • Przyspieszenie adopcji i utowarowienia w gospodarstwach domowych niezbędnego sprzętu (takiego jak komputery) i znajomości z nim.
  • Przyspieszenie technologii pamięci masowej i prędkości dostępu do danych – pojawiły się dyski twarde, które zastąpiły znacznie mniejsze, wolniejsze dyskietki i wzrosły z megabajtów do gigabajtów (a do około 2010 roku terabajtów ), pamięć RAM z setek kilobajtów do gigabajtów jako typowe ilości w systemie , a Ethernet , technologia umożliwiająca korzystanie z TCP/IP, przeszła z typowych szybkości kilobitów do dziesiątek megabitów na sekundę i gigabitów na sekundę.
  • Szybki Internet i szerszy zasięg połączeń danych, po niższych cenach, pozwalający na większy ruch, bardziej niezawodny, prostszy ruch i ruch z większej liczby lokalizacji,
  • Stopniowo przyspieszające postrzeganie zdolności komputerów do tworzenia nowych środków i podejść do komunikacji, pojawienie się mediów społecznościowych i stron internetowych, takich jak Twitter i Facebook, do ich późniejszego rozgłosu oraz globalna współpraca, taka jak Wikipedia (która istniała wcześniej, ale zyskała na znaczeniu jako wynik),
  • Mobilna rewolucja , która przewiduje dostęp do internetu, aby znaczna część społeczeństwa ludzkiego w każdym wieku, w życiu codziennym i pozostawiono je do udziału, dyskutować, i stale aktualizować, zapytać, odpowiedzi.
  • Nieulotna pamięć RAM szybko zwiększyła swój rozmiar i niezawodność, a jej cena spadła, stając się towarem umożliwiającym wysoki poziom aktywności obliczeniowej na tych małych urządzeniach przenośnych, a także na dyskach półprzewodnikowych (SSD).
  • Nacisk na energooszczędny procesor i konstrukcję urządzenia, a nie czysto wysoką moc obliczeniową; jednym z beneficjentów tego było ARM , brytyjska firma, która od lat 80-tych koncentrowała się na potężnych, ale tanich, prostych mikroprocesorach. Architektura ARM szybko zdobyła dominację na rynku urządzeń mobilnych i wbudowanych.

Termin „Web 2.0” opisuje witryny internetowe, które kładą nacisk na zawartość generowaną przez użytkowników (w tym interakcję między użytkownikami), użyteczność i interoperacyjność . Po raz pierwszy pojawił się w artykule „Fragmented Future” w styczniu 1999 roku, napisanym przez Darcy DiNucci , konsultantkę ds. projektowania informacji elektronicznych , w którym napisała:

„Sieć, którą znamy teraz, która ładuje się do okna przeglądarki w zasadniczo statycznych ekranach, jest tylko embrionem przyszłej sieci. Zaczynają się pojawiać pierwsze przebłyski Web 2.0 i dopiero zaczynamy dostrzegać, jak ten embrion może Internet będzie rozumiany nie jako ekrany z tekstem i grafiką, ale jako mechanizm transportowy, eter, dzięki któremu dzieje się interaktywność. Pojawi się [...] na ekranie Twojego komputera, [...] na telewizorze [ ...] deska rozdzielcza samochodu [...] telefon komórkowy [...] przenośne automaty do gier [...] może nawet kuchenka mikrofalowa."

Termin ten pojawił się ponownie w latach 2002-2004 i zyskał na znaczeniu pod koniec 2004 roku po prezentacjach Tima O'Reilly'ego i Dale'a Dougherty'ego na pierwszej konferencji Web 2.0 . W swoich uwagach wstępnych John Battelle i Tim O'Reilly przedstawili swoją definicję „sieci jako platformy”, w której aplikacje są budowane na sieci, a nie na komputerach stacjonarnych. Unikalnym aspektem tej migracji, argumentowali, jest to, że „klienci budują Twój biznes dla Ciebie”. Argumentowali, że działania użytkowników generujących treści (w postaci pomysłów, tekstu, filmów lub zdjęć) można „wykorzystać” do tworzenia wartości.

Web 2.0 nie odnosi się do aktualizacji jakiejkolwiek specyfikacji technicznej, ale raczej do skumulowanych zmian w sposobie tworzenia i używania stron internetowych. Web 2.0 opisuje podejście, w którym witryny skupiają się zasadniczo na umożliwieniu użytkownikom interakcji i współpracy w dialogu w mediach społecznościowych jako twórcom treści generowanych przez użytkowników w społeczności wirtualnej , w przeciwieństwie do witryn internetowych, w których ludzie ograniczają się do biernego przeglądanie treści . Przykładami Web 2.0 są serwisy społecznościowe , blogi , wiki , folksonomie , witryny do udostępniania wideo , usługi hostowane , aplikacje internetowe i mashupy . Terry Flew w swoim trzecim wydaniu New Media opisał to, co jego zdaniem charakteryzuje różnice między Web 1.0 i Web 2.0:

„[Przejście] z osobistych witryn internetowych do blogów i agregacji witryn blogowych, od publikowania do uczestnictwa, od treści internetowych jako wyniku dużych inwestycji wstępnych do ciągłego i interaktywnego procesu oraz od systemów zarządzania treścią do linków opartych na tagowaniu ( folksonomia )".

W tej epoce kilka domowych nazwisk zyskało na znaczeniu dzięki działaniom zorientowanym na społeczność – na przykład YouTube , Twitter, Facebook, Reddit i Wikipedia.

Mobilna rewolucja

Proces zmian, który generalnie zbiegł się z „Web 2.0”, sam w sobie uległ znacznemu przyspieszeniu i przekształcił się niedługo później przez rosnący wzrost liczby urządzeń mobilnych. Ta mobilna rewolucja sprawiła, że ​​komputery w postaci smartfonów stały się czymś, z czego wiele osób korzystało, zabierało je ze sobą wszędzie, komunikowało się z nimi, używało do zdjęć i filmów, które natychmiast udostępniali, robienia zakupów lub szukania informacji „w ruchu” – i wykorzystywanego społecznie, jako w przeciwieństwie do przedmiotów na biurku w domu lub po prostu używanych do pracy.

Usługi oparte na lokalizacji, usługi wykorzystujące informacje o lokalizacji i inne informacje z czujników oraz crowdsourcing (często, ale nie zawsze oparty na lokalizacji) stały się powszechne, a posty oznaczane według lokalizacji lub strony internetowe i usługi stają się świadome lokalizacji. Popularne stały się witryny kierowane na urządzenia mobilne (takie jak „m.website.com”), zaprojektowane specjalnie dla nowych używanych urządzeń. Netbooki , ultrabooki , szeroko rozpowszechnione 4G i Wi-Fi oraz chipy mobilne zdolne lub działające z mocą niemalże komputerów stacjonarnych sprzed niedawna przy znacznie niższym zużyciu energii, umożliwiły ten etap rozwoju Internetu i pojawił się termin „ aplikacja ”. (skrót od „Program aplikacji” lub „Program”), podobnie jak „ App Store ”.

Ta „mobilna rewolucja” pozwoliła ludziom mieć niemal nieograniczoną ilość informacji na wyciągnięcie ręki. Wraz z możliwością dostępu do Internetu z telefonów komórkowych nastąpiła zmiana w sposobie korzystania z mediów. W rzeczywistości, patrząc na statystyki konsumpcji mediów, ponad połowa konsumpcji mediów w wieku od 18 do 34 lat korzystała ze smartfona.

Sieci w przestrzeni kosmicznej

Pierwsze łącze internetowe na niską orbitę okołoziemską zostało ustanowione 22 stycznia 2010 r., kiedy astronauta TJ Creamer opublikował pierwszą samodzielną aktualizację swojego konta na Twitterze z Międzynarodowej Stacji Kosmicznej , oznaczającą rozszerzenie Internetu w kosmos. (Astronauci z ISS korzystali wcześniej z poczty elektronicznej i Twittera, ale wiadomości te były przekazywane na Ziemię za pośrednictwem łącza danych NASA, zanim zostały wysłane przez człowieka proxy.) Ten osobisty dostęp do sieci, który NASA nazywa Crew Support LAN, wykorzystuje szybkie łącze mikrofalowe w paśmie Ku stacji kosmicznej . Aby surfować po sieci, astronauci mogą używać stacjonarnego laptopa do sterowania komputerem stacjonarnym na Ziemi i mogą rozmawiać ze swoimi rodzinami i przyjaciółmi na Ziemi za pomocą sprzętu Voice over IP .

Komunikacja ze statkami kosmicznymi poza orbitą ziemską tradycyjnie odbywała się za pośrednictwem połączeń punkt-punkt za pośrednictwem sieci Deep Space Network . Każde takie łącze danych musi być ręcznie zaplanowane i skonfigurowane. Pod koniec lat 90. NASA i Google rozpoczęły prace nad nowym protokołem sieciowym DTN ( Delay-tolerant networking ), który automatyzuje ten proces, umożliwia łączenie w sieć kosmicznych węzłów transmisyjnych i uwzględnia fakt, że statki kosmiczne mogą chwilowo stracić kontakt, ponieważ poruszają się z tyłu. Księżyc lub planety, albo ponieważ pogoda kosmiczna zakłóca połączenie. W takich warunkach DTN retransmituje pakiety danych zamiast je odrzucać, tak jak robi to standardowy protokół internetowy TCP/IP. NASA przeprowadziła pierwszy test terenowy tego, co nazywa „internetem głębokiego kosmosu” w listopadzie 2008 roku. planowany do końca marca 2014 r.

Ta technologia sieciowa ma ostatecznie umożliwić misje obejmujące wiele statków kosmicznych, w których niezawodna komunikacja między statkami może mieć pierwszeństwo przed łączami w dół statek-ziemia. Zgodnie z oświadczeniem Vinta Cerfa z lutego 2011 r. , tak zwane „protokoły pakietu” zostały przesłane na sondę kosmiczną NASA EPOXI (która znajduje się na orbicie wokół Słońca), a komunikacja z Ziemią została przetestowana w odległości około 80 światła. sekundy.

Zarządzanie Internetem

Jako globalnie rozproszona sieć dobrowolnie połączonych ze sobą autonomicznych sieci, Internet działa bez centralnego organu zarządzającego. Każda sieć składowa wybiera technologie i protokoły, które wdraża, na podstawie standardów technicznych opracowanych przez Internet Engineering Task Force (IETF). Jednak pomyślne współdziałanie wielu sieci wymaga pewnych parametrów, które muszą być wspólne w całej sieci. W celu zarządzania takimi parametrami, Internet Assigned Numbers Authority (IANA) nadzoruje przydzielanie i przypisywanie różnych identyfikatorów technicznych. Ponadto Internet Corporation for Assigned Names and Numbers (ICANN) zapewnia nadzór i koordynację dwóch głównych przestrzeni nazw w Internecie, przestrzeni adresowej protokołu internetowego i systemu nazw domen .

NIC, InterNIC, IANA i ICANN

Funkcja IANA była pierwotnie wykonywana przez USC Information Sciences Institute (ISI) i przekazał część tej odpowiedzialności w odniesieniu do numerycznych identyfikatorów sieci i systemów autonomicznych do Network Information Center (NIC) w Stanford Research Institute (SRI International) w Menlo Park , Kalifornia . Jonathan Postel z ISI zarządzał IANA, pełnił funkcję redaktora RFC i pełnił inne kluczowe role, aż do swojej przedwczesnej śmierci w 1998 roku.

Wraz z rozwojem wczesnego ARPANETu hosty były określane nazwami, a plik HOSTS.TXT był dystrybuowany z SRI International do każdego hosta w sieci. W miarę rozwoju sieci stało się to kłopotliwe. Rozwiązanie techniczne pojawiło się w postaci Systemu Nazw Domen , stworzonego przez Paula Mockapetrisa z ISI w 1983 roku. Sieć Danych Obronnych — Centrum Informacji Sieciowej (DDN-NIC) w SRI obsługiwała wszystkie usługi rejestracji, w tym domeny najwyższego poziomu (TLD). z .mil , .gov , .edu , .org , .net , .com i .us , serwera nazw korzenia administracji i zadań numerycznych Internet pod Departament Obrony Stanów Zjednoczonych umowy. W 1991 roku Defense Information Systems Agency (DISA) powierzyła administrację i utrzymanie DDN-NIC (do tej pory zarządzanej przez SRI) Government Systems, Inc., która podzleciła go małemu sektorowi prywatnemu Network Solutions, Inc.

Rosnąca różnorodność kulturowa Internetu stawiała również wyzwania administracyjne dla scentralizowanego zarządzania adresami IP. W październiku 1992 roku Internet Engineering Task Force (IETF) opublikował dokument RFC 1366, w którym opisano „rozwój Internetu i jego rosnącą globalizację” oraz określono podstawy ewolucji procesu rejestracji IP, opartego na modelu rejestru rozproszonego regionalnie. . Dokument ten podkreślał potrzebę istnienia jednego internetowego rejestru numerów w każdym regionie geograficznym świata (który miałby „wymiary kontynentalne”). Rejestry byłyby „bezstronne i powszechnie uznawane przez dostawców sieci i abonentów” w ich regionie. Centrum Koordynacji Sieci RIPE (RIPE NCC) zostało utworzone jako pierwszy RIR w maju 1992 r. Drugi RIR, Centrum Informacji Sieci Azji i Pacyfiku (APNIC), powstało w Tokio w 1993 r. jako projekt pilotażowy Grupy Sieciowej Azji i Pacyfiku .

Ponieważ w tym momencie historii większość wzrostu w Internecie pochodziła ze źródeł niewojskowych, zdecydowano, że Departament Obrony nie będzie już finansował usług rejestracyjnych poza .mil TLD. W 1993 r. amerykańska National Science Foundation , po przeprowadzeniu konkurencyjnego procesu przetargowego w 1992 r., utworzyła InterNIC do zarządzania przydzielaniem adresów i zarządzania bazami danych adresowych i przyznała kontrakt trzem organizacjom. Usługi rejestracji będą świadczone przez Network Solutions ; Usługi katalogowe i baz danych będą świadczone przez AT&T ; Usługi informacyjne i informacyjne będą świadczone przez General Atomics .

Z biegiem czasu, po konsultacjach z IANA, IETF , RIPE NCC , APNIC i Federal Networking Council (FNC), podjęto decyzję o oddzieleniu zarządzania nazwami domen od zarządzania numerami IP. Wzorem RIPE NCC i APNIC zalecono, aby zarządzanie przestrzenią adresową IP administrowaną przez InterNIC znajdowało się pod kontrolą tych, którzy z niej korzystają, w szczególności dostawców usług internetowych, organizacji użytkowników końcowych, podmiotów korporacyjnych, uniwersytetów i osób fizycznych . W rezultacie Amerykański Rejestr Numerów Internetowych (ARIN) został utworzony w grudniu 1997 r. jako niezależna korporacja non-profit pod kierownictwem National Science Foundation i stał się trzecim Regionalnym Rejestrem Internetowym.

W 1998 roku, zarówno IANA, jak i pozostałe funkcje InterNIC związane z DNS zostały zreorganizowane pod kontrolą ICANN , kalifornijskiej korporacji non-profit, na którą zlecił Departament Handlu Stanów Zjednoczonych zarządzanie szeregiem zadań związanych z Internetem. Ponieważ zadania te obejmowały koordynację techniczną dla dwóch głównych przestrzeni nazw internetowych (nazwy DNS i adresy IP) utworzonych przez IETF, ICANN podpisał również protokół ustaleń z IAB w celu określenia prac technicznych, które mają być wykonane przez Internet Assigned Numbers Authority. Zarządzanie internetową przestrzenią adresową pozostało w gestii regionalnych rejestrów internetowych, które łącznie zostały zdefiniowane jako organizacja wspierająca w ramach struktury ICANN. ICANN zapewnia centralną koordynację systemu DNS, w tym koordynację polityki dla podzielonego rejestru/systemu rejestratorów, z konkurencją między dostawcami usług rejestrowych w celu obsługi każdej domeny najwyższego poziomu i wieloma konkurencyjnymi rejestratorami oferującymi usługi DNS użytkownikom końcowym.

Grupa zadaniowa ds. inżynierii internetowej

Internet Engineering Task Force (IETF) jest największym i najbardziej widoczny z kilku luźno powiązanych grup ad hoc, które zapewniają kierunek techniczny dla Internetu, w tym Internet Architecture Board (IAB), przy czym Sterujący Inżynieria Internet Group (IESG), a Grupa Robocza ds. Badań nad Internetem (IRTF).

IETF to luźno samoorganizująca się grupa międzynarodowych wolontariuszy, którzy przyczyniają się do inżynierii i ewolucji technologii internetowych. Jest głównym organem zaangażowanym w opracowywanie nowych specyfikacji standardów internetowych. Duża część pracy IETF jest zorganizowana w Grupy Robocze . Wysiłki grup roboczych w zakresie standaryzacji są często przyjmowane przez społeczność internetową, ale IETF nie kontroluje ani nie patroluje Internetu.

IETF wyrosła z kwartalnych spotkań z naukowcami finansowanymi przez rząd USA, które rozpoczęły się w styczniu 1986 r. Przedstawiciele pozarządowi zostali zaproszeni na czwarte spotkanie IETF w październiku 1986 r. Koncepcja grup roboczych została wprowadzona na piątym spotkaniu w lutym 1987 r. Siódme spotkanie w lipcu 1987 roku było pierwszym spotkaniem z ponad stu uczestnikami. W 1992 roku powstało Stowarzyszenie Internetowe, stowarzyszenie zawodowe, w ramach którego IETF zaczął działać jako niezależny międzynarodowy organ normalizacyjny. Pierwsze spotkanie IETF poza Stanami Zjednoczonymi odbyło się w Amsterdamie, Holandia, w lipcu 1993 roku. Obecnie IETF spotyka się trzy razy w roku, a frekwencja sięga ok. 10 tys. 2000 uczestników. Zazwyczaj jedno na trzy spotkania IETF odbywają się w Europie lub Azji. Liczba uczestników spoza USA wynosi zwykle około. 50%, nawet na spotkaniach organizowanych w Stanach Zjednoczonych.

IETF nie jest osobą prawną, nie ma zarządu, członków ani składek. Status najbardziej zbliżony do członkostwa to bycie na liście dyskusyjnej IETF lub Grupy Roboczej. Wolontariusze IETF pochodzą z całego świata iz wielu różnych części społeczności internetowej. IETF ściśle współpracuje z i pod nadzorem Grupy Sterującej Inżynierii Internetu (IESG) oraz Rady ds. Architektury Internetu (IAB). Internet Research Task Force (IRTF) i Internet Research Mocne Grupa (IRSG), działania Peer to IETF i IESG pod ogólnym nadzorem IAB, koncentrują się na długoterminowych problemów badawczych.

Prośba o komentarze

Request for Comments (RFC) to główna dokumentacja prac IAB, IESG, IETF i IRTF. RFC 1, „Host Software”, został napisany przez Steve'a Crockera z UCLA w kwietniu 1969, na długo przed utworzeniem IETF. Pierwotnie były to notatki techniczne dokumentujące aspekty rozwoju ARPANET i zostały zredagowane przez Jona Postela , pierwszego redaktora RFC .

Dokumenty RFC obejmują szeroki zakres informacji, począwszy od proponowanych standardów, projektów standardów, pełnych standardów, najlepszych praktyk, protokołów eksperymentalnych, historii i innych tematów informacyjnych. Dokumenty RFC mogą być pisane przez osoby lub nieformalne grupy osób, ale wiele z nich jest produktem bardziej formalnej Grupy Roboczej. Projekty są przekazywane do IESG przez osoby indywidualne lub przez Przewodniczącego Grupy Roboczej. Redaktor RFC, wyznaczony przez IAB, niezależny od IANA i współpracujący z IESG, otrzymuje wersje robocze od IESG oraz je edytuje, formatuje i publikuje. Po opublikowaniu RFC nigdy nie jest on poprawiany. Jeżeli norma, w której opisuje ona zmiany lub zawarte w niej informacje, staną się przestarzałe, poprawiona norma lub zaktualizowane informacje zostaną ponownie opublikowane jako nowe RFC, które „przestarzały” oryginał.

Społeczeństwo internetowe

Internet Society (ISOC) to międzynarodowa organizacja non-profit założona w latach 1992 „aby zapewnić otwarty rozwój, ewolucję i korzystania z Internetu dla dobra wszystkich ludzi na całym świecie”. Z biurami w pobliżu Waszyngtonu, DC, USA oraz w Genewie, Szwajcaria, ISOC posiada bazę członkowską obejmującą ponad 80 członków organizacyjnych i ponad 50 000 indywidualnych członków. Członkowie tworzą również „rozdziały” w oparciu o wspólne położenie geograficzne lub szczególne zainteresowania. Obecnie na świecie istnieje ponad 90 rozdziałów.

ISOC zapewnia wsparcie finansowe i organizacyjne oraz promuje pracę organów ustanawiających standardy, których jest siedzibą organizacyjną: Internet Engineering Task Force (IETF), Internet Architecture Board (IAB), Internet Engineering Steering Group (IESG), oraz Internet Research Task Force (IRTF). ISOC promuje również zrozumienie i docenienie internetowego modelu otwartych, przejrzystych procesów i podejmowania decyzji opartych na konsensusie.

Globalizacja i zarządzanie Internetem w XXI wieku

Od lat 90. zarządzanie i organizacja Internetu mają globalne znaczenie dla rządów, handlu, społeczeństwa obywatelskiego i jednostek. Organizacje, które sprawowały kontrolę nad pewnymi technicznymi aspektami Internetu, były spadkobiercami starego nadzoru ARPANET i obecnymi decydentami w codziennych technicznych aspektach sieci. Choć są uznawane za administratorów pewnych aspektów Internetu, ich role i uprawnienia decyzyjne są ograniczone i podlegają coraz większej kontroli międzynarodowej i rosnącym sprzeciwom. Sprzeciwy te doprowadziły ICANN do zerwania stosunków najpierw z Uniwersytetem Południowej Kalifornii w 2000 r., a we wrześniu 2009 r. do uzyskania autonomii od rządu Stanów Zjednoczonych poprzez wygaśnięcie wieloletnich umów, chociaż pewne zobowiązania umowne z Departamentem Handlu USA nieprzerwany. Ostatecznie 1 października 2016 r. ICANN zakończył umowę z Narodową Administracją Telekomunikacji i Informacji ( NTIA ) Departamentu Handlu Stanów Zjednoczonych , umożliwiając przekazanie nadzoru na globalną społeczność internetową.

IETF, przy wsparciu finansowym i organizacyjnym ze strony Internet Society, nadal służy jako organ normalizacyjny ad hoc i wydaje Prośby o komentarze .

W listopadzie 2005 roku Światowy Szczyt Społeczeństwa Informacyjnego , który odbył się w Tunisie , wezwał Sekretarza Generalnego ONZ do zwołania Forum Zarządzania Internetem (IGF) . IGF rozpoczął trwającą, niewiążącą rozmowę między zainteresowanymi stronami reprezentującymi rządy, sektor prywatny, społeczeństwo obywatelskie oraz społeczności techniczne i akademickie na temat przyszłości zarządzania Internetem. Pierwsze spotkanie IGF odbyło się w październiku/listopadzie 2006 r., a następnie coroczne spotkania uzupełniające. Od czasu WSIS termin „zarządzanie Internetem” został poszerzony poza wąskie kwestie techniczne, aby objąć szerszy zakres kwestii politycznych związanych z Internetem.

Tim Berners-Lee , wynalazca sieci, zaczął się niepokoić zagrożeniami dla przyszłości sieci, a w listopadzie 2009 r. w IGF w Waszyngtonie zainicjował World Wide Web Foundation (WWWF), której celem jest uczynienie sieci bezpiecznym i wzmacniającym narzędziem dla dobro ludzkości z dostępem do wszystkich. W listopadzie 2019 r. w IGF w Berlinie Berners-Lee i WWWF rozpoczęły realizację Kontraktu na Internet , inicjatywy kampanii mającej na celu przekonanie rządów, firm i obywateli do zobowiązania się do przestrzegania dziewięciu zasad, aby powstrzymać „nadużywanie” z ostrzeżeniem „Jeśli nie działamy teraz – i działamy wspólnie – aby zapobiec niewłaściwemu wykorzystywaniu sieci przez tych, którzy chcą eksploatować, dzielić i podkopywać, grozi nam roztrwonienie” (jego potencjału na dobre).

Upolitycznienie Internetu

Ze względu na swoje znaczenie i bezpośredniość jako skuteczny środek komunikacji masowej, Internet stał się również bardziej upolityczniony w miarę rozwoju . Doprowadziło to z kolei do dyskursów i działań, które kiedyś miały miejsce w inny sposób, przenosząc się w stronę zapośredniczenia przez Internet.

Przykłady obejmują działania polityczne, takie jak publiczne protesty i zdobywanie poparcia i głosów , ale także:

Neutralność sieci

23 kwietnia 2014 r. Federalna Komisja Łączności (FCC) poinformowano, że rozważa wprowadzenie nowej zasady, która pozwoliłaby dostawcom usług internetowych na oferowanie dostawcom treści szybszej ścieżki wysyłania treści, odwracając w ten sposób ich wcześniejszą pozycję neutralności sieci . Według profesor Susan Crawford , eksperta ds. prawa i technologii z Harvard Law School, możliwym rozwiązaniem problemów związanych z neutralnością sieci może być miejskie łącze szerokopasmowe . W dniu 15 maja 2014 r. FCC zdecydowała się rozważyć dwie opcje dotyczące usług internetowych: po pierwsze, zezwolić na szybkie i wolne łącza szerokopasmowe, naruszając w ten sposób neutralność sieci; po drugie, przeklasyfikować łącza szerokopasmowe jako usługę telekomunikacyjną , zachowując w ten sposób neutralność sieci. 10 listopada 2014 r. prezydent Obama zalecił FCC przeklasyfikowanie szerokopasmowego Internetu jako usługi telekomunikacyjnej w celu zachowania neutralności sieci . 16 stycznia 2015 r. Republikanie przedstawili prawodawstwo w formie projektu ustawy do dyskusji HR Kongresu USA , która czyni ustępstwa na rzecz neutralności sieci, ale zabrania FCC osiągnięcia celu lub wprowadzenia jakichkolwiek dalszych regulacji dotyczących dostawców usług internetowych (ISP). W dniu 31 stycznia 2015 roku, AP Aktualności poinformował, że FCC zaprezentuje koncepcję stosowania ( „z pewnymi zastrzeżeniami”) Tytuł II (przewoźnika) z ustawy Communications 1934 do Internetu w głosowaniu oczekiwanych w dniu 26 lutego 2015 r. Przyjęcie tego pojęcia oznaczałoby przeklasyfikowanie usługi internetowej z informacyjnej na telekomunikacyjną i, zdaniem Toma Wheelera , przewodniczącego FCC, zapewniłoby neutralność sieci . Oczekuje się, że FCC w swoim głosowaniu wymusi neutralność sieci, według The New York Times .

W dniu 26 lutego 2015 roku, FCC orzekł na rzecz neutralności sieci poprzez zastosowanie tytule II (wspólny nośnik) z ustawy Communications 1934 oraz Section 706 of że Telekomunikacja działać od 1996 do Internetu. Przewodniczący FCC, Tom Wheeler , skomentował: „To nie jest bardziej plan uregulowania Internetu, niż Pierwsza Poprawka jest planem uregulowania wolności słowa. Obaj popierają tę samą koncepcję”.

W dniu 12 marca 2015 r. FCC opublikowała szczegółowe informacje dotyczące zasad neutralności sieci. W dniu 13 kwietnia 2015 roku FCC opublikowała ostateczną zasadę dotyczącą nowych przepisów dotyczących neutralności sieci .

W dniu 14 grudnia 2017 r. FCC uchylił swoją decyzję z 12 marca 2015 r. w głosowaniu 3-2 w sprawie zasad neutralności sieci.

Wykorzystanie i kultura

Poczta e-mail i Usenet

E-mail jest często nazywany zabójczą aplikacją Internetu. Jest starszy od Internetu i był kluczowym narzędziem w jego tworzeniu. Poczta e-mail powstała w 1965 roku jako sposób na komunikację wielu użytkowników komputerów mainframe z podziałem czasu . Chociaż historia jest nieudokumentowana, wśród pierwszych systemów, które miały takie udogodnienia, były System Development Corporation (SDC) Q32 i kompatybilny system podziału czasu (CTSS) w MIT.

Sieć komputerowa ARPANET wniosła duży wkład w ewolucję poczty elektronicznej. Eksperymentalny międzysystemowy przesyłał pocztę na ARPANET wkrótce po jej utworzeniu. W 1971 roku Ray Tomlinson stworzył format, który miał stać się standardowym internetowym formatem adresowania poczty elektronicznej, używając znaku @ do oddzielenia nazw skrzynek pocztowych od nazw hostów.

Wiele protokołów zostały opracowane w celu dostarczania wiadomości między grupami komputerów czas podziału ponad alternatywnych systemów napędowych, takich jak UUCP i IBM „s VNET systemu poczty elektronicznej. Poczta e-mail może być przesyłana w ten sposób między wieloma sieciami, w tym ARPANET , BITNET i NSFNET , a także do hostów połączonych bezpośrednio z innymi witrynami za pośrednictwem UUCP. Zobacz historię protokołu SMTP .

Ponadto UUCP umożliwił publikację plików tekstowych, które mogły być odczytane przez wielu innych. Oprogramowanie News opracowane przez Steve'a Daniela i Toma Truscotta w 1979 roku służyło do rozpowszechniania wiadomości i wiadomości podobnych do biuletynów. To szybko przekształciło się w grupy dyskusyjne, znane jako grupy dyskusyjne , dotyczące szerokiej gamy tematów. W ARPANET i NSFNET podobne grupy dyskusyjne tworzyłyby się za pośrednictwem list mailingowych , omawiając zarówno kwestie techniczne, jak i tematy bardziej kulturowe (takie jak science fiction, omawiane na liście dyskusyjnej sflovers).

We wczesnych latach Internetu poczta e-mail i podobne mechanizmy miały również fundamentalne znaczenie dla umożliwienia ludziom dostępu do zasobów, które nie były dostępne z powodu braku łączności online. UUCP był często używany do dystrybucji plików przy użyciu grup „alt.binary”. Ponadto bramy poczty e-mail FTP umożliwiały osobom mieszkającym poza Stanami Zjednoczonymi i Europą pobieranie plików za pomocą poleceń ftp zapisanych w wiadomościach e-mail. Plik został zaszyfrowany, połamany na kawałki i wysłany e-mailem; Odbiornik musiał go później ponownie złożyć i zdekodować, i był to jedyny sposób, w jaki ludzie mieszkający za granicą mogli pobierać takie elementy, jak wcześniejsze wersje Linuksa, korzystając z dostępnych w tym czasie wolnych połączeń dial-up. Po spopularyzowaniu sieci WWW i protokołu HTTP takie narzędzia zostały powoli porzucone.

Od susła do WWW

Wraz z rozwojem Internetu w latach 80. i wczesnych 90. wiele osób zdało sobie sprawę z rosnącej potrzeby znajdowania i organizowania plików i informacji. Projekty takie jak Archie , Gopher , WAIS i lista archiwum FTP próbowały stworzyć sposoby organizowania rozproszonych danych. Na początku lat 90. Gopher, wynaleziony przez Marka P. McCahilla, stanowił realną alternatywę dla sieci WWW . Jednak w 1993 roku w sieci WWW pojawiło się wiele postępów w indeksowaniu i łatwości dostępu przez wyszukiwarki, które często pomijały Gopher i Gopherspace. Ponieważ popularność wzrosła dzięki łatwości użytkowania, zachęty inwestycyjne również rosły, aż do połowy 1994 roku popularność WWW zyskała przewagę. Wtedy stało się jasne, że Gopher i inne projekty są skazane na niepowodzenie.

Jednym z najbardziej obiecujących paradygmatów interfejsu użytkownika w tym okresie był hipertekst . Technologia została zainspirowana „ MemexemVannevara Busha i rozwinięta dzięki badaniom Teda Nelsona nad Projektem Xanadu , badaniom Douglasa Engelbarta nad NLS i Augment oraz badaniom Andriesa van Dama z HES w 1968 roku, poprzez FRESS , Intermedia i inne. Powstało również wiele małych, samodzielnych systemów hipertekstowych, takich jak HyperCard firmy Apple Computer (1987). Gopher stał się pierwszym powszechnie używanym interfejsem hipertekstowym do Internetu. Chociaż pozycje menu Gopher były przykładami hipertekstu, nie były powszechnie postrzegane w ten sposób.

Ten komputer NeXT był używany przez Sir Tima Berners-Lee w CERN i stał się pierwszym na świecie serwerem WWW .

W 1989 roku, pracując w CERN , Tim Berners-Lee wynalazł opartą na sieci implementację koncepcji hipertekstu. Udostępniając swój wynalazek do użytku publicznego, zachęcał do powszechnego stosowania. Za swoją pracę w rozwijaniu sieci WWW Berners-Lee otrzymał w 2004 roku nagrodę technologiczną Millennium . Jedną z wczesnych popularnych przeglądarek internetowych, wzorowanych na HyperCard , była ViolaWWW .

Punkt zwrotny dla World Wide Web rozpoczął się wraz z wprowadzeniem w 1993 roku przeglądarki internetowej Mosaic, przeglądarki graficznej opracowanej przez zespół z National Center for Supercomputing Applications na University of Illinois w Urbana-Champaign (NCSA-UIUC), kierowany autorstwa Marca Andreessena . Finansowanie Mosaic pochodziło z inicjatywy High-Performance Computing and Communications Initiative, programu finansowania zainicjowanego przez ustawę o wysokiej wydajności obliczeniowej i komunikacji z 1991 r. , znaną również jako „ Gore Bill ”. Graficzny interfejs Mosaic wkrótce stał się bardziej popularny niż Gopher, który w tamtym czasie był głównie oparty na tekście, a WWW stał się preferowanym interfejsem dostępu do Internetu. (Wzmianka Gore'a o jego roli w "tworzeniu Internetu" została jednak wyśmiana w jego kampanii prezydenckiej . Zobacz cały artykuł Al Gore i technologie informacyjne ).

Mosaic został zastąpiony w 1994 roku przez Netscape Navigator Andreessena , który zastąpił Mosaic jako najpopularniejszą przeglądarkę na świecie. Choć przez jakiś czas utrzymywał ten tytuł, ostatecznie konkurencja ze strony Internet Explorera i wielu innych przeglądarek prawie całkowicie go wyparła. Innym ważnym wydarzeniem, które odbyło się 11 stycznia 1994 roku, był The Superhighway Summit w Royce Hall na Uniwersytecie Kalifornijskim . Była to „pierwsza publiczna konferencja, która zgromadziła wszystkich najważniejszych przedstawicieli przemysłu, rządu i środowisk akademickich w tej dziedzinie [oraz] rozpoczęła narodowy dialog na temat autostrady informacyjnej i jej implikacji”.

24 Hours in Cyberspace , "największe jednodniowe wydarzenie online" (8 lutego 1996) do tej pory odbyło się na działającej wówczas stronie internetowej cyber24.com. Na jej czele stanął fotograf Rick Smolan . Wystawa fotograficzna została odsłonięty w Smithsonian Institution jest Narodowe Muzeum Historii Amerykańskiej w dniu 23 stycznia 1997 roku, dysponuje 70 zdjęć z projektu.

Wyszukiwarki

Jeszcze przed powstaniem sieci WWW istniały wyszukiwarki, które próbowały uporządkować Internet. Pierwszą z nich była wyszukiwarka Archie z McGill University w 1990, a następnie w 1991 WAIS i Gopher. Wszystkie trzy z tych systemów poprzedzały wynalezienie sieci WWW, ale wszystkie nadal indeksowały sieć i resztę Internetu przez kilka lat po pojawieniu się sieci. Nadal istnieją serwery Gopher od 2006 r., chociaż istnieje znacznie więcej serwerów internetowych.

Wraz z rozwojem sieci stworzono wyszukiwarki i katalogi internetowe, aby śledzić strony w sieci i umożliwiać ludziom znajdowanie rzeczy. Pierwszą pełnotekstową wyszukiwarką internetową był WebCrawler w 1994 roku. Przed WebCrawlerem przeszukiwano tylko tytuły stron internetowych. Inna wczesna wyszukiwarka, Lycos , powstała w 1993 roku jako projekt uniwersytecki i jako pierwsza odniosła komercyjny sukces. Pod koniec lat 90. popularne były zarówno katalogi internetowe, jak i wyszukiwarki internetowe — Yahoo! (rok założenia 1994) i Altavista (rok założenia 1995) były odpowiednimi liderami branży. Do sierpnia 2001 r. model katalogów zaczął ustępować wyszukiwarkom, śledząc rozwój firmy Google (założonej w 1998 r.), która opracowała nowe podejście do rankingu trafności . Funkcje katalogów, choć nadal powszechnie dostępne, stały się wynikiem przemyśleń wyszukiwarek.

„Panel wiedzy” Google – w ten sposób informacje z Grafu wiedzy są prezentowane użytkownikom.

Rozmiar bazy danych, który był istotną cechą marketingową na początku XXI wieku, został podobnie zastąpiony przez nacisk na ranking trafności, metody, za pomocą których wyszukiwarki próbują najpierw sortować najlepsze wyniki. Ranking trafności po raz pierwszy stał się poważnym problemem około 1996 roku, kiedy stało się jasne, że przeglądanie pełnych list wyników jest niepraktyczne. W konsekwencji algorytmy rankingu trafności są stale ulepszane. Metoda Google PageRank do porządkowania wyników cieszy się największą popularnością, ale wszystkie główne wyszukiwarki nieustannie udoskonalają swoje metodologie rankingu w celu poprawy kolejności wyników. Od 2006 r. rankingi wyszukiwarek są ważniejsze niż kiedykolwiek, do tego stopnia, że ​​branża rozwinęła („ optymalizatory wyszukiwarek ” lub „SEO”), aby pomóc twórcom stron internetowych poprawić ich rankingi wyszukiwania, a także całe orzecznictwo rozwinęła się wokół kwestii wpływających na rankingi wyszukiwarek, takich jak używanie znaków towarowych w metatagach . Sprzedaż rankingów wyszukiwania przez niektóre wyszukiwarki wzbudziła również kontrowersje wśród bibliotekarzy i rzeczników konsumentów.

3 czerwca 2009 r. firma Microsoft uruchomiła nową wyszukiwarkę Bing . W następnym miesiącu Microsoft i Yahoo! ogłosił umowę, w ramach której Bing będzie wspierał Yahoo! Szukaj .

Dzisiaj Google poczyniło kroki w celu przekształcenia sposobu korzystania z wyszukiwarki przez użytkowników. Dodanie przez Google Grafu wiedzy Google wywarło znaczący wpływ na cały internet, być może nawet ograniczając ruch w niektórych witrynach, w tym w Wikipedii. Wyciągając informacje z Wikipedii i prezentując je na stronie Google, niektórzy twierdzą, że może to negatywnie wpłynąć na Wikipedię i inne witryny. Jednak nie ma bezpośrednich obaw między Wikipedią a Grafem wiedzy.

Udostępnianie plików

Udostępnianie zasobów lub plików było ważną czynnością w sieciach komputerowych na długo przed powstaniem Internetu i było obsługiwane na różne sposoby, w tym przez systemy tablic ogłoszeniowych (1978), Usenet (1980), Kermit (1981) i wiele innych. File Transfer Protocol (FTP) do stosowania w Internecie została znormalizowana w 1985 roku i jest nadal w użyciu. Opracowano różne narzędzia ułatwiające korzystanie z FTP, pomagając użytkownikom w odnajdywaniu plików, które mogą chcieć przenieść, w tym Wide Area Information Server (WAIS) w 1991 r., Gopher w 1991 r., Archie w 1991 r., Veronica w 1992 r., Jughead w 1993 r. , Internet Relay Chat (IRC) w 1988 roku, aw końcu World Wide Web (WWW) w 1991 roku z katalogami i wyszukiwarkami internetowymi .

W 1999 roku Napster stał się pierwszym systemem wymiany plików peer-to-peer . Napster używał centralnego serwera do indeksowania i wykrywania peerów, ale przechowywanie i przesyłanie plików było zdecentralizowane. Następnie pojawiły się różne programy i usługi do udostępniania plików peer-to-peer o różnych poziomach decentralizacji i anonimowości , w tym: Gnutella , eDonkey2000 i Freenet w 2000 r., FastTrack , Kazaa , Limewire i BitTorrent w 2001 r. oraz Poisoned w 2003 r.

Wszystkie te narzędzia są ogólnego przeznaczenia i mogą być używane do udostępniania szerokiej gamy treści, ale udostępnianie plików muzycznych, oprogramowania, a później filmów i wideo to główne zastosowania. I chociaż niektóre z tych udostępniania są legalne, duże porcje nie. Pozwy i inne działania prawne spowodowały, że Napster w 2001 r., eDonkey2000 w 2005 r., Kazaa w 2006 r. i Limewire w 2010 r. zamknął lub ponownie skoncentrował swoje wysiłki. The Pirate Bay , założony w Szwecji w 2003 roku, trwa nadal pomimo procesów i apelacji w 2009 i 2010 roku, które zakończyły się karami więzienia i wysokimi grzywnami dla kilku jej założycieli. Udostępnianie plików pozostaje kontrowersyjne i kontrowersyjne, z jednej strony zarzutami kradzieży własności intelektualnej, az drugiej zarzutami cenzury .

Bańka dot-com

Nagle niska cena dotarcia do milionów ludzi na całym świecie i możliwość sprzedaży do tych osób lub usłyszenia od nich w tym samym momencie, w którym do nich dotarły, obiecały obalenie ugruntowanych dogmatów biznesowych w reklamie, sprzedaży wysyłkowej , zarządzaniu relacjami z klientami i wielu innych. obszary. Sieć była nową zabójczą aplikacją — mogła bezproblemowo i tanio łączyć niepowiązanych kupujących i sprzedających. Przedsiębiorcy na całym świecie opracowali nowe modele biznesowe i zwrócili się do najbliższego inwestora venture capital . Podczas gdy niektórzy z nowych przedsiębiorców mieli doświadczenie w biznesie i ekonomii, większość stanowili po prostu ludzie z pomysłami i nie zarządzali rozważnie napływem kapitału. Dodatkowo wiele biznesplanów dot-comów opierało się na założeniu, że korzystając z Internetu, ominą kanały dystrybucji istniejących firm, a tym samym nie będą musiały z nimi konkurować; kiedy ugruntowane firmy z silnymi istniejącymi markami rozwinęły swoją własną obecność w Internecie, te nadzieje zostały rozwiane, a nowicjusze pozostawili próby włamania się na rynki zdominowane przez większe, bardziej ugruntowane firmy. Wielu nie miało takiej możliwości.

Bańka dot-com pękła w marcu 2000 r., a indeks NASDAQ Composite osiągnął najwyższy poziom 5048,62 w dniu 10 marca (5 132,52 w ciągu dnia), co stanowi ponad dwukrotnie wyższą wartość zaledwie rok wcześniej. W 2001 roku deflacja bańki nabrała pełnego tempa. Większość dot-comów zaprzestała handlu po spaleniu kapitału wysokiego ryzyka i kapitału IPO, często bez osiągania zysku . Ale mimo to Internet wciąż się rozwija, napędzany komercją, coraz większymi ilościami informacji i wiedzy online oraz sieciami społecznościowymi.

Telefony komórkowe i Internet

Pierwszym telefonem komórkowym z dostępem do Internetu był Nokia 9000 Communicator , wprowadzony na rynek w Finlandii w 1996 roku. Dostępność usług internetowych w telefonach komórkowych była ograniczona do czasu, gdy ceny spadły z tego modelu, a operatorzy sieci zaczęli opracowywać systemy i usługi wygodnie dostępne na telefony. NTT DoCoMo w Japonii uruchomiło pierwszą mobilną usługę internetową, i-mode , w 1999 roku i jest to uważane za narodziny mobilnych usług internetowych. W 2001 r. system poczty e-mail dla telefonów komórkowych firmy Research in Motion (obecnie BlackBerry Limited ) dla ich produktu BlackBerry został uruchomiony w Ameryce. Aby efektywnie wykorzystać mały ekran i małą klawiaturę oraz obsługę jedną ręką typową dla telefonów komórkowych, stworzono specjalny model dokumentu i sieci dla urządzeń mobilnych, Wireless Application Protocol (WAP). Większość usług internetowych dla urządzeń mobilnych działa w oparciu o WAP. Rozwój usług telefonii komórkowej był początkowo zjawiskiem głównie azjatyckim, a Japonia, Korea Południowa i Tajwan wkrótce znalazły większość swoich internautów korzystających z zasobów przez telefon, a nie przez komputer. Następnie kraje rozwijające się, takie jak Indie, RPA, Kenia, Filipiny i Pakistan, zgłosiły, że większość ich użytkowników krajowych korzystała z Internetu za pomocą telefonu komórkowego, a nie komputera. Na wykorzystanie Internetu w Europie i Ameryce Północnej wpłynęła duża liczba zainstalowanych komputerów osobistych, a wzrost dostępu do Internetu przez telefony komórkowe był bardziej stopniowy, ale w większości krajów zachodnich osiągnął krajowy poziom penetracji wynoszący 20–30%. Przejście nastąpiło w 2008 r., kiedy więcej urządzeń dostępu do Internetu stanowiły telefony komórkowe niż komputery osobiste. W wielu częściach rozwijającego się świata stosunek ten wynosi aż 10 użytkowników telefonów komórkowych na jednego użytkownika komputera.

Usługi hostingu plików

Hosting plików umożliwiał ludziom rozszerzanie dysków twardych komputera i „hostowanie” ich plików na serwerze. Większość usług hostingu plików oferuje bezpłatne miejsce na dane, a także większą ilość miejsca za opłatą. Usługi te znacznie rozszerzyły Internet do użytku biznesowego i osobistego.

Dysk Google , uruchomiony 24 kwietnia 2012 r., stał się najpopularniejszą usługą hostingu plików. Dysk Google umożliwia użytkownikom przechowywanie, edytowanie i udostępnianie plików sobie i innym użytkownikom. Ta aplikacja nie tylko umożliwia edycję, hosting i udostępnianie plików. Działa również jako własnych free-to-dostęp do programów biurowych Google, takich jak Google Docs , Prezentacjach Google i Arkusze Google . Ta aplikacja służyła jako przydatne narzędzie dla profesorów i studentów uniwersytetu, a także dla tych, którzy potrzebują przechowywania w chmurze .

Dropbox , wydany w czerwcu 2007 roku, to podobna usługa hostingu plików, która pozwala użytkownikom przechowywać wszystkie swoje pliki w folderze na komputerze, który jest zsynchronizowany z serwerami Dropbox. Różni się to od Dysku Google, ponieważ nie jest oparte na przeglądarce internetowej. Teraz Dropbox pracuje nad synchronizacją i wydajnością pracowników i plików.

Mega , mający ponad 200 milionów użytkowników, to szyfrowany system przechowywania i komunikacji, który oferuje użytkownikom bezpłatne i płatne przechowywanie, z naciskiem na prywatność. Będąc trzema największymi usługami hostingu plików, Dysk Google, Dropbox i Mega reprezentują podstawowe idee i wartości tych usług.

Piractwo internetowe

Najwcześniejsza forma piractwa internetowego rozpoczęła się od usługi udostępniania muzyki P2P (peer to peer) o nazwie Napster , uruchomionej w 1999 roku. Strony takie jak LimeWire , The Pirate Bay i BitTorrent pozwalały każdemu na angażowanie się w piractwo internetowe, wysyłając falę za pośrednictwem branży medialnej . Wraz z piractwem internetowym nastąpiła zmiana w branży medialnej jako całości.

Technologie internetowe

Strony internetowe były początkowo pomyślane jako ustrukturyzowane dokumenty oparte na języku HTML ( Hypertext Markup Language ), który umożliwia dostęp do obrazów , wideo i innych treści. Hiperłącza na stronie umożliwiają użytkownikom przechodzenie do innych stron. W najwcześniejszych przeglądarkach obrazy otwierały się w oddzielnej aplikacji „pomocniczej”. Marc Andreessen 's 1993 Mosaic i 1994 Netscape wprowadziły mieszany tekst i obrazy dla nietechnicznych użytkowników. HTML ewoluował w latach 90., prowadząc do HTML 4, który wprowadził duże elementy stylów CSS, a później rozszerzenia umożliwiające kodowi przeglądarki wykonywanie wywołań i proszenie o zawartość z serwerów w ustrukturyzowany sposób ( AJAX ).

Historiografia

W dostarczaniu historiografii rozwoju Internetu istnieją prawie nie do pokonania problemy . Proces digitalizacji stanowi podwójne wyzwanie zarówno dla historiografii w ogóle, jak iw szczególności dla badań nad komunikacją historyczną. Poczucie trudności w dokumentowaniu wczesnych wydarzeń, które doprowadziły do ​​Internetu, można wywnioskować z cytatu:

„Okres Arpanet jest dość dobrze udokumentowany, ponieważ odpowiedzialna korporacja – BBN – pozostawiła fizyczny zapis. Przechodząc do ery NSFNET , stał się to niezwykle zdecentralizowanym procesem. Zapisy znajdują się w piwnicach ludzi, w szafach. … Tyle to, co się wydarzyło, zostało zrobione ustnie i na podstawie indywidualnego zaufania.”

—  Doug Gale (2007)

Zobacz też

Bibliografia

Bibliografia

Dalsza lektura

Zewnętrzne linki