Historia informatyki - History of computer science

Historia informatyki rozpoczęły się na długo przed naszym nowoczesnym dyscyplinie informatyki , zwykle pojawia się w formach, takich jak matematyka czy fizyka . Rozwój w poprzednich stuleciach nawiązywał do dyscypliny, którą obecnie znamy jako informatykę . Ten postęp, od wynalazków mechanicznych i teorii matematycznych do nowoczesnych koncepcji i maszyn komputerowych , doprowadził do rozwoju ważnej dziedziny akademickiej, ogromnego postępu technologicznego w świecie zachodnim oraz podstawy ogromnego światowego handlu i kultury.

Pre-historia

John Napier (1550-1617), wynalazca logarytmów

Najwcześniejszym znanym narzędziem obliczeniowym było liczydło , opracowane w okresie między 2700 a 2300 p.n.e. w Sumerze . Liczydło Sumerów składało się z tabeli kolejnych kolumn, które wyznaczały kolejne rzędy wielkości ich systemu liczb sześćdziesiętnych . Jego pierwotnym stylem użytkowania były linie narysowane na piasku z kamykami. Abaci o bardziej nowoczesnej konstrukcji są nadal używane jako narzędzia obliczeniowe, takie jak chińskie liczydło .

W 5 wieku pne w starożytnych Indiach , gramatyk Panini sformułował gramatyki z sanskrytu w 3959 zasad znanych jako Ashtadhyayi który był bardzo usystematyzowany i technicznego. Panini stosował metareguły, przekształcenia i rekurencje .

Mechanizm Antikythera jest uważana za wcześnie mechaniczny komputer analogowy. Został zaprojektowany do obliczania pozycji astronomicznych. Odkryto go w 1901 roku we wraku Antikythera na greckiej wyspie Antikythera, pomiędzy Kytherą a Kretą i datuje się go na około 100 lat p.n.e.

Mechaniczne Analog Devices komputer ponownie pojawiła się tysiąc lat później w średniowiecznym świecie islamskim i zostały opracowane przez muzułmańskich astronomów , takich jak mechaniczną przekładnią astrolabium przez Abū Rayhan Biruni oraz torquetum przez Dżabir Ibn Aflach . Według Simona Singha , muzułmańscy matematycy dokonali również ważnych postępów w kryptografii , takich jak opracowanie kryptoanalizy i analizy częstotliwości przez Alkindusa . Programowalne maszyny zostały również wynaleziony przez muzułmańskich inżynierów , takich jak automatyczne flet gracza przez Banu Musa braci i Al-Jazari programowalny „s humanoid automaty i zamek zegar , który jest uważany za pierwszy programowalny komputer analogowy. W XIV-wiecznej Europie pojawiły się artefakty technologiczne o podobnej złożoności , z mechanicznymi zegarami astronomicznymi .

Kiedy na początku XVII wieku John Napier odkrył logarytmy do celów obliczeniowych, nastąpił okres znacznego postępu wynalazców i naukowców w tworzeniu narzędzi obliczeniowych. W 1623 Wilhelm Schickard zaprojektował maszynę liczącą, ale zrezygnował z tego projektu, gdy prototyp, który rozpoczął budowę, został zniszczony przez pożar w 1624. Około 1640 r. Blaise Pascal , czołowy francuski matematyk, skonstruował mechaniczne urządzenie sumujące oparte na opisanym projekcie przez greckiego matematyka Hero z Aleksandrii . Następnie w 1672 r. Gottfried Wilhelm Leibniz wynalazł rachmistrz schodkowy, który ukończył w 1694 r.

W 1837 Charles Babbage po raz pierwszy opisał swój silnik analityczny, który został zaakceptowany jako pierwszy projekt nowoczesnego komputera. Silnik analityczny miał rozszerzalną pamięć, jednostkę arytmetyczną i możliwości przetwarzania logiki zdolne do interpretacji języka programowania z pętlami i rozgałęzieniami warunkowymi. Chociaż nigdy nie został zbudowany, projekt został dokładnie przestudiowany i jest uważany za odpowiednik Turinga . Silnik analityczny miałby pojemność pamięci mniejszą niż 1 kilobajt pamięci i częstotliwość zegara mniejszą niż 10 Hz.

Zanim zaprojektowano pierwsze nowoczesne komputery, konieczny był znaczny postęp w teorii matematyki i elektroniki.

Logika binarna

Gottfried Wilhelm Leibniz (1646-1716), rozwinął logikę w systemie liczb binarnych

W 1702 r. Gottfried Wilhelm Leibniz rozwinął logikę w sensie formalnym, matematycznym w swoich pismach o systemie liczb binarnych. W jego systemie jedynki i zera reprezentują również wartości prawdziwe i fałszywe lub stany włączenia i wyłączenia . Ale minęło ponad sto lat, zanim George Boole opublikował swoją algebrę Boole'a w 1854 roku z kompletnym systemem, który umożliwił matematyczne modelowanie procesów obliczeniowych.

W tym czasie wynaleziono pierwsze urządzenia mechaniczne sterowane wzorem binarnym. Rewolucja przemysłowa jechał naprzód mechanizację wielu zadań, i to zawierało tkania . Karty perforowane kontrolowane Joseph Marie Jacquard dydaktycznego krosna w 1801 roku, gdzie dziurkowanych na karcie wskazanej binarny jeden i unpunched miejscem wskazanym binarnego zera . Krosno Jacquarda było dalekie od bycia komputerem, ale pokazało, że maszyny mogą być napędzane przez systemy binarne.

Pojawienie się dyscypliny

Charles Babbage (1791-1871), jeden z pierwszych pionierów informatyki

Charles Babbage i Ada Lovelace

Charles Babbage jest często uważany za jednego z pierwszych pionierów informatyki. Począwszy od 1810, Babbage miał wizję mechanicznego obliczania liczb i tabel. Urzeczywistniając to, Babbage zaprojektował kalkulator do obliczania liczb do 8 miejsc po przecinku. Kontynuując sukces tego pomysłu, Babbage pracował nad stworzeniem maszyny, która mogłaby obliczać liczby z dokładnością do 20 miejsc po przecinku. W latach trzydziestych XIX wieku Babbage opracował plan opracowania maszyny, która mogłaby używać kart dziurkowanych do wykonywania operacji arytmetycznych. Maszyna przechowywałaby liczby w jednostkach pamięci i byłaby forma sterowania sekwencyjnego. Oznacza to, że jedna operacja byłaby wykonywana przed następną w taki sposób, aby maszyna generowała odpowiedź i nie zawodziła. Maszyna ta miała być znana jako „Maszyna analityczna”, która była pierwszą prawdziwą reprezentacją tego, czym jest współczesny komputer.

Ada Lovelace (Augusta Ada Byron) jest uznawana za pionierkę programowania komputerowego i jest uważana za matematycznego geniusza. Lovelace rozpoczął pracę z Charlesem Babbage jako asystent, podczas gdy Babbage pracował nad swoim „Maszyną analityczną”, pierwszym komputerem mechanicznym. Podczas pracy z Babbage, Ada Lovelace została projektantką pierwszego algorytmu komputerowego, który miał zdolność obliczania liczb Bernoulliego . Co więcej, praca Lovelace z Babbage zaowocowała jej przewidywaniem, że przyszłe komputery będą nie tylko wykonywać obliczenia matematyczne, ale także manipulować symbolami, matematycznymi lub nie. Chociaż nigdy nie była w stanie zobaczyć wyników swojej pracy, ponieważ „Maszyna analityczna” nie została stworzona za jej życia, jej wysiłki w późniejszych latach, począwszy od lat 40. XIX wieku, nie pozostały niezauważone.

Charles Sanders Peirce i elektryczne obwody przełączające

Charles Sanders Peirce (1839-1914), opisał, w jaki sposób można wykonywać operacje logiczne za pomocą elektrycznych obwodów przełączających

W liście z 1886 roku Charles Sanders Peirce opisał, w jaki sposób operacje logiczne mogą być przeprowadzane za pomocą elektrycznych obwodów przełączających. W latach 1880-81 wykazał, że same bramki NOR (lub alternatywnie same bramki NAND ) mogą być użyte do odtworzenia funkcji wszystkich innych bramek logicznych , ale ta praca nad tym nie została opublikowana do 1933 roku. Pierwszy opublikowany dowód był autorstwa Henry M. Sheffer w 1913, więc operacja logiczna NAND jest czasami nazywana udarem Sheffera ; binegacja jest czasami nazywany strzałkę Peirce'a . W związku z tym te bramy są czasami nazywane uniwersalnymi bramkami logicznymi .

Ostatecznie lampy próżniowe zastąpiły przekaźniki do operacji logicznych. Modyfikacja Lee De Foresta z 1907 roku zaworu Fleminga może służyć jako bramka logiczna. Ludwig Wittgenstein wprowadził wersję 16-wierszowej tabeli prawdy jako propozycję 5.101 Tractatus Logico-Philosophicus (1921). Walther Bothe , wynalazca układu koincydencji , otrzymał w 1954 roku część Nagrody Nobla w dziedzinie fizyki, za pierwszą nowoczesną elektroniczną bramkę AND w 1924 roku. Konrad Zuse zaprojektował i zbudował elektromechaniczne bramki logiczne dla swojego komputera Z1 (od 1935 do 1938).

Do lat 30. i w ich trakcie inżynierowie elektrycy byli w stanie budować obwody elektroniczne do rozwiązywania problemów matematycznych i logicznych, ale większość robiła to w sposób doraźny , bez żadnego teoretycznego rygoru. Zmieniło się to wraz z teorią obwodów przełączających w latach 30. XX wieku. Od 1934 do 1936 Akira Nakashima , Claude Shannon i Viktor Shetakov opublikowali serię artykułów pokazujących, że dwuwartościowa algebra Boole'a może opisywać działanie obwodów przełączających. Ta koncepcja, polegająca na wykorzystaniu właściwości przełączników elektrycznych do tworzenia logiki, jest podstawową koncepcją leżącą u podstaw wszystkich elektronicznych komputerów cyfrowych . Teoria obwodów przełączających dostarczyła matematycznych podstaw i narzędzi do projektowania systemów cyfrowych w prawie wszystkich obszarach nowoczesnej technologii.

Podczas zajęć z filozofii na studiach licencjackich Shannon miał okazję zapoznać się z pracą Boole'a i zdał sobie sprawę, że można ją wykorzystać do rozmieszczenia przekaźników elektromechanicznych (wtedy używanych w telefonicznych przełącznikach routingu) w celu rozwiązywania problemów logicznych. Jego praca magisterska stała się podstawą praktycznego projektowania obwodów cyfrowych, gdy stała się szeroko znana w środowisku elektrotechnicznym podczas i po II wojnie światowej.

Alan Turing i maszyna Turinga

Przed latami dwudziestymi komputery (czasem komputery ) były ludzkimi urzędnikami, którzy wykonywali obliczenia. Byli zazwyczaj pod przewodnictwem fizyka. Wiele tysięcy komputerów było zatrudnionych w instytucjach handlowych, rządowych i badawczych. Wielu z tych urzędników, którzy służyli jako ludzkie komputery, to kobiety. Jedni wykonywali obliczenia astronomiczne dla kalendarzy, inni tablice balistyczne dla wojska.

Po latach dwudziestych wyrażenie maszyna obliczeniowa odnosiło się do każdej maszyny, która wykonywała pracę ludzkiego komputera, zwłaszcza zgodnie z efektywnymi metodami tezy Churcha-Turinga . W tezie stwierdza się, że metoda matematyczna jest skuteczna, jeśli można ją przedstawić jako listę instrukcji, które może wykonywać człowiek z papierem i ołówkiem, tak długo, jak to konieczne, bez pomysłowości i wnikliwości.

Maszyny, które obliczały wartości ciągłe, stały się znane jako maszyny analogowe . Użyli maszyn, które reprezentowały ciągłe wielkości liczbowe, takie jak kąt obrotu wału lub różnica potencjału elektrycznego.

Maszyny cyfrowe, w przeciwieństwie do analogowych, potrafiły odwzorowywać stan o wartości liczbowej i przechowywać każdą pojedynczą cyfrę. Cyfrowe maszyny wykorzystywały silniki różnicowe lub przekaźniki przed wynalezieniem szybszych urządzeń pamięci.

Wyrażenie maszyna komputerowa stopniowo ustępowało, po późnych latach 40. XX wieku, po prostu komputerowi, gdy nadejście elektronicznej maszynerii cyfrowej stało się powszechne. Te komputery były w stanie wykonać obliczenia, które zostały wykonane przez poprzednich ludzkich urzędników.

Ponieważ wartości przechowywane przez maszyny cyfrowe nie były związane z właściwościami fizycznymi, jak urządzenia analogowe, komputer logiczny, oparty na sprzęcie cyfrowym, był w stanie zrobić wszystko, co można by określić jako „czysto mechaniczne”. Teoretyczna Maszyna Turinga , stworzona przez Alana Turinga , jest hipotetycznym urządzeniem opracowanym w celu badania właściwości takiego sprzętu.

Matematyczne podstawy współczesnej informatyki zaczął kłaść Kurt Gödel ze swoim twierdzeniem o niezupełności (1931). W tym twierdzeniu wykazał, że istnieją granice tego, co można udowodnić i obalić w ramach systemu formalnego . Doprowadziło to do prac Gödla i innych nad zdefiniowaniem i opisaniem tych systemów formalnych, w tym pojęć takich jak funkcje mu-rekurencyjne i funkcje definiowane przez lambda .

W 1936 r. Alan Turing i Alonzo Church niezależnie, a także razem, wprowadzili sformalizowanie algorytmu , z ograniczeniami tego, co można obliczyć, oraz „czysto mechanicznym” modelem obliczeń. Stało się to tezą Churcha-Turinga , hipotezą o naturze mechanicznych urządzeń obliczeniowych, takich jak komputery elektroniczne. W pracy stwierdza się, że wszelkie możliwe obliczenia mogą być wykonane przez algorytm działający na komputerze, pod warunkiem dostępności wystarczającej ilości czasu i przestrzeni dyskowej.

W 1936 roku Alan Turing opublikował również swoją przełomową pracę o maszynach Turinga , abstrakcyjnej cyfrowej maszynie liczącej, która jest teraz po prostu określana jako uniwersalna maszyna Turinga . Ta maszyna wymyśliła zasadę współczesnego komputera i była miejscem narodzin koncepcji programu przechowywanego, z której korzystają prawie wszystkie współczesne komputery. Te hipotetyczne maszyny zostały zaprojektowane tak, aby formalnie, matematycznie określić, co można obliczyć, biorąc pod uwagę ograniczenia zdolności obliczeniowych. Jeśli maszyna Turinga może wykonać zadanie, jest uważana za obliczalną według Turinga .

Los Alamos fizyk Stanley Frankel , opisał Johna von Neumanna widok „s fundamentalnego znaczenia 1936 papierze Turinga, w piśmie:

Wiem, że mniej więcej w 1943 lub 44 von Neumann doskonale zdawał sobie sprawę z fundamentalnej wagi pracy Turinga z 1936 roku… Von Neumann zapoznał mnie z tym artykułem i za jego namową przestudiowałem go uważnie. Wiele osób uznało von Neumanna za „ojca komputera” (we współczesnym znaczeniu tego słowa), ale jestem pewien, że sam nigdy nie popełniłby tego błędu. Może być nazywany położną, ale mocno podkreślał mi, a innym jestem pewien, że fundamentalna koncepcja zawdzięcza Turingowi...

John V. Atanasoff (1903-1995) twórca pierwszego elektrycznego komputera cyfrowego o nazwie Atanasoff-Berry computer

Wczesny sprzęt komputerowy

Pierwszy na świecie elektroniczny komputer cyfrowy, komputer Atanasoff-Berry , został zbudowany w kampusie stanu Iowa w latach 1939-1942 przez Johna V. Atanasoffa , profesora fizyki i matematyki, oraz Clifforda Berry , absolwenta inżynierii.

W 1941 roku Konrad Zuse opracował pierwszy na świecie funkcjonalny komputer sterowany programowo, Z3 . W 1998 roku okazało się, że w zasadzie jest kompletny . Zuse opracował również maszynę obliczeniową S2, uważaną za pierwszy komputer sterujący procesem . W 1941 r. założył jedną z pierwszych firm komputerowych, produkując Z4 , który stał się pierwszym na świecie komputerem komercyjnym. W 1946 zaprojektował pierwszy język programowania wysokiego poziomu , Plankalkül .

W 1948 r. ukończono Manchester Baby ; był to pierwszy na świecie elektroniczny komputer cyfrowy, który uruchamiał programy przechowywane w jego pamięci, podobnie jak prawie wszystkie współczesne komputery. Wpływ na przełomową pracę Maxa Newmana Turinga z 1936 r. na temat maszyn Turinga i jego logiczno-matematyczny wkład w projekt były kluczowe dla pomyślnego rozwoju Dziecka.

W 1950 r. brytyjskie Narodowe Laboratorium Fizyczne ukończyło Pilot ACE , programowalny komputer na małą skalę, oparty na filozofii Turinga. Przy prędkości roboczej 1 MHz Pilot Model ACE był przez pewien czas najszybszym komputerem na świecie. Projekt Turinga dla ACE miał wiele wspólnego z dzisiejszą architekturą RISC i wymagał szybkiej pamięci o mniej więcej takiej samej pojemności jak wczesny komputer Macintosh , co było ogromne jak na ówczesne standardy. Gdyby ACE Turinga został zbudowany zgodnie z planem iw całości, byłby w innej lidze niż inne wczesne komputery.

Claude Shannon (1916-2001), Pomógł w stworzeniu dziedziny teorii informacji

Pierwszym prawdziwym błędem komputerowym była ćma . Utknął między przekaźnikami na Harvard Mark II. Chociaż wynalezienie terminu „podsłuch” jest często, lecz błędnie, przypisywane Grace Hopper , przyszłej kontradmirał US Navy, która rzekomo zarejestrowała „podsłuch” 9 września 1945 r., większość innych relacji jest sprzeczna przynajmniej z tymi szczegółami. Według tych relacji, rzeczywista data to 9 września 1947, kiedy operatorzy zgłosili ten „incydent” — razem z owadem i adnotacją „Pierwszy rzeczywisty przypadek wykrycia błędu” (szczegóły w oprogramowaniu ).

Shannon i teoria informacji

Claude Shannon stworzył dziedzinę teorii informacji w swoim artykule z 1948 r. zatytułowanym A Mathematical Theory of Communication , w którym zastosowano teorię prawdopodobieństwa do problemu najlepszego kodowania informacji, które nadawca chce przekazać. Praca ta jest jedną z teoretycznych podstaw wielu dziedzin nauki, w tym kompresji danych i kryptografii .

Norbert Wiener (1894 -1964) stworzył termin cybernetyka

Wiener i cybernetyka

Na podstawie eksperymentów z systemami przeciwlotniczymi, które interpretowały obrazy radarowe w celu wykrywania samolotów wroga, Norbert Wiener ukuł termin cybernetyka od greckiego słowa oznaczającego „sterownika”. W 1948 opublikował „Cybernetykę”, która wpłynęła na sztuczną inteligencję . Wiener porównał także obliczenia , maszyny obliczeniowe, urządzenia pamięciowe i inne podobieństwa poznawcze ze swoją analizą fal mózgowych.

John von Neumann (1903-1957), wprowadził architekturę komputerową znaną jako architektura von Neumanna

John von Neumann i architektura von Neumann

W 1946 roku wprowadzono model architektury komputerowej, który stał się znany jako architektura Von Neumanna . Od 1950 roku model von Neumanna zapewniał jednolitość w kolejnych projektach komputerowych. Architektura von Neumanna została uznana za innowacyjną, ponieważ wprowadziła ideę umożliwienia współużytkowania przestrzeni pamięci przez instrukcje maszynowe i dane. Model von Neumanna składa się z trzech głównych części: jednostki arytmetyczno-logicznej (ALU), pamięci i jednostki przetwarzania instrukcji (IPU). W konstrukcji maszyny von Neumanna IPU przekazuje adresy do pamięci, a pamięć z kolei jest kierowana albo z powrotem do IPU, jeśli pobierana jest instrukcja, albo do ALU, jeśli pobierane są dane.

Konstrukcja maszyny Von Neumanna wykorzystuje architekturę RISC (zredukowane przetwarzanie zestawu instrukcji), co oznacza, że ​​zestaw instrukcji wykorzystuje w sumie 21 instrukcji do wykonywania wszystkich zadań. (Jest to w przeciwieństwie do CISC, przetwarzania złożonych zestawów instrukcji, zestawów instrukcji, które mają więcej instrukcji do wyboru.) W architekturze von Neumanna pamięć główna wraz z akumulatorem (rejestrem przechowującym wynik operacji logicznych) wspomnienia, które są adresowane. Operacje mogą być wykonywane jako proste operacje arytmetyczne (wykonuje je jednostka ALU i obejmują dodawanie, odejmowanie, mnożenie i dzielenie), gałęzie warunkowe (są one obecnie częściej postrzegane jako ifinstrukcje lub whilepętle. Gałęzie służą jako go toinstrukcje) oraz ruchy logiczne między różnymi komponentami maszyny, tj. przejście z akumulatora do pamięci lub odwrotnie. Architektura Von Neumanna akceptuje ułamki i instrukcje jako typy danych. Wreszcie, ponieważ architektura von Neumanna jest prosta, jej zarządzanie rejestrami jest również proste. Architektura wykorzystuje zestaw siedmiu rejestrów do manipulowania i interpretowania pobranych danych i instrukcji. Rejestry te obejmują „IR” (rejestr instrukcji), „IBR” (rejestr buforowy instrukcji), „MQ” (rejestr ilorazu mnożnika), „MAR” (rejestr adresu pamięci) i „MDR” (rejestr danych pamięci).” Architektura wykorzystuje również licznik programu („PC”) do śledzenia, gdzie w programie znajduje się maszyna.

John McCarthy (1927-2011), był postrzegany jako jeden z ojców założycieli sztucznej inteligencji

John McCarthy, Marvin Minsky i sztuczna inteligencja

Termin „sztuczna inteligencja” został przypisany przez Johna McCarthy'ego, aby wyjaśnić badania, które prowadzili na potrzeby projektu Dartmouth Summer Research . Nazewnictwo sztucznej inteligencji doprowadziło również do narodzin nowej dziedziny w informatyce. 31 sierpnia 1955 zaproponowano projekt badawczy składający się z Johna McCarthy'ego, Marvina L. Minsky'ego, Nathaniela Rochestera i Claude'a E. Shannona . Oficjalny projekt rozpoczął się w 1956 roku i składał się z kilku istotnych części, które według nich miały pomóc im lepiej zrozumieć skład sztucznej inteligencji.

Pomysły McCarthy'ego i jego kolegów na automatykę komputerową polegały na tym, że gdy maszyna jest w stanie wykonać zadanie, to to samo należy potwierdzić komputerem, kompilując program do wykonywania pożądanych rezultatów. Odkryli również, że ludzki mózg jest zbyt złożony, by mógł się replikować nie przez samą maszynę, ale przez program. Nie było jeszcze wiedzy potrzebnej do stworzenia wyrafinowanego programu.

Koncepcją stojącą za tym było przyjrzenie się, jak ludzie rozumieją nasz własny język i strukturę tego, jak tworzymy zdania, nadając różne znaczenia i zestawy reguł oraz porównując je z procesem maszynowym. Sposób, w jaki komputery mogą zrozumieć, jest na poziomie sprzętowym. Język ten jest napisany binarnie (1 i 0). Musi to być napisane w określonym formacie, który daje komputerowi zestaw reguł do uruchomienia określonego elementu sprzętowego.

Proces Minsky'ego określił, w jaki sposób te sztuczne sieci neuronowe mogą być ustawione tak, aby miały podobne właściwości do ludzkiego mózgu. Jednak mógł uzyskać tylko częściowe wyniki i musiał kontynuować badania nad tym pomysłem. Mieli jednak otrzymać tylko częściowe wyniki badań

Ideą McCarthy'ego i Shannona stojącą za tą teorią było opracowanie sposobu wykorzystania złożonych problemów do określenia i pomiaru wydajności maszyny poprzez teorię matematyczną i obliczenia . Mieli jednak otrzymać tylko częściowe wyniki testów.

Ideą samodoskonalenia jest sposób, w jaki maszyna używałaby samomodyfikującego się kodu, aby stać się mądrzejszą. Pozwoliłoby to na zwiększenie inteligencji maszyny i zwiększenie szybkości obliczeń. Grupa wierzyła, że ​​mogliby to zbadać, gdyby maszyna mogła ulepszyć proces wykonywania zadania w abstrakcyjnej części ich badań.

Grupa uznała, że ​​badania w tej kategorii można podzielić na mniejsze grupy. Składałoby się to z informacji sensorycznych i innych form informacji o sztucznej inteligencji. Abstrakcje w informatyce mogą odnosić się do matematyki i języka programowania.

Ich idea kreatywności obliczeniowej polega na tym, jak program lub maszyna mogą być postrzegane w podobnym sposobie ludzkiego myślenia. Chcieli sprawdzić, czy maszyna może wziąć fragment niekompletnej informacji i poprawić ją, aby uzupełnić brakujące szczegóły, tak jak potrafi to uczynić ludzki umysł. Gdyby ta maszyna mogła to zrobić; musieli zastanowić się, w jaki sposób maszyna określiła wynik.

Zobacz też

Bibliografia

Źródła

Dalsza lektura

Zewnętrzne linki