Architektura poznawcza - Cognitive architecture
Poznawczy architektura odnosi się zarówno teorię o strukturze umysłu ludzkiego i do instancji obliczeniowej takiej teorii stosowanych w dziedzinie sztucznej inteligencji (AI) i kognitywistyki obliczeniowej. Sformalizowane modele mogą zostać wykorzystane do dalszego udoskonalenia kompleksowej teorii poznania oraz jako przydatny program sztucznej inteligencji. Udane architektury kognitywne obejmują ACT-R (Adaptive Control of Thought-Rational) i SOAR .
Instytut Twórczych Technologies definiuje architekturę poznawczej jako " hipotezy o stałych struktur, które zapewniają umysł, czy w systemach naturalnych lub sztucznych, i jak one działają razem - w połączeniu z wiedzą i umiejętnościami ucieleśnionego w architekturze - uzyskując inteligentne zachowanie różnorodność złożonych środowisk."
Historia
Herbert A. Simon , jeden z twórców dziedziny sztucznej inteligencji, stwierdził, że teza z 1960 roku autorstwa jego studenta Eda Feigenbauma , EPAM dostarczyła możliwej „architektury dla poznania”, ponieważ zawierała pewne zobowiązania dotyczące tego, jak więcej niż jeden fundamentalny aspekt ludzki umysł pracował (w przypadku EPAM ludzka pamięć i ludzkie uczenie się ).
John R. Anderson rozpoczął badania nad ludzką pamięcią na początku lat siedemdziesiątych, a jego teoria z 1973 roku z Gordonem H. Bowerem przedstawiła teorię ludzkiej pamięci skojarzeniowej. Włączył do tych badań więcej aspektów swoich badań nad pamięcią długotrwałą i procesami myślenia i ostatecznie zaprojektował architekturę poznawczą, którą ostatecznie nazwał ACT . On i jego uczniowie byli pod wpływem użycia przez Allena Newella terminu „architektura poznawcza”. Laboratorium Andersona użyło tego terminu w odniesieniu do teorii ACT zawartej w zbiorze artykułów i projektów (w tamtym czasie nie było pełnej implementacji ACT).
W 1983 roku John R. Anderson opublikował przełomową pracę w tej dziedzinie, zatytułowaną The Architecture of Cognition. Można odróżnić teorię poznania od realizacji teorii. Teoria poznania nakreśliła strukturę różnych części umysłu i zobowiązała się do stosowania reguł, sieci asocjacyjnych i innych aspektów. Architektura kognitywna implementuje teorię na komputerach. Oprogramowanie wykorzystywane do implementacji architektur kognitywnych było również „architekturami kognitywnymi”. Tak więc architektura kognitywna może również odnosić się do planu inteligentnych agentów . Proponuje (sztuczne) procesy obliczeniowe , które działają jak pewne systemy poznawcze, najczęściej jak osoba, lub działają inteligentnie zgodnie z pewną definicją. Architektury kognitywne tworzą podzbiór ogólnych architektur agentów . Termin „architektura” implikuje podejście, które próbuje modelować nie tylko zachowanie, ale także właściwości strukturalne modelowanego systemu.
Wyróżnienia
Architektury kognitywne mogą być symboliczne , koneksjonistyczne lub hybrydowe . Niektóre architektury lub modele kognitywne opierają się na zbiorze ogólnych zasad , jak np. Język Przetwarzania Informacji (np. Soar oparty na zunifikowanej teorii poznania lub podobnie ACT-R ). Wiele z tych architektur opiera się na analogii „umysł jest jak komputer”. W przeciwieństwie do tego, przetwarzanie subsymboliczne nie określa a priori takich reguł i opiera się na emergentnych właściwościach jednostek przetwarzających (np. węzłów). Architektury hybrydowe łączą oba typy przetwarzania (takie jak CLARION ). Kolejnym rozróżnieniem jest to, czy architektura jest scentralizowana z neuronowym korelatem procesora w jego rdzeniu, czy zdecentralizowana (rozproszona). Zdecentralizowany smak stał się popularny pod nazwą równoległego przetwarzania rozproszonego w połowie lat 80. i koneksjonizmu , czego najlepszym przykładem są sieci neuronowe . Kolejnym zagadnieniem projektowym jest dodatkowo decyzja między budową holistyczną a atomistyczną lub (bardziej konkretną) modułową . Analogicznie rozciąga się to na kwestie reprezentacji wiedzy .
W tradycyjnej sztucznej inteligencji , inteligencja jest często zaprogramowane z góry: programista jest twórcą i czyni coś i nasyca je z jej inteligencją, choć wiele tradycyjnych systemów AI zostały również przeznaczone na naukę (np poprawy ich gra-playing lub umiejętności rozwiązywania problemów) . Z drugiej strony informatyka inspirowana biologicznie przyjmuje czasami bardziej oddolne , zdecentralizowane podejście; Techniki inspirowane biologią często obejmują metodę określania zestawu prostych zasad ogólnych lub zestawu prostych węzłów, z których interakcji wyłania się ogólne zachowanie. Oczekuje się, że złożoność będzie wzrastać, aż wynik końcowy stanie się czymś wyraźnie złożonym (patrz złożone systemy). Można jednak również argumentować, że systemy zaprojektowane odgórnie na podstawie obserwacji tego, co potrafią ludzie i inne zwierzęta, a nie obserwacji mechanizmów mózgowych, są również inspirowane biologicznie, choć w inny sposób.
Godne uwagi przykłady
Kompleksowy przegląd wdrożonych architektur kognitywnych został przeprowadzony w 2010 r. przez Samsonovicha i in. i jest dostępny jako repozytorium online. Niektóre dobrze znane architektury kognitywne w kolejności alfabetycznej:
- 4CAPS , opracowany na Uniwersytecie Carnegie Mellon przez Marcela A. Justa i Sashanka Varmę.
- Architektura modelu referencyjnego 4D-RCS opracowana przez Jamesa Albusa z NIST jest architekturą modelu referencyjnego, która zapewnia teoretyczne podstawy do projektowania, inżynierii i integracji oprogramowania inteligentnych systemów dla bezzałogowych pojazdów naziemnych .
- ACT-R , opracowany na Uniwersytecie Carnegie Mellon pod kierownictwem Johna R. Andersona .
- ALifeE , opracowany przez Toniego Conde w Ecole Polytechnique Fédérale de Lausanne .
- ANCS , model poznawczy został opracowany przez Abdula Salama Mubashara w QUINTELLISENSE.
- Apex opracowany pod kierownictwem Michaela Freeda w NASA Ames Research Center .
- ASMO , opracowany pod kierunkiem Rony'ego Novianto na Uniwersytecie Technologicznym w Sydney .
- Projektowanie zorientowane na zachowanie , opracowane przez Joannę J. Bryson z MIT .
- CHREST , opracowany pod kierunkiem Fernanda Gobeta z Brunel University i Petera C. Lane'a z University of Hertfordshire .
- CLARION to architektura kognitywna, opracowana pod kierunkiem Rona Suna w Rensselaer Polytechnic Institute i University of Missouri.
- CMAC – Cerebellar Model Articulation Controller (CMAC) to rodzaj sieci neuronowej opartej na modelu móżdżku ssaków . Jest to rodzaj pamięci skojarzeniowej . CMAC został po raz pierwszy zaproponowany jako modeler funkcji dla sterowników robotycznych przez Jamesa Albusa w 1975 roku i był szeroko stosowany w uczeniu przez wzmacnianie, a także w automatycznej klasyfikacji w społeczności uczenia maszynowego .
- CMatie to „świadomy” agent programowy opracowany do zarządzania ogłoszeniami dotyczącymi seminariów na Wydziale Nauk Matematycznych Uniwersytetu w Memphis . Opiera się na rozproszonej pamięci Sparse, rozszerzonej o algorytmy genetyczne jako pamięci asocjacyjnej .
- Copycat , Douglas Hofstadter i Melanie Mitchell z Indiana University .
- DUAL , opracowany na Nowym Uniwersytecie Bułgarskim pod kierunkiem Boicho Kokinowa .
- DUAL PECCS , opracowany pod kierunkiem Antonio Lieto na Uniwersytecie w Turynie - Hybrydowy system reprezentacji i przetwarzania wiedzy zintegrowany z pamięciami deklaratywnymi i mechanizmami odzyskiwania wiedzy następujących architektur poznawczych: ACT-R , CLARION , LIDA i Soar .
- EPIC, opracowany pod kierunkiem Davida E. Kierasa i Davida E. Meyera na Uniwersytecie Michigan .
- FORR opracowany przez Susan L. Epstein z City University of New York .
- Framsticks – koneksjonistyczna, rozproszona architektura neuronowa dla symulowanych stworzeń lub robotów, w której można projektować i rozwijać moduły sieci neuronowych złożonych z heterogenicznych neuronów (w tym receptorów i efektorów).
- GAIuS opracowany przez Sevak Avakians.
- Genie – „General Evolving Networked Intelligence Engine” to platforma przetwarzania kognitywnego opracowana przez Intelligent Artifacts i zbudowana na bazie GAIuS. Jego paradygmat „braku modelowania danych” i proste wywołania interfejsu API umożliwiają każdemu tworzenie i wdrażanie zaawansowanych niestandardowych aplikacji sztucznej inteligencji w ciągu kilku minut.
- Google DeepMind – firma stworzyła sieć neuronową, która uczy się grać w gry wideo w sposób podobny do ludzi, oraz sieć neuronową, która może mieć dostęp do pamięci zewnętrznej, jak konwencjonalna maszyna Turinga , co skutkuje komputerem, który wydaje się być prawdopodobnie naśladować pamięć krótkotrwałą ludzkiego mózgu. Podstawowy algorytm opiera się na połączeniu Q-learningu z wielowarstwową rekurencyjną siecią neuronową . (Zobacz również przegląd Jürgena Schmidhubera na temat wcześniejszych powiązanych prac w Deep learning )
- Holograficzna pamięć skojarzeniowa jest częścią rodziny pamięci skojarzeniowych opartych na korelacji , w których informacje są mapowane na orientację fazową liczb zespolonych na płaszczyźnie Riemanna . Został on zainspirowany holonomicznym modelem mózgu autorstwa Karla H. Pribrama . Wykazano, że holografy są skuteczne w zadaniach pamięci skojarzeniowej , uogólnianiu i rozpoznawaniu wzorców ze zmienną uwagą.
- Architektura H-Cogaff , która jest szczególnym przypadkiem schematu CogAff .
- Hierarchiczna pamięć czasowa to model uczenia maszynowego online opracowany przez Jeffa Hawkinsa i Dileepa George'a z Numenta, Inc., który modeluje niektóre strukturalne i algorytmiczne właściwości kory nowej . HTM to model biomimetyczny oparty na pamięciowo-predykcyjnej teorii funkcji mózgu opisanej przez Jeffa Hawkinsa w jego książce On Intelligence . HTM to metoda odkrywania i wnioskowania na wysokim poziomie przyczyn obserwowanych wzorców i sekwencji wejściowych, a tym samym budowania coraz bardziej złożonego modelu świata.
- CoJACK ACT-R inspirowane przedłużenie JACK system wieloagentowy który dodaje architekturę poznawczą z agentami do wywołania bardziej realistyczny (human-like) zachowań w środowiskach wirtualnych.
- IDA i LIDA , wdrażające teorię Global Workspace Theory , opracowane pod kierunkiem Stana Franklina na Uniwersytecie w Memphis .
- Memory Networks – stworzona przez grupę badawczą Facebook AI w 2014 roku ta architektura przedstawia nową klasę modeli uczenia się zwanych sieciami pamięci. Sieci pamięci rozumują za pomocą komponentów wnioskowania w połączeniu z komponentem pamięci długoterminowej ; uczą się, jak z nich korzystać wspólnie. Pamięć długotrwała może być odczytywana i zapisywana w celu wykorzystania jej do przewidywania.
- MANIC (architektura poznawcza) , Michael S. Gashler, University of Arkansas.
- MIDCA (Architektura Poznawcza) , Michael T. Cox, Wright State University.
- PreAct , opracowany pod kierunkiem dr Norma Geddesa w ASI.
- PRODIGY , Veloso et al.
- „Procedural Reasoning System” PRS , opracowany przez Michaela Georgeffa i Amy Lansky z SRI International .
- Teoria psi rozwinęła się pod kierunkiem Dietricha Dörnera na Uniwersytecie Otto-Friedricha w Bambergu , Niemcy .
- R-CAST , opracowany na Uniwersytecie Stanowym Pensylwanii .
- Sigma , opracowane na University of Southern California „s Instytutu Twórczych Technologies
- Spaun (Semantic Pointer Architecture Unified Network) – autorstwa Chrisa Eliasmitha z Center for Theoretical Neuroscience na University of Waterloo – Spaun to sieć 2 500 000 sztucznych neuronów kolczastych , która wykorzystuje grupy tych neuronów do wykonywania zadań poznawczych poprzez koordynację elastyczną. Komponenty modelu komunikują się za pomocą neuronów impulsowych, które implementują reprezentacje neuronowe zwane „wskaźnikami semantycznymi” przy użyciu różnych wzorców wyzwalania. Wskaźniki semantyczne można rozumieć jako elementy skompresowanej neuronowej przestrzeni wektorowej.
- Soar , opracowany pod kierunkiem Allena Newella i Johna Lairda na Carnegie Mellon University i University of Michigan .
- Society of mind i jego następczyni, maszyna emocji zaproponowana przez Marvina Minsky'ego .
- Rzadka pamięć rozproszona została zaproponowana przez Pentti Kanerva z NASA Ames Research Center jako możliwa do zrealizowania architektura, która może przechowywać duże wzorce i odzyskiwać je na podstawie częściowych dopasowań do wzorców reprezentujących bieżące sygnały sensoryczne. Pamięć ta wykazuje zachowania, zarówno w teorii, jak i w eksperymencie, które przypominają te, do których wcześniej nie podchodziły maszyny – np. szybkie rozpoznawanie twarzy lub zapachów, odkrywanie nowych powiązań między pozornie niepowiązanymi ideami itp. Rzadka pamięć rozproszona służy do przechowywania i wyszukiwania dużych ilości ( bitów ) informacji bez skupiania się na dokładności, ale na podobieństwie informacji. Istnieje kilka nowych zastosowań w nawigacji robotów i manipulacji robotami w oparciu o doświadczenie.
- Sparsey firmy Neurithmic Systems to platforma rozpoznawania zdarzeń za pomocą głęboko hierarchicznych, rozproszonych kodów rozproszonych
- Architektury subsumpcyjne , opracowane np. przez Rodneya Brooksa (choć można by się spierać, czy są kognitywne ).
- QuBIC: Quantum and Bio-inspired Cognitive Architecture for Machine Consciousness opracowana przez Wajahat M. Qazi i Khalila Ahmada z Wydziału Informatyki, GC University Lahore Pakistan i School of Computer Science, NCBA&E Lahore, Pakistan
- TinyCog to minimalistyczna implementacja open-source architektury kognitywnej oparta na ideach Scene Based Reasoning
- Vector LIDA to odmiana architektury kognitywnej LIDA, która wykorzystuje wielowymiarowe wektory Modular Composite Representation (MCR) jako główny model reprezentacji oraz Integer Sparse Distributed Memory jako główną technologię implementacji pamięci. Zalety tego nowego modelu obejmują bardziej realistyczny i biologicznie wiarygodny model, lepszą integrację z pamięcią epizodyczną , lepszą integrację z innymi przetwarzaniem percepcyjnym niskiego poziomu (takimi jak systemy głębokiego uczenia ), lepszą skalowalność i łatwiejsze mechanizmy uczenia się.
- VisNet autorstwa Edmunda Rollsa z Oxford Center for Computational Neuroscience — model hierarchii cech, w którym można budować niezmienne reprezentacje poprzez samoorganizujące się uczenie się w oparciu o czasowe i przestrzenne statystyki wizualnego sygnału wejściowego wytwarzanego przez obiekty podczas przekształcania świata.
Zobacz też
- Sztuczny mózg
- Sztuczna świadomość
- Autonomiczny agent
- Architektury kognitywne inspirowane biologicznie
- Projekt Niebieski Mózg
- Inicjatywa BRAIN
- Porównanie architektury kognitywnej
- Obliczenia kognitywne
- Kognitywistyka
- Zdroworozsądkowe rozumowanie
- Architektura komputerowa
- Przestrzeń koncepcyjna
- Głęboka nauka
- Mózg Google
- Schemat obrazu
- Poziom wiedzy
- Neokognitron
- Neuronowe korelaty świadomości
- Architektura Pandemonium
- Symulowana rzeczywistość
- Symulacja społeczna
- Zunifikowana teoria poznania
- Niekończąca się nauka języka
- Mózg bayesowski
- Otwarty umysł, zdrowy rozsądek
Bibliografia
Zewnętrzne linki
- Multimedia związane z architekturą kognitywną w Wikimedia Commons
- Cytaty związane z architekturą kognitywną w Wikiquote