Słowniczek sztucznej inteligencji - Glossary of artificial intelligence

Ten słowniczek sztucznej inteligencji to lista definicji terminów i pojęć związanych z badaniami nad sztuczną inteligencją , jej poddyscyplinami i dziedzinami pokrewnymi. Pokrewne glosariusze to Słowniczek informatyki , Słowniczek robotyki i Słowniczek widzenia maszynowego .

ZA

programowanie logiki abdukcyjnej (ALP)
Ramy reprezentacji wiedzy wysokiego poziomu, które można wykorzystać do rozwiązywania problemów deklaratywnie na podstawie rozumowania abdukcyjnego . Rozszerza normalne programowanie logiczne , pozwalając na niekompletne zdefiniowanie niektórych predykatów, zadeklarowanych jako predykaty podlegające.
rozumowanie abdukcyjne

Również uprowadzenie .

Forma logicznego wnioskowania, która zaczyna się od obserwacji lub zestawu obserwacji, a następnie ma na celu znalezienie najprostszego i najbardziej prawdopodobnego wyjaśnienia. Proces ten, w przeciwieństwie do rozumowania dedukcyjnego , prowadzi do wiarygodnego wniosku, ale nie weryfikuje go pozytywnie . wnioskowanie abdukcyjne lub retrodukcja
abstrakcyjny typ danych
Model matematyczny do typów danych , w którym rodzaj danych, jest zdefiniowane przez jego zachowanie ( semantyki ), z punktu widzenia użytkownika danych, w szczególności w zakresie możliwych wartości, możliwych operacji na danych tego typu, a zachowanie te operacje.
abstrakcja
Proces usuwania fizycznych, przestrzennych lub czasowych szczegółów lub atrybutów w badaniu obiektów lub systemów w celu dokładniejszego przyjrzenia się innym interesującym szczegółom
przyspieszenie zmiany
Postrzegany wzrost tempa zmian technologicznych w historii, który może sugerować szybszą i głębszą zmianę w przyszłości i może, ale nie musi towarzyszyć równie głęboka zmiana społeczna i kulturowa.
język akcji
Język do określania systemów przejść stanów i jest powszechnie używany do tworzenia formalnych modeli skutków działań na świecie. Języki akcji są powszechnie używane w dziedzinie sztucznej inteligencji i robotyki , gdzie opisują, w jaki sposób działania wpływają na stany systemów w czasie i mogą być wykorzystywane do automatycznego planowania .
nauka modelu działania
Obszar uczenia maszynowego związany z tworzeniem i modyfikacją wiedzy agenta oprogramowania na temat efektów i warunków działań, które mogą być wykonane w jego środowisku. Ta wiedza jest zwykle reprezentowana w opartym na logice języku opisu działań i wykorzystywana jako dane wejściowe dla zautomatyzowanych planistów.
wybór akcji
Sposób scharakteryzowania najbardziej podstawowego problemu inteligentnych systemów: co dalej. W sztucznej inteligencji i kognitywistyce obliczeniowej „problem wyboru akcji” jest zwykle związany z inteligentnymi agentami i animatami — sztucznymi systemami, które wykazują złożone zachowanie w środowisku agenta.
funkcja aktywacji
W sztucznych sieciach neuronowych funkcja aktywacji węzła definiuje dane wyjściowe tego węzła, biorąc pod uwagę dane wejściowe lub zestaw danych wejściowych.
algorytm adaptacyjny
Algorytm, który zmienia swoje zachowanie w momencie uruchomienia, w oparciu o zdefiniowany a priori mechanizm lub kryterium nagrody.
adaptacyjny system wnioskowania neurorozmytego (ANFIS)

Również adaptacyjny system wnioskowania rozmytego oparty na sieci .

Rodzaj sztucznej sieci neuronowej opartej na rozmytym systemie wnioskowania Takagi-Sugeno . Technika została opracowana na początku lat 90-tych. Ponieważ integruje zarówno sieci neuronowe, jak i zasady logiki rozmytej , ma potencjał, aby uchwycić zalety obu w ramach jednej struktury . Jego system wnioskowania odpowiada zestawowi rozmytych reguł IF-THEN, które mają zdolność uczenia się przybliżania funkcji nieliniowych. Stąd AFIS jest uważany za uniwersalny estymator. Aby wykorzystać ANFIS w bardziej efektywny i optymalny sposób, można wykorzystać najlepsze parametry uzyskane przez algorytm genetyczny.
dopuszczalna heurystyka
W informatyce , a konkretnie w algorytmach związanych z odnajdywaniem ścieżki , mówi się, że funkcja heurystyczna jest dopuszczalna, jeśli nigdy nie przeszacowuje kosztu osiągnięcia celu, tj. koszt, jaki szacuje na osiągnięcie celu nie jest wyższy niż najniższy możliwy koszt z obecnego punkt na ścieżce.
przetwarzanie afektywne

Także sztuczna inteligencja emocjonalna czy emocjonalna AI .

Badanie i rozwój systemów i urządzeń, które potrafią rozpoznawać, interpretować, przetwarzać i symulować ludzkie wpływy . Przetwarzanie afektywne to interdyscyplinarna dziedzina obejmująca informatykę , psychologię i kognitywistykę .
architektura agenta
Plan dla agentów programowych i inteligentne sterowanie systemami, przedstawiających rozmieszczenie komponentów. Architektury zaimplementowane przez inteligentnych agentów nazywane są architekturami kognitywnymi .
Akcelerator AI
Klasa mikroprocesorów lub systemów komputerowych zaprojektowanych jako akceleracja sprzętowa do zastosowań związanych ze sztuczną inteligencją , zwłaszcza sztucznych sieci neuronowych , widzenia maszynowego i uczenia maszynowego .
AI-kompletne
W dziedzinie sztucznej inteligencji najtrudniejsze problemy są nieformalnie określane jako AI-kompletna lub AI-trudna, co oznacza, że ​​trudność tych problemów obliczeniowych jest równoważna z rozwiązywaniem centralnego problemu sztucznej inteligencji – uczynienie komputerów tak inteligentnymi jak ludzie, lub silna sztuczna inteligencja . Nazwanie problemu AI-kompletnym odzwierciedla postawę, że nie byłby on rozwiązany przez prosty, konkretny algorytm.
algorytm
Jednoznaczne określenie, jak rozwiązać klasę problemów. Algorytmy mogą wykonywać obliczenia, przetwarzanie danych i zadania automatycznego wnioskowania.
efektywność algorytmiczna
Właściwość algorytmu odnosząca się do liczby zasobów obliczeniowych wykorzystywanych przez algorytm. Algorytm należy przeanalizować, aby określić jego wykorzystanie zasobów, a wydajność algorytmu można zmierzyć na podstawie wykorzystania różnych zasobów. Wydajność algorytmiczną można uznać za analogiczną do produktywności inżynierskiej w przypadku powtarzającego się lub ciągłego procesu.
prawdopodobieństwo algorytmiczne
W algorytmicznej teorii informacji prawdopodobieństwo algorytmiczne, zwane również prawdopodobieństwem Solomonoffa, to matematyczna metoda przypisywania prawdopodobieństwa a priori do danej obserwacji. Został wynaleziony przez Raya Solomonoffa w latach 60. XX wieku.
AlphaGo
Program komputerowy odtwarzający grę planszową Go . Został on opracowany przez Alphabet Inc „s Google DeepMind w Londynie. AlphaGo ma kilka wersji, w tym AlphaGo Zero , AlphaGo Master , AlphaGo Lee , itp. W październiku 2015 r. AlphaGo stał się pierwszym komputerowym programem Go , który pokonał profesjonalnego gracza Go bez utrudnień na pełnowymiarowej planszy 19×19.
inteligencja otoczenia (AmI)
Środowiska elektroniczne wrażliwe i reagujące na obecność ludzi.
analiza algorytmów
Określenie złożoności obliczeniowej algorytmów, czyli ilości czasu, pamięci i/lub innych zasobów niezbędnych do ich wykonania . Zwykle wiąże się to z określeniem funkcji, która wiąże długość danych wejściowych algorytmu z liczbą kroków, które wykonuje (jego złożoność czasowa ) lub liczbą wykorzystywanych lokalizacji pamięci (jego złożoność przestrzenna ).
analityka
Odkrywanie, interpretacja i przekazywanie znaczących wzorców w danych.
programowanie zestawu odpowiedzi (ASP)
Forma programowania deklaratywnego zorientowana na trudne (przede wszystkim NP-trudne ) problemy wyszukiwania . Opiera się na stabilnym modelu (zestawie odpowiedzi) semantyce programowania logicznego . W ASP problemy z wyszukiwaniem sprowadzają się do obliczania stabilnych modeli, a programy do rozwiązywania zestawów odpowiedzi — programy do generowania stabilnych modeli — służą do wykonywania wyszukiwania.
algorytm w dowolnym momencie
Algorytm , który może powrócić ważny rozwiązanie problemu, nawet jeśli jest ona przerwana zanim to się skończy.
interfejs programowania aplikacji (API)
Zestaw definicji podprogramów, protokołów komunikacyjnych i narzędzi do budowania oprogramowania. Ogólnie rzecz biorąc, jest to zestaw jasno określonych sposobów komunikacji pomiędzy różnymi komponentami. Dobre API ułatwia tworzenie programu komputerowego, dostarczając wszystkie elementy składowe, które następnie składa programista . API może być dla systemu internetowego, systemu operacyjnego , systemu baz danych , sprzętu komputerowego lub biblioteki oprogramowania .
przybliżone dopasowanie ciągów

Również wyszukiwanie rozmytych ciągów .

Technika znajdowania ciągów pasujących do wzorca w przybliżeniu (a nie dokładnie). Problem przybliżonego dopasowania ciągów jest zwykle podzielony na dwa podproblemy: znajdowanie przybliżonych dopasowań podciągów wewnątrz danego ciągu i znajdowanie ciągów słownikowych, które w przybliżeniu pasują do wzorca.
błąd przybliżenia
Rozbieżność między dokładną wartością a pewnym przybliżeniem.
ramy argumentacji

Również system argumentacji .

Sposób na radzenie sobie z kontrowersyjnymi informacjami i wyciąganie z nich wniosków. W abstrakcyjnej strukturze argumentacji informacje na poziomie podstawowym to zbiór abstrakcyjnych argumentów, które na przykład reprezentują dane lub propozycję. Konflikty między argumentami są reprezentowane przez relację binarną na zestawie argumentów. Mówiąc konkretnie, reprezentujesz strukturę argumentacji z grafem skierowanym, tak że węzły są argumentami, a strzałki reprezentują relację ataku. Istnieją pewne rozszerzenia ram Dunga, takie jak ramy argumentacji opartej na logice lub ramy argumentacji opartej na wartościach.
sztuczna inteligencja ogólna (AGI)
sztuczny układ odpornościowy (AIS)
Klasa inteligentnych obliczeniowo, opartych na regułach systemów uczenia maszynowego inspirowanych zasadami i procesami układu odpornościowego kręgowców . Algorytmy są zazwyczaj modelowane na podstawie cech uczenia się i pamięci układu odpornościowego do wykorzystania w rozwiązywaniu problemów .
sztuczna inteligencja (AI)

Również inteligencja maszyn .

Każda inteligencja demonstrowana przez maszyny , w przeciwieństwie do naturalnej inteligencji wykazywanej przez ludzi i inne zwierzęta. W informatyce badania nad sztuczną inteligencją definiuje się jako badanie „ inteligentnych agentów ”: dowolnego urządzenia, które postrzega swoje otoczenie i podejmuje działania, które maksymalizują jego szanse na pomyślne osiągnięcie zamierzonych celów. Potocznie termin „sztuczna inteligencja” jest stosowany, gdy maszyna naśladuje funkcje „poznawcze”, które ludzie kojarzą z innymi ludzkimi umysłami , takie jak „uczenie się” i „rozwiązywanie problemów”.
Język znaczników sztucznej inteligencji
XML dialekt do tworzenia języka naturalnego agentów programowych.
sztuczna sieć neuronowa (SSN)

Również system koneksjonistyczny .

Każdy system komputerowy niejasno inspirowany biologicznymi sieciami neuronowymi, które tworzą mózgi zwierząt .
Stowarzyszenie na rzecz Rozwoju Sztucznej Inteligencji (AAAI)
Międzynarodowe stowarzyszenie naukowe non-profit, którego celem jest promowanie badań i odpowiedzialnego wykorzystania sztucznej inteligencji . AAAI ma również na celu zwiększenie publicznego zrozumienia sztucznej inteligencji (AI), poprawę nauczania i szkolenia praktyków sztucznej inteligencji oraz zapewnienie wskazówek dla planistów i sponsorów badań dotyczących znaczenia i potencjału obecnego rozwoju sztucznej inteligencji i przyszłych kierunków.
asymptotyczna złożoność obliczeniowa
W teorii złożoności obliczeniowej , asymptotyczna złożoność obliczeniowa jest wykorzystanie analizy asymptotycznej dla szacowania złożoności obliczeniowej algorytmów i problemów obliczeniowych , często związane z wykorzystaniem tej asymptotyczne tempo wzrostu .
rachunek atrybucyjny
System logiki i reprezentacji zdefiniowany przez Ryszarda S. Michalskiego . Łączy w sobie elementy logiki predykatów , rachunku zdań i logiki wielowartościowej . Rachunek atrybucyjny dostarcza formalnego języka dla naturalnej indukcji , indukcyjnego procesu uczenia się, którego wyniki są w formach naturalnych dla ludzi.
rozszerzona rzeczywistość (AR)
Interaktywne doświadczenie rzeczywistego środowiska, w którym obiekty znajdujące się w rzeczywistym świecie są „wzmacniane” przez generowane komputerowo informacje percepcyjne, czasami w wielu modalnościach sensorycznych, w tym wzrokowej , słuchowej , dotykowej , somatosensorycznej i węchowej .
teoria automatów
Badanie abstrakcyjnych maszyn i automatów oraz problemów obliczeniowych, które można za ich pomocą rozwiązać. Jest to teoria informatyki teoretycznej i matematyki dyskretnej (przedmiot studiów zarówno w matematyce, jak i informatyce ).
zautomatyzowane planowanie i harmonogramowanie

Również proste planowanie AI .

Gałąź sztucznej inteligencji, która dotyczy realizacji strategii lub sekwencji działań, typowo do realizacji przez inteligentne agenty , roboty autonomiczne i pojazdy bezzałogowe . W przeciwieństwie do klasycznych problemów sterowania i klasyfikacji , rozwiązania są złożone i muszą zostać odkryte i zoptymalizowane w przestrzeni wielowymiarowej. Planowanie jest również związane z teorią decyzji .
automatyczne rozumowanie
Dziedzina informatyki i logiki matematycznej poświęcona zrozumieniu różnych aspektów rozumowania . Badanie zautomatyzowanego wnioskowania pomaga w tworzeniu programów komputerowych, które pozwalają komputerom rozumować całkowicie lub prawie całkowicie automatycznie. Chociaż automatyczne wnioskowanie jest uważane za poddziedzinę sztucznej inteligencji , ma również powiązania z informatyką teoretyczną , a nawet filozofią .
obliczenia autonomiczne (AC)
Na samodzielne zarządzanie cechy rozproszonych zasobów, dostosowując się do nieprzewidywalnych zmian podczas ukrywania wewnętrzną złożoność dla operatorów i użytkowników. Inicjatywa ta, zainicjowana przez IBM w 2001 roku, miała ostatecznie na celu opracowanie systemów komputerowych zdolnych do samodzielnego zarządzania, przezwyciężenie szybko rosnącej złożoności zarządzania systemami komputerowymi oraz zmniejszenie bariery, jaką złożoność stanowi dla dalszego rozwoju.
samochód autonomiczny

Także self-jazdy samochodem , Robot samochód i sterowników samochód .

Pojazd , który jest zdolny do wykrywania ruchu i jego otoczenie z małym lub żadnym wejściu człowieka .
autonomiczny robot
Robota , który wykonuje zachowania lub zadania o wysokim stopniu autonomii . Robotyka autonomiczna jest zwykle uważana za poddziedzinę sztucznej inteligencji , robotyki i inżynierii informacyjnej .

b

wsteczna propagacja
Metoda stosowana w sztucznych sieciach neuronowych do obliczania gradientu potrzebnego do obliczania wag, które mają być używane w sieci. Propagacja wsteczna jest skrótem oznaczającym „propagację wsteczną błędów”, ponieważ błąd jest obliczany na wyjściu i rozprowadzany wstecz w warstwach sieci. Jest powszechnie używany do trenowania głębokich sieci neuronowych , termin odnoszący się do sieci neuronowych z więcej niż jedną warstwą ukrytą.
wsteczna propagacja w czasie (BPTT)
Oparta na gradiencie technika uczenia pewnych typów rekurencyjnych sieci neuronowych . Może być używany do trenowania sieci Elman . Algorytm został niezależnie opracowany przez wielu badaczy
łańcuch wsteczny

Również rozumowanie wsteczne .

Wnioskowanie metoda opisana potocznie działa wstecz od celu. Jest używany w zautomatyzowanych dowodzeniach twierdzeń , silnikach wnioskowania , asystentach dowodowych i innych aplikacjach sztucznej inteligencji .
model worka słów
Reprezentacja upraszczająca stosowana w przetwarzaniu języka naturalnego i wyszukiwaniu informacji (IR). W tym modelu tekst (taki jak zdanie lub dokument) jest reprezentowany jako worek (multizbiór) jego słów, z pominięciem gramatyki, a nawet szyku wyrazów, ale z zachowaniem wielości . Model bag-of-words został również wykorzystany do wizji komputerowej . Model bag-of-words jest powszechnie używany w metodach klasyfikacji dokumentów, w których (częstotliwość) występowania każdego słowa jest wykorzystywana jako funkcja uczenia klasyfikatora .
model worka słów w wizji komputerowej
W wizji komputerowej model bag-of-words (model BoW) można zastosować do klasyfikacji obrazów , traktując cechy obrazu jako słowa. W klasyfikacji dokumentów worek słów jest rzadkim wektorem liczby wystąpień słów; to znaczy rzadki histogram nad słownictwem. W wizji komputerowej , A worek słów wizualnych jest wektorem liczy wystąpienia słownictwa lokalnych cech obrazu.
normalizacja wsadowa
Technika poprawy wydajności i stabilności sztucznych sieci neuronowych . Jest to technika polegająca na dostarczaniu dowolnej warstwie sieci neuronowej danych wejściowych o zerowej wariancji średniej/jednostki. Normalizacja wsadowa została wprowadzona w artykule z 2015 roku. Służy do normalizacji warstwy wejściowej poprzez dostosowanie i skalowanie aktywacji.
Programowanie bayesowskie
Formalizm i metodologia posiadania techniki określania modeli probabilistycznych i rozwiązywania problemów, gdy dostępnych jest mniej niż niezbędne informacje.
algorytm pszczół
Algorytm wyszukiwania oparty na populacji , który został opracowany przez Pham, Ghanbarzadeh i in. w 2005 r. Naśladuje zachowanie żerowania kolonii pszczół miodnych. W swojej podstawowej wersji algorytm wykonuje rodzaj wyszukiwania sąsiedztwa połączonego z wyszukiwaniem globalnym i może być używany zarówno do optymalizacji kombinatorycznej, jak i optymalizacji ciągłej . Jedynym warunkiem zastosowania algorytmu pszczół jest zdefiniowanie pewnej miary odległości między rozwiązaniami. Skuteczność i specyficzne możliwości algorytmu pszczół zostały udowodnione w wielu badaniach.
informatyka behawioralna (BI)
Informatyka zachowań, aby uzyskać inteligencję zachowań i wgląd w zachowanie.
drzewo zachowań (BT)
Model matematyczny z planem realizacji stosowane w informatyce , robotyce , systemów sterowania i gier wideo . Opisują przełączanie między skończonym zbiorem zadań w sposób modułowy. Ich siła tkwi w umiejętności tworzenia bardzo złożonych zadań złożonych z prostych zadań, bez martwienia się o to, jak te proste zadania są realizowane. BT wykazują pewne podobieństwa do hierarchicznych maszyn stanów, z tą kluczową różnicą, że głównym budulcem zachowania jest zadanie, a nie stan. Łatwość zrozumienia przez ludzi sprawia, że ​​BT są mniej podatne na błędy i bardzo popularne w społeczności twórców gier. Wykazano, że BT uogólniają kilka innych architektur sterowania.
model oprogramowania przekonanie-pragnienie-zamiar (BDI)
Model oprogramowania stworzony do programowania inteligentnych agentów . Powierzchownie charakteryzuje się realizacją przekonań , pragnień i intencji agenta , w rzeczywistości wykorzystuje te koncepcje do rozwiązania konkretnego problemu w programowaniu agenta. W istocie zapewnia mechanizm oddzielenia czynności wyboru planu (z biblioteki planów lub zewnętrznej aplikacji planisty) od wykonywania aktualnie aktywnych planów. Dzięki temu agenci BDI są w stanie zrównoważyć czas poświęcony na rozważanie planów (wybór, co należy zrobić) i wykonanie tych planów (robienie tego). Trzecia czynność, tworzenie planów w pierwszej kolejności (planowanie), nie mieści się w zakresie modelu i jest pozostawiona projektantowi systemu i programiście.
kompromis między stronniczością a wariancją
W statystyce i uczeniu maszynowym kompromis między obciążeniem a wariancją jest własnością zestawu modeli predykcyjnych, przy czym modele z niższym obciążeniem w estymacji parametrów mają wyższą wariancję oszacowań parametrów w próbkach i na odwrót.
duże zbiory danych
Termin używany w odniesieniu do zestawów danych, które są zbyt duże lub zbyt złożone, aby można je było odpowiednio obsłużyć w tradycyjnym oprogramowaniu do przetwarzania danych . Dane z wieloma obserwacjami (wierszami) oferują większą moc statystyczną , natomiast dane o większej złożoności (więcej atrybutów lub kolumn) mogą prowadzić do wyższego współczynnika fałszywych odkryć .
notacja duże O
Matematyczny zapis, który opisuje ograniczający zachowanie o funkcji gdy argumentu dąży do określonej wartości lub nieskończoności. Jest członkiem rodziny notacji wymyślonej przez Paula Bachmanna , Edmunda Landaua i innych, zwanych łącznie notacją Bachmanna-Landaua lub notacją asymptotyczną.
drzewo binarne
Drzewo struktury danych każdy węzeł, który ma co najwyżej dwie dzieci , które są określane jako zostawił dziecko iwłaściwe dziecko . Rekurencyjne definicjaprzy użyciu tylkoteorii zbiorówwyobrażenia jest, że (niepusty) drzewo binarne jestkrotką(L,S,R), gdzieLiRsą drzewo binarne lubzbiór pustyiSjestzestaw pojedyncza. Niektórzy autorzy pozwalają, aby drzewo binarne było również pustym zestawem.
system tablicy
Sztucznej inteligencji podejście oparte na tablicy modelu architektonicznego , gdzie wspólny zasób wiedzy, „tablica”, jest iteracyjnie aktualizowana przez zróżnicowaną grupę specjalistycznych źródeł wiedzy, począwszy od specyfikacji problemu, a kończąc na rozwiązanie. Każde źródło wiedzy aktualizuje tablicę za pomocą rozwiązania częściowego, gdy jego wewnętrzne ograniczenia są zgodne ze stanem tablicy. W ten sposób specjaliści pracują wspólnie nad rozwiązaniem problemu.
Maszyna Boltzmanna

Również stochastyczna sieć Hopfield z ukrytymi jednostkami .

Typ stochastycznej rekurencyjnej sieci neuronowej i pole losowe Markowa . Maszyny Boltzmanna mogą być postrzegane jako stochastyczny , generatywny odpowiednik sieci Hopfielda .
Problem spełnialności logicznej

Również problem spełnialności zdań ; w skrócie SATISFIABILITY lub SAT .

{{{zawartość}}}
technologia mózgu

Również samouczący się system know-how .

Technologia wykorzystująca najnowsze odkrycia neuronauki . Termin ten został po raz pierwszy wprowadzony przez Laboratorium Sztucznej Inteligencji w Zurychu w Szwajcarii w kontekście projektu ROBOY . Brain Technology może być wykorzystana w robotach, systemach zarządzania know-how i wszelkich innych aplikacjach z możliwością samouczenia się. W szczególności aplikacje Brain Technology umożliwiają wizualizację podstawowej architektury uczenia się, często określanej jako „mapy know-how”.
czynnik rozgałęzienia
W informatyce , drzewiastych strukturach danych i teorii gier , liczba dzieci w każdym węźle , stopień wyjściowy . Jeśli ta wartość nie jest jednolita, można obliczyć średni współczynnik rozgałęzienia .

Również wyczerpujące wyszukiwanie lub generowanie i testowanie .

Bardzo ogólna technika rozwiązywania problemów i paradygmat algorytmiczny polegający na systematycznym wyliczaniu wszystkich możliwych kandydatów do rozwiązania i sprawdzaniu, czy każdy z kandydatów odpowiada stwierdzeniu problemu.

do

sieć neuronowa kapsułki (CapsNet)
System uczenia maszynowego będący rodzajem sztucznej sieci neuronowej (ANN), który może służyć do lepszego modelowania relacji hierarchicznych. Podejście to jest próbą bliższego naśladowania biologicznej organizacji neuronalnej.
wnioskowanie oparte na przypadkach (CBR)
Szeroko rozumiany proces rozwiązywania nowych problemów w oparciu o rozwiązania podobnych problemów z przeszłości.
chatbot

Również smartbot , talkbot , chatterbot , bot , IM bot , środek interaktywny , konwersacyjny interfejs , lub sztuczny konwersacyjny podmiot .

Program komputerowy lub sztuczna inteligencja, która prowadzi rozmowę za pomocą metod słuchowych lub tekstowych.
robotyka w chmurze
Dziedzina robotyki, która próbuje odwoływać się do technologii chmury, takich jak przetwarzanie w chmurze , przechowywanie w chmurze i inne technologie internetowe, skupiała się na korzyściach płynących z infrastruktury konwergentnej i wspólnych usług dla robotyki. Po połączeniu z chmurą roboty mogą korzystać z potężnych zasobów obliczeniowych, pamięciowych i komunikacyjnych nowoczesnego centrum danych w chmurze, które mogą przetwarzać i udostępniać informacje z różnych robotów lub agentów (innych maszyn, inteligentnych obiektów, ludzi itp.). . Ludzie mogą również zdalnie delegować zadania robotom za pośrednictwem sieci . Technologie przetwarzania w chmurze umożliwiają wyposażanie systemów robotów w potężne możliwości przy jednoczesnej redukcji kosztów dzięki technologiom w chmurze. Dzięki temu możliwe jest zbudowanie lekkich, tanich, inteligentniejszych robotów posiadających inteligentny „mózg” w chmurze. „Mózg” składa się z centrum danych , bazy wiedzy , planistów zadań, głębokiego uczenia , przetwarzania informacji, modeli środowiska, wsparcia komunikacji itp.
analiza skupień

Również klastrowanie .

Zadanie polegające na pogrupowaniu zbioru obiektów w taki sposób, aby obiekty w tej samej grupie (zwanej skupiskiem) były bardziej podobne (w pewnym sensie) do siebie niż do tych z innych grup (klastrów). Jest to główne zadanie eksploracyjnej eksploracji danych i powszechna technika statystycznej analizy danych , wykorzystywana w wielu dziedzinach, w tym w uczeniu maszynowym , rozpoznawaniu wzorców , analizie obrazu , wyszukiwaniu informacji , bioinformatyce , kompresji danych i grafice komputerowej .
Pajęczyna
Przyrostowy system hierarchicznego grupowania pojęciowego . COBWEB został wynaleziony przez profesora Douglasa H. Fishera , obecnie na Uniwersytecie Vanderbilt. COBWEB stopniowo porządkuje obserwacje w drzewie klasyfikacyjnym . Każdy węzeł w drzewie klasyfikacyjnym reprezentuje klasę (koncepcję) i jest oznaczony koncepcją probabilistyczną, która podsumowuje rozkłady atrybut-wartość obiektów sklasyfikowanych w węźle. To drzewo klasyfikacyjne może służyć do przewidywania brakujących atrybutów lub klasy nowego obiektu.
architektura kognitywna
Instytut Creative Technologies definiuje architekturę poznawczej jako „hipotezy o stałych struktur, które zapewniają umysł, czy w systemach naturalnych lub sztucznych, i jak one działają razem - w połączeniu z wiedzą i umiejętnościami ucieleśnionego w architekturze - uzyskując inteligentne zachowanie różnorodność złożonych środowisk."
przetwarzanie kognitywne
Ogólnie rzecz biorąc, termin computing poznawcze zostało użyte w odniesieniu do nowego sprzętu i / lub oprogramowania, które naśladuje funkcjonujące w mózgu człowieka i przyczynia się do poprawy ludzkiego procesu decyzyjnego. W tym sensie CC to nowy rodzaj informatyki, którego celem jest stworzenie dokładniejszych modeli tego, jak ludzki mózg/ umysł wyczuwa, uzasadnia i reaguje na bodźce.
kognitywistyka
Interdyscyplinarne naukowe badanie umysłu i jego procesów.
optymalizacja kombinatoryczna
W badaniach operacyjnych , matematyce stosowanej i informatyce teoretycznej optymalizacja kombinatoryczna to temat, który polega na znalezieniu optymalnego obiektu ze skończonego zbioru obiektów.
maszyna komisji
Rodzaj sztucznej sieci neuronowej wykorzystującej strategię dziel i rządź , w której odpowiedzi wielu sieci neuronowych (ekspertów) są łączone w jedną odpowiedź. Połączona reakcja machiny komisji ma być lepsza od odpowiedzi jej ekspertów. Porównaj zespoły klasyfikatorów .
zdroworozsądkowa wiedza
W badaniach nad sztuczną inteligencją wiedza zdroworozsądkowa składa się z faktów dotyczących codziennego świata, takich jak „Cytryny są kwaśne”, które wszyscy ludzie powinni znać. Pierwszym programem wykorzystującym sztuczną inteligencję, który dotyczył wiedzy zdroworozsądkowej, był Advice Taker w 1959 roku autorstwa Johna McCarthy.
zdroworozsądkowe rozumowanie
Gałąź sztucznej inteligencji zajmująca się symulowaniem ludzkiej zdolności do domniemania rodzaju i istoty zwykłych sytuacji, z którymi spotykają się na co dzień.
chemia obliczeniowa
Gałąź chemii, która wykorzystuje symulację komputerową do pomocy w rozwiązywaniu problemów chemicznych.
teoria złożoności obliczeniowej
Koncentruje się na klasyfikowaniu problemów obliczeniowych zgodnie z ich nieodłączną trudnością i powiązaniu tych klas ze sobą. Problem obliczeniowy to zadanie rozwiązywane przez komputer. Problem obliczeniowy można rozwiązać przez mechaniczne zastosowanie kroków matematycznych, takich jak algorytm.
kreatywność obliczeniowa

Również sztuczny kreatywność , mechaniczny kreatywność , twórczy computing lub twórczy obliczeń .

Multidyscyplinarne przedsięwzięcie, które obejmuje dziedziny sztucznej inteligencji , psychologii poznawczej , filozofii i sztuki .
cybernetyka obliczeniowa
Integracja cybernetyki i technik inteligencji obliczeniowej .
humor obliczeniowy
Oddział lingwistyki komputerowej i sztucznej inteligencji , który używa komputerów w badaniach humor .
inteligencja obliczeniowa (CI)
Zwykle odnosi się do zdolności komputera do uczenia się określonego zadania na podstawie danych lub obserwacji eksperymentalnych.
teoria uczenia się komputerowego
W informatyce teoria uczenia komputerowego (lub po prostu teoria uczenia się) jest poddziedziną sztucznej inteligencji poświęconą badaniu projektowania i analizy algorytmów uczenia maszynowego .
lingwistyka komputerowa
Interdyscyplinarny dotyczy statystycznej lub reguł opartych na modelowaniu ostrości języka naturalnego z obliczeniowego punktu widzenia, jak również badania odpowiednich obliczeniowych podejść do kwestii językowych.
matematyka obliczeniowa
Badania matematyczne w dziedzinach nauki, w których informatyka odgrywa zasadniczą rolę.
neuronauka obliczeniowa

Także neuronauka teoretyczna lub neuronauka matematyczna .

Oddział neurologii , który zatrudnia modele matematyczne, analiza teoretyczna i abstrakcje mózgu zrozumieć zasady rządzące rozwój , strukturę , fizjologii i zdolności poznawcze na układ nerwowy .
obliczeniowa teoria liczb

Również algorytmiczna teoria liczb .

Badanie algorytmów wykonywania obliczeń z zakresu teorii liczb .
problem obliczeniowy
W informatyce teoretycznej problem obliczeniowy to obiekt matematyczny reprezentujący zbiór pytań, które komputery mogą rozwiązać.
statystyka obliczeniowa

Również obliczenia statystyczne .

Interfejs między statystyką a informatyką .
projektowanie zautomatyzowane komputerowo (CAutoD)
Automatyzacja projektowania zwykle odnosi się do automatyzacji projektowania elektronicznego lub automatyzacji projektowania, która jest konfiguratorem produktu . Rozszerzanie Computer-Aided Design (CAD), zautomatyzowane projektowanie i projektowania komputerowego zautomatyzowany dotyczą szerszego zakresu zastosowań, takich jak motoryzacji , inżynierii lądowej , materiałów kompozytowych konstrukcji, inżynierii sterowania , dynamicznej identyfikacji systemu i optymalizacji, finansowych systemów, przemysłowe sprzęt, systemy mechatroniczne , konstrukcje stalowe , optymalizacja konstrukcji i wynalezienie nowych systemów. Ostatnio tradycyjne symulacje CAD są przekształcane w CAutoD dzięki biologicznie inspirowanemu uczeniu maszynowemu , w tym technikom wyszukiwania heurystycznego , takim jak obliczenia ewolucyjne i algorytmy inteligencji roju .
przesłuchanie komputerowe (CA)
Zobacz maszynowe nasłuchiwanie .
Informatyka
Teoria, eksperymenty i inżynieria, które stanowią podstawę projektowania i użytkowania komputerów . Obejmuje badanie algorytmów, które przetwarzają, przechowują i przekazują informacje cyfrowe . Informatyk specjalizuje się w teorii obliczeń i projektowania systemów obliczeniowych.
wizja komputerowa
Interdyscyplinarną dziedziną nauki , która zajmuje się w jaki sposób komputery mogą być wykonane w celu uzyskania wysokiego poziomu wiedzy z cyfrowych zdjęć lub filmów . Z punktu widzenia inżynierii dąży do automatyzacji zadań, które może wykonać ludzki system wzrokowy .
dryf koncepcji
W analityce predykcyjnej i uczeniu maszynowym dryf koncepcji oznacza, że ​​właściwości statystyczne zmiennej docelowej, którą model próbuje przewidzieć, zmieniają się w czasie w nieprzewidziany sposób. Powoduje to problemy, ponieważ prognozy stają się mniej dokładne w miarę upływu czasu.
koneksjonizm
Podejście w dziedzinie nauk kognitywnych , które ma na celu wyjaśnienie zjawisk psychicznych za pomocą sztucznych sieci neuronowych .
spójna heurystyka
W badaniu ścieżki rozpoznawczej problemów w sztucznej inteligencji , o heurystyczna funkcja nazywa się spójne lub monotonia, jeśli jego ocena jest zawsze mniejsza lub równa szacowanej odległości od dowolnego sąsiedniego wierzchołka do celu, plus koszt dotarcia ten sąsiad.
ograniczony model warunkowy (CCM)
Uczenie maszynowe i ramy wnioskowanie, że zwiększa nauki warunkowych (probabilistycznych lub dyskryminacyjnych) modeli z deklaratywnych ograniczeń.
programowanie w logice z ograniczeniami,
Forma programowania z ograniczeniami , w której programowanie logiczne jest rozszerzane o pojęcia z zakresu spełniania ograniczeń . Program logiki ograniczeń to program logiczny, który zawiera ograniczenia w treści klauzul. Przykładem klauzuli zawierającej ograniczenie jest . W tej klauzuli jest ograniczenie; , i są literałami jak w zwykłym programowaniu logicznym. Klauzula ta stanowi jeden warunek, pod którym oświadczenie posiada: jest większa od zera i oba i są prawdziwe.A(X,Y) :- X+Y>0, B(X), C(Y)X+Y>0A(X,Y)B(X)C(Y)A(X,Y)X+YB(X)C(Y)
programowanie z ograniczeniami
Paradygmat programowania , w którym stosunki pomiędzy zmiennych są przedstawione w postaci ograniczeń . Ograniczenia różnią się od zwykłych prymitywów z nadrzędnymi programowania języków, które nie określają one krok lub sekwencję kroków do wykonania, ale raczej właściwości roztworu można znaleźć.
język sztuczny

Również conlang .

Język, którego fonologia , gramatyka i słownictwo są świadomie wymyślone, zamiast rozwijać się w sposób naturalny . Języki sztuczne mogą być również określane jako języki sztuczne, planowane lub wymyślone.
teoria kontroli
W inżynierii systemów sterowania jest poddziedziną matematyki, która zajmuje się sterowaniem ciągle pracującymi systemami dynamicznymi w procesach inżynierskich i maszynach. Celem jest opracowanie modelu sterowania do sterowania takimi systemami z wykorzystaniem działania sterowania w sposób optymalny bez opóźnień lub przeregulowań i zapewniający stabilność sterowania .
splotowa sieć neuronowa
W uczeniu głębokim splotowa sieć neuronowa (CNN lub ConvNet) to klasa głębokich sieci neuronowych , najczęściej stosowana do analizy obrazów wizualnych. Sieci CNN wykorzystują odmianę perceptronów wielowarstwowych zaprojektowanych tak, aby wymagały minimalnego przetwarzania wstępnego . Są one również znane jako sztuczne sieci neuronowe niezmienne przesunięcia lub niezmienne przestrzennie (SIANN), w oparciu o ich architekturę współdzielonych wag i charakterystykę niezmienności translacji .
krzyżowanie

Również rekombinacja .

W algorytmów genetycznych i ewolucyjnego obliczeń , A operatora genetycznej stosowane do łączenia informacji genetycznej dwóch rodziców do generowania nowego potomstwa. Jest to jeden ze sposobów na stochastyczne generowanie nowych rozwiązań z istniejącej populacji, analogiczny do krzyżowania, które zachodzi podczas rozmnażania płciowego w organizmach biologicznych. Rozwiązania można również generować przez klonowanie istniejącego rozwiązania, co jest analogiczne do rozmnażania bezpłciowego . Nowo wygenerowane roztwory są zazwyczaj mutowane przed dodaniem do populacji.

re

Ciemny las
Program komputerowy go opracowany przez Facebooka , oparty na technikach głębokiego uczenia z wykorzystaniem splotowej sieci neuronowej . Jego zaktualizowana wersja Darkfores2 łączy techniki swojego poprzednika z przeszukiwaniem drzewa Monte Carlo . MCTS skutecznie wykorzystuje metody wyszukiwania drzew powszechnie spotykane w komputerowych programach szachowych i dokonuje ich randomizacji. Wraz z aktualizacją system znany jest pod nazwą Darkfmcts3.
Warsztaty Dartmouth
Letni projekt badawczy Dartmouth dotyczący sztucznej inteligencji to nazwa letnich warsztatów z 1956 r., które obecnie są uważane przez wielu (choć nie wszystkich) za przełomowe wydarzenie dla sztucznej inteligencji jako dziedziny.
powiększanie danych
Augmentacja danych w analizie danych to techniki stosowane w celu zwiększenia ilości danych. Pomaga zredukować nadmierne dopasowanie podczas trenowania uczenia maszynowego .
fuzja danych
Proces integrowania wielu źródeł danych w celu uzyskania bardziej spójnych, dokładnych i użytecznych informacji niż te dostarczane przez pojedyncze źródło danych.
integracja danych
Proces łączenia danych znajdujących się w różnych źródłach i zapewniania użytkownikom jednolitego ich widoku. Proces ten nabiera znaczenia w różnych sytuacjach, które obejmują zarówno domenę komercyjną (np. gdy dwie podobne firmy muszą połączyć swoje bazy danych ), jak i naukową (np. łącząc wyniki badań z różnych repozytoriów bioinformatycznych ). Integracja danych pojawia się coraz częściej jako objętość (czyli Big Data ) i potrzebę dzielenia istniejących danych eksploduje . Stała się przedmiotem rozległych prac teoretycznych, a wiele otwartych problemów pozostaje nierozwiązanych.
eksploracja danych
Proces odkrywania wzorców w dużych zbiorach danych obejmujący metody na przecięciu uczenia maszynowego, statystyki i systemów bazodanowych.
nauka o danych
Interdyscyplinarna dziedzina, która wykorzystuje naukowe metody, procesy, algorytmy i systemy do wydobywania wiedzy i spostrzeżeń z danych w różnych formach, zarówno ustrukturyzowanych, jak i nieustrukturyzowanych, podobnych do eksploracji danych . Nauka o danych to „koncepcja ujednolicenia statystyk, analizy danych, uczenia maszynowego i powiązanych z nimi metod” w celu „zrozumienia i analizy rzeczywistych zjawisk” z danymi. Wykorzystuje techniki i teorie zaczerpnięte z wielu dziedzin w kontekście matematyki , statystyki , informatyki i informatyki .
zbiór danych

Również zbiór danych .

Zbiór danych . Najczęściej zbiór danych odpowiada zawartości pojedynczej tabeli bazy danych lub pojedynczej macierzy danych statystycznych , gdzie każda kolumna tabeli reprezentuje konkretną zmienną, a każdy wiersz odpowiada danemu członkowi danego zbioru danych. Zestaw danych zawiera wartości dla każdej ze zmiennych, takie jak wysokość i waga obiektu, dla każdego elementu zestawu danych. Każda wartość nazywana jest datum. Zestaw danych może zawierać dane dla jednego lub większej liczby członków, odpowiadające liczbie wierszy.
hurtownia danych (DW lub DWH)

Również korporacyjna hurtownia danych ( EDW ).

System służący do raportowania i analizy danych . DW to centralne repozytoria zintegrowanych danych z jednego lub większej liczby różnych źródeł. Przechowują aktualne i historyczne dane w jednym miejscu
Datalog
Deklaratywne programowanie logiki języka, które składniowo jest podzbiorem Prologu . Jest często używany jako język zapytań dla dedukcyjnych baz danych . W ostatnich latach Datalog znalazł nowe zastosowanie w integracji danych , ekstrakcji informacji , sieciach , analizie programów , bezpieczeństwie i przetwarzaniu w chmurze .
granica decyzji
W przypadku sztucznych sieci neuronowych lub perceptronów opartych na propagacji wstecznej rodzaj granicy decyzyjnej, której sieć może się nauczyć, zależy od liczby ukrytych warstw sieci. Jeśli nie ma ukrytych warstw, może uczyć się tylko problemów liniowych. Jeśli to ma jedną warstwę ukrytą, to może nauczyć każdą funkcję ciągłą na zwartych podzbiorów w R n , jak pokazano przez Universalu przybliżenie twierdzenie , co może mieć dowolną granicę decyzji.
system wspomagania decyzji (DSS)
Aan system informacyjny , który obsługuje firma lub organizacyjne decyzyjne działania. DSS służą kierownictwu, operacjom i poziomom planowania organizacji (zazwyczaj średniego i wyższego kierownictwa) i pomagają ludziom podejmować decyzje dotyczące problemów, które mogą szybko się zmieniać i niełatwo określić z góry — tj. problemy decyzyjne nieustrukturyzowane i częściowo ustrukturyzowane. Systemy wspomagania decyzji mogą być w pełni skomputeryzowane lub wspomagane przez człowieka, lub być kombinacją obu.
teoria decyzji

Także teoria wyboru .

Badanie rozumowania leżącego u podstaw wyborów agenta . Teorię decyzji można podzielić na dwie gałęzie: normatywną teorię decyzji, która daje rady, jak podejmować najlepsze decyzje, biorąc pod uwagę zestaw niepewnych przekonań i zestaw wartości , oraz opisową teorię decyzji, która analizuje, w jaki sposób istniejące, być może nieracjonalne podmioty faktycznie podejmują decyzje .
nauka drzewa decyzyjnego
Wykorzystuje drzewo decyzyjne (jako model predykcyjny ), aby przejść od obserwacji dotyczących elementu (reprezentowanych w gałęziach) do wniosków dotyczących wartości docelowej elementu (reprezentowanej w liściach). Jest to jedno z podejść do modelowania predykcyjnego wykorzystywanych w statystyce , eksploracji danych i uczeniu maszynowym .
programowanie deklaratywne
Programowania paradygmat -a styl budowania struktury i elementy programów komputerowych-że wyraża logikę obliczeń bez opisywania jej przepływ sterowania .
klasyfikator dedukcyjny
Rodzaj silnika wnioskowania sztucznej inteligencji . Jako dane wejściowe przyjmuje zestaw deklaracji w języku ramowym na temat dziedziny, takiej jak badania medyczne lub biologia molekularna. Na przykład nazwy klas, podklas , właściwości i ograniczenia dotyczące dopuszczalnych wartości.
Głęboki błękit
był komputerem do gry w szachy opracowanym przez IBM . Jest znany jako pierwszy komputerowy system gry w szachy, który wygrał zarówno partię szachów, jak i mecz szachowy z panującym mistrzem świata pod regularną kontrolą czasu.
głęboka nauka

Również głębokie uczenie strukturalne lub uczenie hierarchiczne .

Część szerszej rodziny metod uczenia maszynowego opartych na uczeniu reprezentacji danych , w przeciwieństwie do algorytmów specyficznych dla zadania. Nauka może być nadzorowana , częściowo nadzorowana lub nienadzorowana .
Technologie DeepMind
Brytyjski sztuczna inteligencja firma założona we wrześniu 2010 roku, obecnie w posiadaniu Alfabetycznie Inc. Firma ma siedzibę w Londynie , z ośrodkami badawczymi w Kanadzie , Francji oraz Stanów Zjednoczonych . Przejęta przez Google w 2014 roku firma stworzyła sieć neuronową, która uczy się grać w gry wideo w sposób podobny do ludzkiego, a także neuronową maszynę Turinga lub sieć neuronową, która może mieć dostęp do pamięci zewnętrznej jak konwencjonalna maszyna Turinga , w wyniku czego komputer naśladuje pamięć krótkotrwałą ludzkiego mózgu. Firma trafiła na czołówki gazet w 2016 roku po tym, jak jej program AlphaGo pokonał człowieka profesjonalnego gracza Go Lee Sedola , mistrza świata, w pięciomeczowym meczu , który był tematem filmu dokumentalnego. Bardziej ogólny program, AlphaZero , pokonał najpotężniejsze programy grające w Go , szachy i shogi (japońskie szachy) po kilku dniach gry przeciwko sobie przy użyciu uczenia ze wzmacnianiem .
domyślna logika
Niemonotoniczny logika zaproponowany przez Raymonda Reiter sformalizować rozumowania z domyślnych założeń.
logika opisu (DL)
Rodzina języków reprezentacji wiedzy formalnej . Wiele DL jest bardziej wyrazistych niż logika zdań, ale mniej wyrazistych niż logika pierwszego rzędu . W przeciwieństwie do tych ostatnich, podstawowe problemy z rozumowaniem dla DL są (zazwyczaj) rozstrzygalne , a skuteczne procedury decyzyjne zostały zaprojektowane i wdrożone dla tych problemów. Istnieją logiki opisów ogólnych, przestrzennych, czasowych, czasoprzestrzennych i rozmytych, a każda logika opisu charakteryzuje się inną równowagą między ekspresywnością DL a złożonością rozumowania dzięki obsłudze różnych zestawów konstruktorów matematycznych.
robotyka rozwojowa (DevRob)

Także robotyka epigenetyczna .

Dziedzina naukowa, której celem jest badanie mechanizmów rozwojowych, architektur i ograniczeń, które umożliwiają uczenie się nowych umiejętności i nowej wiedzy przez całe życie i w sposób otwarty w ucieleśnionych maszynach .
diagnoza
Zajmuje się rozwojem algorytmów i technik, które są w stanie określić, czy zachowanie systemu jest prawidłowe. Jeśli system nie działa poprawnie, algorytm powinien być w stanie jak najdokładniej określić, która część systemu ulega awarii i z jakim rodzajem usterki się boryka. Obliczenia opierają się na obserwacjach , które dostarczają informacji o aktualnym zachowaniu.
system dialogowy

Również agent konwersacyjny ( CA ).

System komputerowy przeznaczony do rozmowy z człowiekiem o spójnej strukturze. Systemy dialogowe wykorzystywały tekst, mowę, grafikę, dotyk, gesty i inne tryby komunikacji zarówno w kanale wejściowym, jak i wyjściowym.
redukcja wymiarowości

Również redukcja wymiarów .

Proces zmniejszania liczby rozważanych zmiennych losowych poprzez uzyskanie zbioru zmiennych głównych. Można go podzielić na selekcję cech i ekstrakcję cech .
dyskretny system
Dowolny system z policzalną liczbą stanów. Systemy dyskretne można przeciwstawić systemom ciągłym, które można również nazwać systemami analogowymi. Ostateczny system dyskretny jest często modelowany za pomocą grafu skierowanego i analizowany pod kątem poprawności i złożoności zgodnie z teorią obliczeniową . Ponieważ układy dyskretne mają policzalną liczbę stanów, mogą być opisywane w precyzyjnych modelach matematycznych . Komputer jest maszyną stanów skończonych , które mogą być postrzegane jako system dyskretnego. Ponieważ komputery są często używane do modelowania nie tylko innych systemów dyskretnych, ale także systemów ciągłych, opracowano metody reprezentacji rzeczywistych systemów ciągłych jako systemów dyskretnych. Jedna z takich metod polega na próbkowaniu ciągłego sygnału w dyskretnych odstępach czasu.
rozproszona sztuczna inteligencja (DAI)

Również zdecentralizowana sztuczna inteligencja .

Poddziedzina badań nad sztuczną inteligencją poświęcona opracowywaniu rozproszonych rozwiązań problemów. DAI jest blisko spokrewniony i poprzednikiem w dziedzinie systemów wieloagentowych .
dynamiczna logika epistemiczna (DEL)
Logiczne ramy dotyczące zmiany wiedzy i informacji. Zazwyczaj DEL koncentruje się na sytuacjach obejmujących wielu agentów i bada, jak zmienia się ich wiedza, gdy pojawiają się zdarzenia .

mi

chętny do nauki
Metoda uczenia, w której system próbuje skonstruować ogólną, niezależną od danych wejściowych funkcję docelową podczas uczenia systemu, w przeciwieństwie do uczenia leniwego , w którym uogólnianie wykraczające poza dane uczące jest opóźnione, dopóki nie zostanie wysłane zapytanie do systemu.
Test Eberta
Test, który ocenia, czy zsyntetyzowany głos komputerowy może opowiedzieć dowcip z wystarczającą umiejętnością, by wywołać u ludzi śmiech . Został on zaproponowany przez krytyka filmowego Rogera Eberta na konferencji TED 2011 jako wyzwanie dla twórców oprogramowania, aby skomputeryzowany głos opanował fleksję, sposób przekazu, synchronizację i intonację mówiącego człowieka. Test jest podobny do testu Turinga zaproponowanego przez Alana Turinga w 1950 roku jako sposób oceny zdolności komputera do wykazywania inteligentnych zachowań poprzez generowanie wydajności nie do odróżnienia od człowieka .
sieć stanu echa (ESN)
Charakterze powtarzającym sieci neuronowej z słabo związanej z ukrytym warstwy (zazwyczaj 1% łączności). Łączność i wagi ukrytych neuronów są stałe i losowo przypisywane. Wagi neuronów wyjściowych można nauczyć, aby sieć mogła (re)produkować określone wzorce czasowe. Głównym zainteresowaniem tej sieci jest to, że chociaż jej zachowanie jest nieliniowe, jedyne wagi, które są modyfikowane podczas uczenia, dotyczą synaps, które łączą ukryte neurony z neuronami wyjściowymi. Zatem funkcja błędu jest kwadratowa w odniesieniu do wektora parametrów i może być łatwo zróżnicowana do układu liniowego.
wcielony agent

Również agent interfejsu .

Inteligentny czynnik , który współdziała z otoczeniem poprzez ciało fizyczne w tym środowisku. Agenci reprezentowani graficznie za pomocą ciała, na przykład człowiek lub zwierzę rysunkowe, są również nazywane agentami wcielonymi, chociaż mają tylko wirtualne, a nie fizyczne ucieleśnienie.
ucieleśniona kognitywistyka
Interdyscyplinarna dziedzina badań, której celem jest wyjaśnienie mechanizmów leżących u podstaw inteligentnych zachowań. Obejmuje trzy główne metodologie: 1) modelowanie systemów psychologicznych i biologicznych w sposób holistyczny, który traktuje umysł i ciało jako jedną całość, 2) tworzenie wspólnego zestawu ogólnych zasad inteligentnego zachowania oraz 3) eksperymentalne stosowanie środków zrobotyzowanych w kontrolowanych środowiskach.
uczenie oparte na błędach
Podobszar uczenia maszynowego dotyczący tego, w jaki sposób agent powinien podejmować działania w środowisku , aby zminimalizować niektóre informacje zwrotne o błędach. Jest to rodzaj uczenia się przez wzmacnianie .
uśrednianie zespołowe
W uczeniu maszynowym , szczególnie w tworzeniu sztucznych sieci neuronowych , uśrednianie zespołowe to proces tworzenia wielu modeli i łączenia ich w celu uzyskania pożądanego wyniku, w przeciwieństwie do tworzenia tylko jednego modelu.
etyka sztucznej inteligencji
Część etyki technologii specyficzna dla sztucznej inteligencji.
algorytm ewolucyjny (EA)
Podzbiór obliczeń ewolucyjnych , ogólny algorytm optymalizacji metaheurystycznej oparty na populacji . EA wykorzystuje mechanizmy inspirowane ewolucją biologiczną , takie jak reprodukcja , mutacja , rekombinacja i selekcja . Kandydaci do rozwiązania problemu optymalizacji pełnią rolę jednostek w populacji, a funkcja dopasowania decyduje o jakości rozwiązań (patrz także funkcja straty ). Ewolucja populacji następuje wtedy po wielokrotnym zastosowaniu powyższych operatorów.
obliczenia ewolucyjne
Rodzina algorytmów do globalnej optymalizacji inspirowana ewolucją biologiczną oraz poddziedziną sztucznej inteligencji i soft computingu badającą te algorytmy. Pod względem technicznym są to rodzina populacyjnych rozwiązań prób i błędów do rozwiązywania problemów o charakterze metaheurystycznym lub stochastycznym .
ewoluująca funkcja klasyfikacji (ECF)
Ewoluujące funkcje klasyfikatorów lub ewoluujące klasyfikatory są używane do klasyfikowania i klastrowania w dziedzinie uczenia maszynowego i sztucznej inteligencji , zwykle wykorzystywanych do zadań eksploracji strumienia danych w dynamicznych i zmieniających się środowiskach.
ryzyko egzystencjalne
Hipoteza, że ​​znaczny postęp w sztucznej ogólnej inteligencji (AGI) może kiedyś doprowadzić do wyginięcia ludzkości lub innej nieodwracalnej globalnej katastrofy .
system ekspercki
System komputerowy, który naśladuje zdolność podejmowania decyzji przez eksperta. Systemy eksperckie są zaprojektowane do rozwiązywania złożonych problemów poprzez rozumowanie za pomocą zasobów wiedzy, reprezentowanych głównie jako reguły, a nie za pomocą konwencjonalnego kodu proceduralnego .

fa

szybkie i oszczędne drzewa
Rodzaj drzewa klasyfikacyjnego . Szybkie i oszczędne drzewa mogą być używane jako narzędzia decyzyjne, które działają jak klasyfikatory leksykograficzne i, jeśli to konieczne, łączą działanie (decyzję) z każdą klasą lub kategorią.
wyodrębnianie cech feature
W uczeniu maszynowym , rozpoznawaniu wzorców i przetwarzaniu obrazów wyodrębnianie cech rozpoczyna się od początkowego zestawu zmierzonych danych i buduje wartości pochodne ( cechy ), które mają być informacyjne i nieredundantne, ułatwiając kolejne etapy uczenia się i uogólniania, a w niektórych przypadkach prowadzące do lepszych ludzkich interpretacji.
funkcja uczenia się
W uczeniu maszynowym uczenie funkcji lub uczenie reprezentacji to zestaw technik, które umożliwiają systemowi automatyczne wykrywanie reprezentacji potrzebnych do wykrywania funkcji lub klasyfikacji na podstawie nieprzetworzonych danych. Zastępuje to ręczną inżynierię funkcji i umożliwia maszynie zarówno poznanie funkcji, jak i wykorzystanie ich do wykonania określonego zadania.
wybór funkcji
W uczeniu maszynowym i statystyce selekcja cech, znana również jako selekcja zmiennych, selekcja atrybutów lub selekcja podzbioru zmiennych, to proces wyboru podzbioru odpowiednich cech (zmiennych, predyktorów) do wykorzystania w konstrukcji modelu.
sfederowane uczenie się
Rodzaj uczenia maszynowego, który pozwala na szkolenie na wielu urządzeniach ze zdecentralizowanymi danymi, pomagając w ten sposób chronić prywatność poszczególnych użytkowników i ich danych.
logika pierwszego rzędu

Znany również jako rachunek predykatów pierwszego rzędu i logika predykatów .

Zbiór systemów formalnych używanych w matematyce , filozofii , językoznawstwie i informatyce . Logika pierwszego rzędu używa zmiennych ilościowych nad obiektami nielogicznymi i pozwala na użycie zdań zawierających zmienne, tak że zamiast zdań, takich jak Sokrates to człowiek, można mieć wyrażenia w postaci „istnieje X takie, że X to Sokrates i X to człowiek” i istnieje kwantyfikator, podczas gdy X jest zmienną. To odróżnia ją od logiki zdań , która nie używa kwantyfikatorów ani relacji.
biegły
Stan, który może się zmieniać w czasie. W logicznym podejściu do rozumowania o działaniach biegle można przedstawić w logice pierwszego rzędu przez predykaty z argumentem zależnym od czasu.
język formalny
Zestaw słów, których litery są wzięte z alfabetu i są dobrze uformowane zgodnie z określonym zestawem reguł.
łańcuch do przodu

Również rozumowanie przyszłościowe .

Jedna z dwóch głównych metod rozumowania przy użyciu silnika wnioskowania i może być logicznie opisana jako wielokrotne stosowanie modus ponens . Wnioskowanie w przód to popularna strategia realizacji systemów eksperckich , biznesu i systemów reguł produkcji . Przeciwieństwem tworzenia łańcucha w przód jest tworzenie łańcucha wstecz . Tworzenie łańcucha do przodu rozpoczyna się od dostępnych danych i wykorzystuje reguły wnioskowania w celu wyodrębnienia większej ilości danych (na przykład od użytkownika końcowego) aż do osiągnięcia celu . Aparat wnioskowania korzystający z łańcucha w przód przeszukuje reguły wnioskowania, dopóki nie znajdzie takiej, w której poprzednik (klauzula If) jest znany jako prawdziwy. Gdy taka reguła zostanie znaleziona, silnik może wywnioskować lub wywnioskować następnik (klauzula Then), co skutkuje dodaniem nowych informacji do swoich danych.
rama
Struktura danych sztucznej inteligencji służąca do dzielenia wiedzy na podstruktury poprzez reprezentowanie „ sytuacji stereotypowych ”. Ramki są podstawową strukturą danych używaną w języku ramek sztucznej inteligencji .
język ramek
Technologia wykorzystywana do reprezentacji wiedzy w sztucznej inteligencji. Ramki są przechowywane jako ontologiach z odbiorników i podzbiorów koncepcji ramy . Są one podobne do hierarchii klas w językach obiektowych, chociaż ich podstawowe cele projektowe są różne. Ramy skupiają się na jawnej i intuicyjnej reprezentacji wiedzy, podczas gdy obiekty skupiają się na hermetyzacji i ukrywaniu informacji . Ramki powstały w badaniach nad sztuczną inteligencją, a obiekty głównie w inżynierii oprogramowania . Jednak w praktyce techniki i możliwości języków ramowych i obiektowych znacznie się pokrywają.
problem z ramką
Problem znalezienia odpowiednich zbiorów aksjomatów dla realnego opisu środowiska robota.
przyjazna sztuczna inteligencja

Również przyjazna AI lub FAI .

Hipotetyczna sztuczna inteligencja ogólna (AGI), która miałaby pozytywny wpływ na ludzkość. Jest to część etyki sztucznej inteligencji i jest ściśle związana z etyką maszyn . Podczas gdy etyka maszyn dotyczy tego, jak powinien zachowywać się sztucznie inteligentny agent, przyjazne badania nad sztuczną inteligencją koncentrują się na tym, jak praktycznie wywołać takie zachowanie i zapewnić jego odpowiednie ograniczenie.
studia przyszłości
Studium postulowania możliwych, prawdopodobnych i preferowanych przyszłości oraz światopoglądów i mitów, które leżą u ich podstaw.
rozmyty system sterowania
System sterowania oparty na logice rozmytej — system matematyczny , który analizuje analogowe wartości wejściowe pod kątem zmiennych logicznych , które przyjmują wartości ciągłe od 0 do 1, w przeciwieństwie do logiki klasycznej lub cyfrowej , która działa na wartościach dyskretnych 1 lub 0 ( prawda lub fałsz).
logika rozmyta
Forma prosta dla logika wielowartościowa , w którym wartości logicznych zmiennych mogą mieć dowolny stopień „ Prawdę ”, które mogą być reprezentowane przez dowolną liczbę rzeczywistą w przedziale pomiędzy 0 (jak w całkowicie fałszywe) i 1 (jak w Completely Prawda) włącznie. W związku z tym jest używany do obsługi koncepcji częściowej prawdy, gdzie wartość prawdy może wahać się od całkowicie prawdziwej do całkowicie fałszywej. W przeciwieństwie do logiki Boolean , gdzie prawdziwe wartości zmiennych mogą mieć tylko wartości całkowite 0 lub 1.
rozmyta reguła
Reguła używana w systemach logiki rozmytej do wywnioskowania danych wyjściowych na podstawie zmiennych wejściowych.
rozmyty zestaw
W klasycznej teorii mnogości przynależność elementów do zbioru jest oceniana w kategoriach binarnych zgodnie z warunkiem dwuwartościowym — element albo należy, albo nie należy do zbioru. Z kolei teoria zbiorów rozmytych pozwala na stopniową ocenę przynależności elementów do zbioru; jest to opisane za pomocą funkcji przynależności o wartości w rzeczywistym przedziale jednostkowym [0, 1]. Zbiory rozmyte uogólniają zbiory klasyczne, ponieważ funkcje wskaźnikowe (inaczej funkcje charakterystyczne ) zbiorów klasycznych są szczególnymi przypadkami funkcji przynależności zbiorów rozmytych, jeśli te ostatnie przyjmują tylko wartości 0 lub 1. W teorii zbiorów rozmytych zwykle nazywa się klasyczne zbiory biwalentne ostre zestawy . Teoria zbiorów rozmytych może być stosowana w wielu dziedzinach, w których informacje są niekompletne lub nieprecyzyjne, takich jak bioinformatyka .

sol

teoria gry
Badanie modeli matematycznych strategicznej interakcji między racjonalnymi decydentami.
ogólna gra w gry (GGP)
Ogólne granie w gry to projektowanie programów sztucznej inteligencji, które umożliwiają pomyślne uruchamianie i granie w więcej niż jedną grę.
generatywna sieć adwersarzy (GAN)
Klasa systemów uczenia maszynowego . Dwie sieci neuronowe rywalizują ze sobą w ramach gry o sumie zerowej .
algorytm genetyczny (GA)
Metaheurystyka zainspirowany procesie doboru naturalnego , który należy do większej klasy algorytmów ewolucyjnych (EA). Algorytmy genetyczne są powszechnie używane do generowania wysokiej jakości rozwiązań problemów optymalizacji i wyszukiwania, opierając się na operatorach inspirowanych biologią, takich jak mutacja , krzyżowanie i selekcja .
operator genetyczny
Operatora stosowane w algorytmach genetycznych prowadzić algorytm do rozwiązania określonego problemu. Istnieją trzy główne typy operatorów ( mutacja , krzyżowanie i selekcja ), które muszą ze sobą współpracować, aby algorytm działał pomyślnie.
optymalizacja roju świetlików
Rój inteligencja optymalizacji algorytm oparty na zachowanie robaczki świętojańskie (znany również jako świetliki lub błędów pioruna).
wykres (abstrakcyjny typ danych)
W informatyce graf jest abstrakcyjnym typem danych, który ma zaimplementować koncepcje grafu nieskierowanego i grafu skierowanego z matematyki ; konkretnie dziedzina teorii grafów .
wykres (matematyka dyskretna)
W matematyce, a dokładniej w teorii grafów , graf jest strukturą będącą zbiorem obiektów, w którym pewne pary obiektów są w pewnym sensie „powiązane”. Obiekty odpowiadają abstrakcjom matematycznym zwanym wierzchołkami (zwanymi również węzłami lub punktami ), a każda z powiązanych par wierzchołków nazywana jest krawędzią (zwaną również łukiem lub linią ).
baza danych wykresów (GDB)
Baza danych , która używa wykres struktury dla semantycznych zapytań z węzłów , krawędzi i właściwości do reprezentowania i przechowywania danych. Kluczową koncepcją systemu jest graf (lub krawędź lub relacja ), który bezpośrednio łączy elementy danych w magazynie zbiór węzłów danych i krawędzi reprezentujących relacje między węzłami. Relacje umożliwiają bezpośrednie łączenie danych w sklepie, a w wielu przypadkach ich pobieranie za pomocą jednej operacji. Grafowe bazy danych mają priorytet relacji między danymi. Wysyłanie zapytań o relacje w bazie danych wykresów jest szybkie, ponieważ są one stale przechowywane w samej bazie danych. Relacje można intuicyjnie wizualizować za pomocą grafowych baz danych, co jest przydatne w przypadku silnie powiązanych ze sobą danych.
teoria grafów
Badanie grafów , które są strukturami matematycznymi używanymi do modelowania relacji parami między obiektami.
przechodzenie przez wykres

Również wyszukiwanie wykresów .

Proces przeglądania (sprawdzania i/lub aktualizacji) każdego wierzchołka na wykresie . Takie przejścia są klasyfikowane według kolejności odwiedzania wierzchołków. Przechodzenie przez drzewo jest szczególnym przypadkiem przechodzenia przez graf.

H

problem z zatrzymaniem
heurystyczny
Technika przeznaczona do szybszego rozwiązywania problemu, gdy metody klasyczne są zbyt wolne, lub do znalezienia przybliżonego rozwiązania, gdy metody klasyczne nie znajdują żadnego dokładnego rozwiązania. Osiąga się to poprzez wymianę optymalności, kompletności, dokładności lub precyzji na szybkość. W pewnym sensie można to uznać za skrót. Funkcja heurystyczna, zwana również po prostu heurystyczną, to funkcja, która szereguje alternatywy w algorytmach wyszukiwania na każdym kroku rozgałęzienia na podstawie dostępnych informacji, aby zdecydować, którą gałąź zastosować. Na przykład może przybliżyć dokładne rozwiązanie.
ukryta warstwa
Wewnętrzna warstwa neuronów w sztucznej sieci neuronowej , nie przeznaczona do wprowadzania lub wyprowadzania.
ukryta jednostka
Neuron w warstwie ukrytej w sztucznej sieci neuronowej .
hiperheurystyczna
Heurystyczne metody wyszukiwania, które ma na celu automatyzację procesu wyboru, łączenie, generowanie lub dostosowujące kilka prostszych heurystyki (lub części składowych takich heurystyki), aby skutecznie rozwiązać problemów obliczeniowych wyszukiwania, często poprzez włączenie Machine Learning technik. Jedną z motywacji do studiowania hiperheurystyki jest budowanie systemów, które mogą poradzić sobie z klasami problemów, a nie rozwiązywać tylko jeden problem.

ja

Towarzystwo Inteligencji Obliczeniowej IEEE
Profesjonalny społeczeństwo z Institute of Electrical and Electronics Engineers (IEEE), koncentrując się na „teorii, projektowania, stosowania i rozwoju biologicznie i językowo motywowane obliczeniowych paradygmaty podkreślając sieci neuronowych , systemów koneksjonistyczne, algorytmy genetyczne , programowanie ewolucyjne , systemy rozmyte, a hybrydowe inteligentne systemy, w których zawarte są te paradygmaty”.
uczenie przyrostowe
Metoda uczenia maszynowego , w której dane wejściowe są stale wykorzystywane do poszerzania wiedzy o istniejącym modelu, tj. do dalszego uczenia modelu. Reprezentuje dynamiczną technikę uczenia nadzorowanego i uczenia nienadzorowanego, którą można zastosować, gdy dane szkoleniowe stają się dostępne stopniowo w czasie lub gdy ich rozmiar przekracza limity pamięci systemowej. Algorytmy, które mogą ułatwić uczenie przyrostowe, są znane jako algorytmy przyrostowego uczenia maszynowego.
silnik wnioskowania
Składnik systemu, który stosuje reguły logiczne do bazy wiedzy w celu wywnioskowania nowych informacji.
integracja informacji (II)
Łączenie informacji z heterogenicznych źródeł o różnych reprezentacjach pojęciowych, kontekstowych i typograficznych. Służy do eksploracji danych i konsolidacji danych z zasobów nieustrukturyzowanych lub częściowo ustrukturyzowanych. Zazwyczaj integracja informacji odnosi się do tekstowych reprezentacji wiedzy, ale czasami jest stosowana do treści multimedialnych . Fuzja informacji, która jest terminem pokrewnym, obejmuje łączenie informacji w nowy zestaw informacji w celu zmniejszenia nadmiarowości i niepewności.
Język przetwarzania informacji (IPL)
Język programowania , który zawiera funkcje przeznaczone do pomocy z programów, które wykonują prostych czynności rozwiązywania problemów, takich jak listy, dynamicznej alokacji pamięci , typów danych , rekurencję , funkcje jak argumenty, prądnic i spółdzielni pracy wielozadaniowej . IPL wymyślił koncepcję przetwarzania list, aczkolwiek w stylu języka asemblera .
wzmocnienie inteligencji (IA)

Także wspomaganie poznawcze , inteligencja rozszerzona maszynowo i inteligencja rozszerzona .

Efektywne wykorzystanie technologii informacyjnych w zwiększaniu inteligencji człowieka .
eksplozja inteligencji
Możliwy wynik budowania przez ludzkość sztucznej inteligencji ogólnej (AGI). AGI byłaby zdolna do rekurencyjnego samodoskonalenia prowadzącego do szybkiego pojawienia się ASI ( sztucznej superinteligencji ), której granice są nieznane w czasach osobliwości technologicznej.
inteligentny agent (IA)
Autonomiczna jednostka, która działa kierując jego aktywność do osiągnięcia celów (to znaczy jest to czynnik ), na w środowisku stosując obserwację za pomocą czujników, i związaną z siłownikami (to znaczy jest inteligentna). Inteligentni agenci mogą również uczyć się lub wykorzystywać wiedzę do osiągania swoich celów. Mogą być bardzo proste lub bardzo złożone .
inteligentna kontrola
Klasa kontroli techniki, które wykorzystują różne sztucznej inteligencji komputerowych zbliża jak sieci neuronowe , prawdopodobieństwo subiektywne , logika rozmyta , uczenia maszynowego , uczenia się zbrojenie , ewolucyjny obliczeń i algorytmów genetycznych .
inteligentny osobisty asystent

Również wirtualny asystent lub osobisty asystent cyfrowy .

Czynnik oprogramowanie , które może wykonywać zadań lub usług dla jednostki opartej na słownych poleceń. Czasami termin „ chatbot ” jest używany w odniesieniu do wirtualnych asystentów ogólnie lub konkretnie dostępnych za pośrednictwem czatu online (lub w niektórych przypadkach programów czatu online, które służą wyłącznie do celów rozrywkowych). Niektórzy wirtualni asystenci potrafią interpretować ludzką mowę i odpowiadać za pomocą syntetycznych głosów. Użytkownicy mogą zadawać pytania swoim asystentom, sterować urządzeniami automatyki domowej i odtwarzaniem multimediów za pomocą głosu oraz zarządzać innymi podstawowymi zadaniami, takimi jak poczta e-mail, listy rzeczy do zrobienia i kalendarze, za pomocą poleceń słownych.
interpretacja
Cesja sens symboli o języku formalnym . Wiele języków formalnych używanych w matematyce , logice i informatyce teoretycznej jest definiowanych wyłącznie za pomocą terminów składniowych i jako takie nie mają żadnego znaczenia, dopóki nie zostaną zinterpretowane. Ogólne studium interpretacji języków formalnych nazywa się semantyką formalną .
wewnętrzna motywacja
Inteligentny czynnik jest wewnętrznie zmotywowany do działania, jeśli treść informacji sam, z doświadczenia wynikającego z działania, jest czynnikiem motywującym. Zawartość informacyjna w tym kontekście jest mierzona w sensie teorii informacji jako kwantyfikacja niepewności. Typową motywacją wewnętrzną jest poszukiwanie nietypowych (zaskakujących) sytuacji, w przeciwieństwie do typowej motywacji zewnętrznej, takiej jak poszukiwanie pożywienia. Wewnętrznie umotywowani sztuczni agenci wykazują zachowania zbliżone do eksploracji i ciekawości .
drzewo problemów

Również drzewo logiczne .

Graficzny podział pytania, który dzieli je pionowo na różne komponenty i przechodzi w szczegóły w miarę czytania po prawej stronie. Drzewa problemów są przydatne w rozwiązywaniu problemów w celu zidentyfikowania pierwotnych przyczyn problemu, a także zidentyfikowania jego potencjalnych rozwiązań. Stanowią również punkt odniesienia, aby zobaczyć, jak każdy element pasuje do całego obrazu problemu.

jot

algorytm drzewa połączeń

Również Clique Tree .

Metoda wykorzystywana w uczeniu maszynowym do wyodrębniania marginalizacji w ogólnych grafach . W istocie polega na przeprowadzeniu propagacji przekonań na zmodyfikowanym grafie zwanym drzewem połączeń . Wykres nazywa się drzewem, ponieważ rozgałęzia się na różne sekcje danych; węzły zmiennych to gałęzie.

K

metoda jądra
W uczeniu maszynowym metody jądra są klasą algorytmów do analizy wzorców , których najbardziej znanym elementem jest maszyna wektorów nośnych (SVM). Ogólnym zadaniem analizy wzorców jest znalezienie i zbadanie ogólnych typów relacji (na przykład klastry , rankingi , główne składowe , korelacje , klasyfikacje ) w zbiorach danych.
KL-ONE
Dobrze znany system reprezentacji wiedzy w tradycji sieci i ram semantycznych ; oznacza to, że jest to język ramowy . System jest próbą przezwyciężenia niewyraźności semantycznej w reprezentacjach sieci semantycznej i jawnego przedstawienia informacji pojęciowych jako uporządkowanej sieci dziedziczenia.
zdobywanie wiedzy
Proces używany do definiowania reguł i ontologii wymaganych dla systemu opartego na wiedzy . Zwrot został po raz pierwszy użyty w połączeniu z systemami eksperckimi opisać początkowe zadania związane z rozwojem systemu eksperckiego, czyli znalezienie i wywiadów domen ekspertów i ich wiedzy poprzez uchwycenie zasad , przedmioty i ramy oparte na ontologii .
system oparty na wiedzy (KBS)
Program komputerowy , który przyczyny i wykorzystuje bazę wiedzy do rozwiązywania złożonych problemów . Termin jest szeroki i odnosi się do wielu różnych rodzajów systemów. Jedynym wspólnym tematem, który łączy wszystkie systemy oparte na wiedzy, jest próba wyraźnego przedstawienia wiedzy i system rozumowania, który pozwala na uzyskanie nowej wiedzy. Zatem system oparty na wiedzy ma dwie wyróżniające cechy: bazę wiedzy i silnik wnioskowania .
inżynieria wiedzy (KE)
Wszystkie techniczne, naukowe i społeczne aspekty związane z budowaniem, utrzymywaniem i użytkowaniem systemów opartych na wiedzy .
wydobywanie wiedzy
Tworzenie wiedzy ze źródeł ustrukturyzowanych ( relacyjne bazy danych , XML ) i nieustrukturyzowanych ( tekst , dokumenty, obrazy ). Uzyskana wiedza musi być w formacie możliwym do odczytania i interpretacji maszynowej oraz musi reprezentować wiedzę w sposób ułatwiający wnioskowanie. Chociaż jest metodycznie podobny do ekstrakcji informacji ( NLP ) i ETL (hurtownia danych), głównym kryterium jest to, że wynik ekstrakcji wykracza poza tworzenie ustrukturyzowanej informacji lub transformację w schemat relacyjny . Wymaga ponownego wykorzystania istniejącej wiedzy formalnej (ponowne wykorzystanie identyfikatorów lub ontologii ) lub wygenerowania schematu na podstawie danych źródłowych.
format wymiany wiedzy (KIF)
Język komputerowy zaprojektowany w celu umożliwienia systemom udostępniania i ponownego wykorzystywania informacji z systemów opartych na wiedzy . KIF jest podobny do języków ramowych, takich jak KL-ONE i LOOM, ale w przeciwieństwie do takich języków, jego podstawową rolą nie jest tworzenie ram dla wyrażania lub wykorzystywania wiedzy, ale raczej wymiana wiedzy między systemami. Projektanci KIF porównali go do PostScriptu . PostScript nie został zaprojektowany przede wszystkim jako język do przechowywania i manipulowania dokumentami, ale raczej jako format wymiany dla systemów i urządzeń do udostępniania dokumentów. W ten sam sposób KIF ma ułatwiać dzielenie się wiedzą między różnymi systemami, które wykorzystują różne języki, formalizmy, platformy itp.
<dt class="glossary " id=" reprezentacja wiedzy i rozumowanie (kr 2 lub kr&r)" style="margin-top: 0.4em;"> reprezentacja wiedzy i rozumowanie (KR 2 lub KR&R)
Dziedzina sztucznej inteligencji dedykowana do przedstawiania informacji o świecie w formie, którą system komputerowy może wykorzystać do rozwiązywania złożonych zadań, takich jak diagnozowanie stanu zdrowia lub prowadzenie dialogu w języku naturalnym . Reprezentacja wiedzy obejmuje odkrycia psychologii dotyczące tego, jak ludzie rozwiązują problemy i reprezentują wiedzę w celu projektowania formalizmów, które ułatwią projektowanie i budowanie złożonych systemów. Reprezentacja wiedzy i rozumowanie obejmuje również wnioski z logiki w celu zautomatyzowania różnych rodzajów rozumowania , takich jak stosowanie reguł lub relacje zbiorów i podzbiorów . Przykłady formalizmów reprezentacji wiedzy obejmują sieci semantyczne , architekturę systemów , ramy , reguły i ontologie . Przykłady automatycznych silników wnioskowania obejmują silniki wnioskowania , dowodzenia twierdzeń i klasyfikatory.

L

leniwa nauka
W uczeniu maszynowym leniwe uczenie jest metodą uczenia, w której uogólnienie danych uczących jest teoretycznie opóźnione do momentu wysłania zapytania do systemu, w przeciwieństwie do uczenia z zapałem , w którym system próbuje uogólnić dane uczące przed otrzymaniem zapytania.
Lisp (język programowania) (LISP)
Rodzina języków programowania z długą historią i charakterystyczną, w pełni nawiasową notacją prefiksową .
programowanie logiczne
Rodzaj paradygmatu programowania, który w dużej mierze opiera się na logice formalnej . Każdy program napisany w języku programowania logicznego jest zbiorem zdań w formie logicznej, wyrażających fakty i reguły dotyczące pewnej dziedziny problemowej. Główne rodziny języków programowania logicznego to Prolog , programowanie zestawu odpowiedzi (ASP) i Datalog .
pamięć krótkotrwała długotrwała (LSTM)
Sztuczna rekurencyjna architektura sieci neuronowej wykorzystywana w dziedzinie głębokiego uczenia . W przeciwieństwie do standardowych sieci neuronowych ze sprzężeniem do przodu, LSTM ma połączenia sprzężenia zwrotnego, które czynią go „komputerem ogólnego przeznaczenia” (czyli może obliczyć wszystko, co potrafi maszyna Turinga ). Może przetwarzać nie tylko pojedyncze punkty danych (takie jak obrazy), ale także całe sekwencje danych (takie jak mowa lub wideo).

M

wizja maszynowa (MV)
Technologia i metody wykorzystywane do zapewniania automatycznej kontroli i analizy opartej na obrazowaniu do takich zastosowań, jak kontrola automatyczna, sterowanie procesem i prowadzenie robota, zwykle w przemyśle. Wizja maszynowa to termin obejmujący dużą liczbę technologii, oprogramowania i produktów sprzętowych, zintegrowanych systemów, działań, metod i wiedzy. Wizję maszynową jako dyscyplinę inżynierii systemów można uznać za odrębną od wizji komputerowej , formy informatyki . Stara się integrować istniejące technologie na nowe sposoby i stosować je do rozwiązywania rzeczywistych problemów. Termin ten jest powszechny dla tych funkcji w środowiskach automatyki przemysłowej, ale jest również używany dla tych funkcji w innych środowiskach, takich jak bezpieczeństwo i prowadzenie pojazdu.
Łańcuch Markowa
Stochastyczny model opisujący sekwencję możliwych zdarzeń, w których prawdopodobieństwo każdego zdarzenia zależy jedynie od stanu osiągniętego w poprzednim przypadku.
Proces decyzyjny Markowa (MDP)
Dyskretnego czasu stochastyczny sterowania procesem. Zapewnia matematyczne ramy do modelowania podejmowania decyzji w sytuacjach, w których wyniki są częściowo losowe, a częściowo pod kontrolą decydenta. MDP są przydatne do badania problemów optymalizacyjnych rozwiązywanych za pomocą programowania dynamicznego i uczenia ze wzmacnianiem .
optymalizacja matematyczna

Również programowanie matematyczne .

W matematyce , informatyce i badaniach operacyjnych wybór najlepszego elementu (z uwzględnieniem pewnego kryterium) z pewnego zestawu dostępnych alternatyw.
uczenie maszynowe (ML)
Badania naukowe z algorytmów i modeli statystycznych , które systemy komputerowe wykorzystują w celu wykonania zadania konkretnego skutecznie bez użycia wyraźne instrukcje, opierając się na wzorach i wnioskowania zamiast.
nasłuchiwanie maszyn

Również przesłuchanie komputerowe ( CA ).

Ogólna dziedzina badań algorytmów i systemów do rozumienia dźwięku przez maszynę.
percepcja maszyny
Zdolność systemu komputerowego do interpretowania danych w sposób podobny do sposobu, w jaki ludzie używają swoich zmysłów do odnoszenia się do otaczającego ich świata.
konstrukcja mechanizmu
Dziedzina ekonomii i teorii gier, która przyjmuje inżynierskie podejście do projektowania mechanizmów ekonomicznych lub zachęt , w kierunku pożądanych celów, w strategicznych warunkach , w których gracze działają racjonalnie . Ponieważ zaczyna się na końcu gry, a następnie cofa się, nazywana jest również teorią gier odwrotnych. Ma szerokie zastosowania, od ekonomii i polityki (rynki, aukcje, procedury głosowania) do systemów sieciowych (internetowy routing międzydomenowy, sponsorowane aukcje wyszukiwania).
mechatronika

Również inżynieria mechatroniczna .

Multidyscyplinarny gałąź inżynierii, która koncentruje się na inżynierii zarówno elektrycznych i systemów mechanicznych , a także zawiera kombinację robotyki , elektroniki , komputer , telekomunikacji , systemów , kontroli i produktów inżynierii.
rekonstrukcja i symulacja sieci metabolicznych
Pozwala na dogłębny wgląd w mechanizmy molekularne konkretnego organizmu. W szczególności modele te korelują genom z fizjologią molekularną.
metaheurystyka
W informatyce i optymalizacji matematycznej metaheurystyka to procedura lub heurystyka wyższego poziomu zaprojektowana w celu znalezienia, wygenerowania lub wybrania heurystyki ( algorytm wyszukiwania częściowego ), która może zapewnić wystarczająco dobre rozwiązanie problemu optymalizacji , zwłaszcza w przypadku niepełnych lub niedoskonałych informacji lub ograniczona zdolność obliczeniowa. Metaheurystyka próbkuje zestaw rozwiązań, który jest zbyt duży, aby można go było całkowicie próbkować.
sprawdzanie modelu
W informatyce sprawdzanie modelu lub sprawdzanie właściwości polega dla danego modelu systemu na wyczerpującym i automatycznym sprawdzeniu, czy model ten spełnia określoną specyfikację . Zazwyczaj mamy na myśli systemy sprzętowe lub programowe, podczas gdy specyfikacja zawiera wymagania dotyczące bezpieczeństwa, takie jak brak zakleszczeń i podobnych stanów krytycznych, które mogą spowodować awarię systemu . Sprawdzanie modelu to technika automatycznej weryfikacji właściwości poprawności systemów skończonych .
modus ponens
W rachunku zdań , ponens modus jest regułą wnioskowania . Można to podsumować w następujący sposób: „ P oznacza, że Q i P jest prawdziwe, dlatego Q musi być prawdziwe”.
modus tollens
W rachunku zdań , Tollens modus jest ważna forma argumentu a reguła wnioskowania . Jest to zastosowanie ogólnej prawdy, że jeśli zdanie jest prawdziwe, to jest ono również przeciwstawne . Zasada wnioskowania modus tollens zakłada, że wnioskowanie z P implikuje Q do negacji Q implikuje, że negacja P jest ważna.
W informatyce przeszukiwanie drzewa Monte Carlo (MCTS) jest heurystycznym algorytmem przeszukiwania niektórych rodzajów procesów decyzyjnych .
system wieloagentowy (MAS)

Również samoorganizujący się system .

Skomputeryzowany system składający się z wielu oddziałujących na siebie inteligentnych agentów . Systemy wieloagentowe mogą rozwiązywać problemy, które są trudne lub niemożliwe do rozwiązania dla pojedynczego agenta lub systemu monolitycznego . Inteligencja może obejmować podejścia metodyczne , funkcjonalne , proceduralne , wyszukiwanie algorytmiczne lub uczenie się ze wzmocnieniem .
optymalizacja wielu rojów
Wariant optymalizacji roju cząstek (PSO) oparty na wykorzystaniu wielu podrojów zamiast jednego (standardowego) roju. Ogólne podejście w optymalizacji wielu rojów polega na tym, że każdy podrój koncentruje się na określonym regionie, podczas gdy konkretna metoda dywersyfikacji decyduje, gdzie i kiedy uruchomić podroje. Rama multi-swarm jest szczególnie dostosowana do optymalizacji problemów multimodalnych, w których istnieje wiele (lokalnych) optimów.
mutacja
Operatora genetycznej stosowane w celu utrzymania zróżnicowania genetycznego od jednej generacji populacji algorytm genetyczny chromosomów do następnego. Jest to analogiczne do mutacji biologicznej . Mutacja zmienia jedną lub więcej wartości genu w chromosomie ze stanu początkowego. W mutacji rozwiązanie może się całkowicie zmienić w stosunku do poprzedniego rozwiązania. W związku z tym GA może znaleźć lepsze rozwiązanie za pomocą mutacji. Mutacja występuje podczas ewolucji zgodnie z prawdopodobieństwem mutacji definiowanym przez użytkownika. Prawdopodobieństwo to powinno być ustawione na niskim poziomie. Jeśli jest ustawiony zbyt wysoko, wyszukiwanie zmieni się w prymitywne wyszukiwanie losowe.
Mycin
Wczesny system ekspercki z łańcuchem wstecznym , który wykorzystywał sztuczną inteligencję do identyfikacji bakterii powodujących poważne infekcje, takie jak bakteriemia i zapalenie opon mózgowo - rdzeniowych , oraz do zalecania antybiotyków , z dawkowaniem dostosowanym do masy ciała pacjenta – nazwa pochodzi od samych antybiotyków, ponieważ wiele antybiotyków ma przyrostek „-mycyna”. System MYCIN został również wykorzystany do diagnozy chorób krzepnięcia krwi.

N

naiwny klasyfikator Bayesa
W uczeniu maszynowym naiwne klasyfikatory Bayesa są rodziną prostych klasyfikatorów probabilistycznych opartych na zastosowaniu twierdzenia Bayesa z silnymi (naiwnymi) założeniami niezależności między cechami.
naiwna semantyka
Podejście stosowane w informatyce do przedstawiania podstawowej wiedzy o określonej dziedzinie i było wykorzystywane w aplikacjach takich jak reprezentacja znaczenia zdań języka naturalnego w aplikacjach sztucznej inteligencji. W ogólnym kontekście termin ten był używany w odniesieniu do wykorzystania ograniczonego zasobu ogólnie rozumianej wiedzy na temat określonej domeny na świecie i został zastosowany w takich dziedzinach, jak projektowanie schematów danych oparte na wiedzy.
wiązanie nazwy
W językach programowania wiązanie nazw to powiązanie encji (danych i/lub kodu) z identyfikatorami . Mówi się, że identyfikator powiązany z obiektem odwołuje się do tego obiektu. Języki maszynowe nie mają wbudowanego pojęcia identyfikatorów, ale powiązania nazwa-obiekt jako usługa i notacja dla programisty są implementowane przez języki programowania. Wiązanie jest ściśle związane ze scopingiem , ponieważ zakres określa, które nazwy wiążą się z jakimi obiektami – w jakich miejscach w kodzie programu ( leksykalnie ) iw której z możliwych ścieżek wykonania ( czasowo ). Użycie identyfikatora idw kontekście, który ustanawia powiązanie dla, idnazywa się wystąpieniem powiązania (lub zdefiniowaniem). We wszystkich innych wystąpieniach (np. w wyrażeniach, przypisaniach i wywołaniach podprogramów) identyfikator oznacza to, z czym jest związany; takie wystąpienia są nazywane wystąpieniami zastosowanymi.
Rozpoznawanie nazwanych podmiotów (NER)

Również identyfikacja podmiotu , podmiot dzielenie na porcje , a wydobycie podmiot .

Podzadanie wyodrębniania informacji, które ma na celu zlokalizowanie i sklasyfikowanie wzmianek o nazwanych podmiotach w nieustrukturyzowanym tekście do wstępnie zdefiniowanych kategorii, takich jak nazwiska osób, organizacje, lokalizacje, kody medyczne , wyrażenia czasowe, ilości, wartości pieniężne, procenty itp.
nazwany wykres
Kluczowa koncepcja architektury sieci semantycznej, w której zestaw instrukcji Resource Description Framework ( graf ) jest identyfikowany przy użyciu identyfikatora URI , co pozwala na tworzenie opisów tego zestawu instrukcji, takich jak kontekst, informacje o pochodzeniu lub inne tego typu metadane . Nazwane wykresy są prostym rozszerzeniem modelu danych RDF, za pomocą którego można tworzyć wykresy, ale w modelu brakuje skutecznych środków umożliwiających ich rozróżnienie po opublikowaniu ich w sieci .
generowanie języka naturalnego (NLG)
Proces oprogramowania, który przekształca uporządkowane dane w treść w języku angielskim. Może być używany do tworzenia długich treści dla organizacji w celu automatyzacji niestandardowych raportów, a także tworzenia niestandardowych treści dla aplikacji internetowych lub mobilnych. Może być również używany do generowania krótkich notek tekstowych w interaktywnych rozmowach ( chatbot ), które mogą być nawet odczytywane na głos przez system zamiany tekstu na mowę .
przetwarzanie języka naturalnego (NLP)
Poddziedzina informatyki, inżynierii informacji i sztucznej inteligencji zajmująca się interakcjami między komputerami a ludzkimi językami (naturalnymi), w szczególności sposobem programowania komputerów do przetwarzania i analizowania dużych ilości danych w języku naturalnym .
programowanie w języku naturalnym
Ontologia -assisted sposób programowania pod względem przyrodniczo-językowych zdań, np angielskim .
motyw sieci
Wszystkie sieci, w tym sieci biologiczne, sieci społecznościowe, sieci technologiczne (np. sieci komputerowe i obwody elektryczne) i inne, mogą być reprezentowane jako grafy , które zawierają szeroką gamę podgrafów. Ważną lokalną właściwością sieci są tak zwane motywy sieciowe, które definiuje się jako powtarzające się i statystycznie istotne podgrafy lub wzorce.
neuronowe tłumaczenie maszynowe (NMT)
Podejście do tłumaczenia maszynowego, które wykorzystuje dużą sztuczną sieć neuronową do przewidywania prawdopodobieństwa wystąpienia sekwencji słów, zazwyczaj modelując całe zdania w jednym zintegrowanym modelu.
neuronowa maszyna Turinga (NTM)
Charakterze powtarzającym sieć neuronowa modelu. NTM łączą możliwości sieci neuronowych w zakresie rozmytego dopasowywania wzorców z mocą algorytmiczną programowalnych komputerów . NTM ma kontroler sieci neuronowej połączony z zewnętrznymi zasobami pamięci , z którymi współdziała poprzez mechanizmy uwagi. Interakcje pamięciowe są różniczkowalne end-to-end, co umożliwia ich optymalizację za pomocą gradientu . NTM z kontrolerem sieciowym z pamięcią długo-krótkoterminową (LSTM) może wywnioskować proste algorytmy, takie jak kopiowanie, sortowanie i przywoływanie asocjacyjne na podstawie samych przykładów.
neuro-rozmyty
Kombinacje sztucznych sieci neuronowych i logiki rozmytej .
neurocybernetyka

Również interfejs mózg-komputer ( BCI ), interfejs neuronowo-kontrolny ( NCI ), interfejs umysł-maszyna ( MMI ), bezpośredni interfejs neuronowy ( DNI ) lub interfejs mózg-maszyna ( BMI ).

Bezpośrednia ścieżka komunikacji między ulepszonym lub przewodowym mózgiem a urządzeniem zewnętrznym. BCI różni się od neuromodulacji tym, że umożliwia dwukierunkowy przepływ informacji. BCI są często ukierunkowane na badanie, mapowanie, wspomaganie, wzmacnianie lub naprawę ludzkich funkcji poznawczych lub czuciowo-motorycznych.
inżynieria neuromorficzna

Również obliczenia neuromorficzne .

Koncepcja opisująca zastosowanie systemów integracji o bardzo dużej skali (VLSI) zawierających elektroniczne obwody analogowe do naśladowania architektur neurobiologicznych obecnych w układzie nerwowym. W ostatnim czasie termin neuromorficzny był używany do opisywania analogowych, cyfrowych, analogowych/cyfrowych systemów VLSI pracujących w trybie mieszanym oraz systemów oprogramowania, które implementują modele systemów neuronowych (do percepcji , kontroli motorycznej lub integracji wielozmysłowej ). Implementację obliczeń neuromorficznych na poziomie sprzętowym można zrealizować za pomocą memrystorów tlenkowych , pamięci spintronicznych, przełączników progowych i tranzystorów .
węzeł
Podstawowa jednostka struktury danych , taka jak połączona lista lub struktura danych drzewa . Węzły zawierają dane, a także mogą łączyć się z innymi węzłami. Łącza między węzłami są często implementowane przez wskaźniki .
algorytm niedeterministyczny
Algorytm , że nawet dla tego samego wejścia, mogą wykazywać różne zachowania w różnych seriach, w przeciwieństwie do algorytmu deterministycznego .
nowy AI
Nouvelle AI różni się od klasycznej AI tym , że dąży do produkcji robotów o poziomie inteligencji podobnym do owadów. Naukowcy uważają, że inteligencja może wyłonić się organicznie z prostych zachowań, gdy te inteligencje wchodzą w interakcję z „rzeczywistym światem”, zamiast używać skonstruowanych światów, które symboliczne AI zwykle musiały w nich zaprogramować.
NP
W teorii złożoności obliczeniowej NP (niedeterministyczny czas wielomianowy) jest klasą złożoności używaną do klasyfikowania problemów decyzyjnych . NP jest zbiorem problemów decyzyjnych, dla których instancje problemowe , gdzie odpowiedź brzmi „tak”, mają dowody weryfikowalne w czasie wielomianowym .
NP-zupełność
W teorii złożoności obliczeniowej problem jest NP-zupełny, gdy można go rozwiązać za pomocą ograniczonej klasy algorytmów wyszukiwania brute force i można go użyć do symulacji dowolnego innego problemu za pomocą podobnego algorytmu. Dokładniej, każde dane wejściowe do problemu powinny być powiązane ze zbiorem rozwiązań o długości wielomianu, których ważność można szybko przetestować (w czasie wielomianowym ), tak że wyjściem dla dowolnego wejścia jest „tak”, jeśli zbiór rozwiązań nie jest pusty i „nie”, jeśli jest pusty.
NP-twardość

Również niedeterministyczna twardość wielomianowa w czasie .

W teorii złożoności obliczeniowej , właściwość określająca klasę problemów, które nieformalnie są „co najmniej tak trudne, jak najtrudniejsze problemy w NP”. Prostym przykładem problemu NP-trudnego jest problem sum podzbiorów .

O

Brzytwa Ockhama

Również brzytwa Ockhama czy brzytwa Ochama .

Zasada rozwiązywania problemów, która mówi, że w przypadku konkurujących hipotez, które zawierają te same przewidywania, należy wybrać rozwiązanie z najmniejszą liczbą założeń; zasada ta nie ma na celu odfiltrowania hipotez, które dają różne przewidywania. Pomysł jest nadana angielski franciszkanin brata William Ockham ( c. 1287-1347), A Scholastic filozof i teolog .
nauka offline
uczenie maszynowe online
Metoda uczenia maszynowego, w której dane stają się dostępne w kolejności sekwencyjnej i służą do aktualizowania najlepszego predyktora dla przyszłych danych na każdym kroku, w przeciwieństwie do technik uczenia wsadowego, które generują najlepszy predyktor poprzez uczenie się na całym zbiorze danych szkoleniowych jednocześnie . Nauka online jest powszechną techniką stosowaną w obszarach uczenia maszynowego, w których obliczeniowo niemożliwe jest trenowanie na całym zbiorze danych, co wymaga użycia algorytmów spoza rdzenia . Wykorzystywany jest również w sytuacjach, gdy konieczne jest dynamiczne dostosowywanie się algorytmu do nowych wzorców w danych lub gdy same dane są generowane w funkcji czasu.
nauka ontologii

Również ontologia ekstrakcji , ontologia generacji lub ontologia nabycia .

Automatyczne lub półautomatyczne tworzenie ontologii , w tym wyodrębnianie odpowiednich terminów domeny i relacji między pojęciami, które te terminy reprezentują z korpusu tekstu w języku naturalnym, oraz kodowanie ich za pomocą języka ontologicznego w celu łatwego wyszukiwania.
Otwórz AI
Korporacja nastawiona na zysk OpenAI LP, której organizacją macierzystą jest organizacja non-profit OpenAI Inc, która prowadzi badania w dziedzinie sztucznej inteligencji (AI) z deklarowanym celem promowania i rozwijania przyjaznej sztucznej inteligencji w sposób z korzyścią dla ludzkości, m.in. cały.
OpenCog
Projekt, którego celem jest zbudowanie platformy sztucznej inteligencji typu open source . OpenCog Prime to architektura dla robota i wirtualnego ucieleśnionego poznania, która definiuje zestaw oddziałujących na siebie komponentów zaprojektowanych w celu stworzenia sztucznej inteligencji ogólnej (AGI) odpowiadającej człowiekowi jako wyłaniającemu się zjawisku całego systemu.
Otwarty umysł, zdrowy rozsądek
Projekt dotyczący sztucznej inteligencji realizowany w laboratorium medialnym Massachusetts Institute of Technology (MIT), którego celem jest zbudowanie i wykorzystanie dużej zdroworozsądkowej bazy wiedzy na podstawie wkładu wielu tysięcy osób w sieci.
oprogramowanie open source (OSS)
Rodzaj oprogramowania komputerowego, w którym kod źródłowy jest udostępniany na podstawie licencji, w której właściciel praw autorskich przyznaje użytkownikom prawa do studiowania, zmieniania i rozpowszechniania oprogramowania każdemu i w dowolnym celu. Oprogramowanie typu open source może być opracowywane we współpracy publicznej . Oprogramowanie typu open source jest wybitnym przykładem otwartej współpracy .

P

częściowa redukcja zamówienia
Technika zmniejszania rozmiaru przestrzeni stanów, która ma być przeszukiwana przez sprawdzanie modelu lub algorytm automatycznego planowania i harmonogramowania . Wykorzystuje przemienność współbieżnie wykonywanych przejść , które powodują ten sam stan, gdy są wykonywane w różnych kolejnościach.
częściowo obserwowalny proces decyzyjny Markowa (POMDP)
Uogólnienie procesu decyzyjnego Markowa (MDP). POMDP modeluje proces decyzyjny agenta, w którym zakłada się, że dynamika systemu jest określana przez MDP, ale agent nie może bezpośrednio obserwować stanu bazowego. Zamiast tego musi zachować rozkład prawdopodobieństwa w zbiorze możliwych stanów, w oparciu o zbiór obserwacji i prawdopodobieństw obserwacji oraz bazowy MDP.
optymalizacja roju cząstek (PSO)
Metoda obliczeniowa, która optymalizuje problem poprzez iteracyjne próby poprawy potencjalnego rozwiązania w odniesieniu do danej miary jakości. Rozwiązuje problem, mając populację potencjalnych rozwiązań, tutaj nazwanych cząstkami , i przesuwając te cząstki w przestrzeni poszukiwań zgodnie z prostymi wzorami matematycznymi nad położeniem i prędkością cząstki. Na ruch każdej cząstki wpływa jej najlepiej znana lokalna pozycja, ale jest ona również kierowana w kierunku najbardziej znanych pozycji w przestrzeni poszukiwań, które są aktualizowane w miarę znajdowania lepszych pozycji przez inne cząstki. Oczekuje się, że przesunie to rój w kierunku najlepszych rozwiązań.
Znalezienie drogi

Również ścieżki .

Wykreślenie za pomocą aplikacji komputerowej najkrótszej drogi między dwoma punktami. Jest to bardziej praktyczny wariant rozwiązywania labiryntów . Ta dziedzina badań opiera się w dużej mierze na algorytmie Dijkstry do znajdowania najkrótszej ścieżki na grafie ważonym .
rozpoznawanie wzorców
Zajmuje się automatycznym wykrywaniem prawidłowości w danych za pomocą algorytmów komputerowych i wykorzystaniem tych prawidłowości do podejmowania działań, takich jak klasyfikowanie danych do różnych kategorii.
Logika predykatów

Również pierwszego rzędu logika , predykat logika i pierwszego rzędu predykatów .

Zbiór systemów formalnych używanych w matematyce , filozofii , językoznawstwie i informatyce . Logika pierwszego rzędu używa zmiennych ilościowych nad obiektami nielogicznymi i pozwala na użycie zdań zawierających zmienne, tak że zamiast zdań takich jak Sokrates to człowiek, można mieć wyrażenia w postaci „istnieje x takie, że x jest Sokratesem i x jest człowiekiem” i istnieje kwantyfikator, podczas gdy x jest zmienną. To odróżnia ją od logiki zdań , która nie używa kwantyfikatorów ani relacji ; w tym sensie logika zdań jest podstawą logiki pierwszego rzędu.
analityka predykcyjna
Różnorodne techniki statystyczne, takie jak eksploracja danych , modelowanie predykcyjne i uczenie maszynowe , które analizują bieżące i historyczne fakty w celu przewidywania przyszłych lub nieznanych zdarzeń.
analiza głównych składowych (PCA)
Procedura statystyczna, która wykorzystuje transformację ortogonalną do przekształcenia zbioru obserwacji możliwie skorelowanych zmiennych (jednostki, z których każda przyjmuje różne wartości liczbowe) na zbiór wartości liniowo nieskorelowanych zmiennych, zwanych składowymi głównymi. Transformacja ta jest zdefiniowana w taki sposób, że pierwszy główny składnik ma największą możliwą wariancję (to znaczy odpowiada za jak największą zmienność danych), a każdy kolejny składnik z kolei ma najwyższą możliwą wariancję w ramach ograniczenie, że jest prostopadłe do poprzednich komponentów. Otrzymane wektory (każdy będący kombinacją liniową zmiennych i zawierający n obserwacji) są nieskorelowanym ortogonalnym zbiorem bazowym . PCA jest wrażliwy na względne skalowanie oryginalnych zmiennych.
zasada racjonalności

Także zasada racjonalności .

Zasada ukuta przez Karla R. Poppera w jego Harvard Lecture z 1963 roku i opublikowana w jego książce Myth of Framework . Wiąże się to z tym, co nazwał „logiką sytuacji” w artykule Economica z lat 1944/45, opublikowanym później w jego książce The Poverty of Historicism . Zgodnie z zasadą racjonalności Poppera, agenci działają w sposób najbardziej adekwatny do obiektywnej sytuacji. Jest to wyidealizowana koncepcja ludzkiego zachowania, którą kierował swoim modelem analizy sytuacyjnej .
programowanie probabilistyczne (PP)
Paradygmat programowania , w którym modele probabilistyczne są określone i wnioskowanie do tych modeli odbywa się automatycznie. Stanowi próbę ujednolicenia modelowania probabilistycznego i tradycyjnego programowania ogólnego przeznaczenia w celu ułatwienia i szerszego zastosowania tego pierwszego. Może służyć do tworzenia systemów, które pomagają podejmować decyzje w obliczu niepewności. Języki programowania używane do programowania probabilistycznego są określane jako „języki programowania probabilistycznego” (PPL).
system produkcji
język programowania
Formalny język , który zawiera zestaw instrukcji , które produkują różnego rodzaju wyjścia . Języki programowania są używane w programowaniu komputerowym do implementacji algorytmów .
Prolog
Programowanie logika język związane ze sztuczną inteligencją i lingwistyki . Prolog ma swoje korzenie w logice pierwszego rzędu , a logiki formalnej , w odróżnieniu od wielu innych językach programowania , Prolog jest przeznaczony przede wszystkim jako deklaratywny język programowania: program logiczny jest wyrażony w stosunkach, reprezentowana jako faktów i zasad . Obliczenie jest inicjowane przez uruchomienie zapytania w tych relacjach.
rachunek zdań

Również zdaniowa logika , logika rachunek , rachunek zdań , zdań logiki i klasyczny rachunek zdań .

Gałąź logiki zajmująca się zdaniami (które mogą być prawdziwe lub fałszywe) i przepływem argumentów. Zdania złożone są tworzone przez łączenie zdań spójnikami logicznymi . Zdania bez spójników logicznych nazywamy zdaniami atomowymi. W przeciwieństwie do logiki pierwszego rzędu, logika zdaniowa nie zajmuje się obiektami nielogicznymi, predykatami na ich temat ani kwantyfikatorami. Jednak cała machina logiki zdań zawarta jest w logice pierwszego rzędu i logice wyższego rzędu. W tym sensie logika zdań jest podstawą logiki pierwszego rzędu i logiki wyższego rzędu.
Pyton
Interpretować , wysokiego poziomu , ogólnego przeznaczenia, język programowania stworzony przez Guido van Rossum i po raz pierwszy wydany w 1991 roku filozofii projektowania Pythona podkreśla czytelności kodu z zauważalną wykorzystania znacznej spacji . Jego konstrukcje językowe i podejście obiektowe mają na celu pomóc programistom w pisaniu przejrzystego, logicznego kodu dla małych i dużych projektów.

Q

problem kwalifikacyjny
W filozofii i sztucznej inteligencji (zwłaszcza systemów opartych na wiedzy ), kwalifikacja Problem dotyczy niemożności wymieniając wszystkie z warunków wymaganych do działania w świecie rzeczywistym, aby mieć swój zamierzony efekt. Mogłoby to być przedstawiane jako sposób radzenia sobie z rzeczami, które uniemożliwiają mi osiągnięcie zamierzonego rezultatu . Jest silnie połączone i naprzeciwko strony rozgałęzienia z, na błąd ramki .
kwantyfikator
W logice kwantyfikacja określa ilość okazów w domenie dyskursu, które spełniają otwartą formułę . Dwa najczęstsze kwantyfikatory oznaczają „ dla wszystkich ” i „ istnieje ”. Na przykład w arytmetyce kwantyfikatory pozwalają powiedzieć, że liczby naturalne trwają w nieskończoność, pisząc, że dla wszystkich n (gdzie n jest liczbą naturalną), istnieje inna liczba (powiedzmy, następczyni n), która jest o jedną większa niż n.
obliczenia kwantowe
Wykorzystanie zjawisk kwantowo-mechanicznych , takich jak superpozycja i splątanie, do wykonywania obliczeń . Do wykonania takich obliczeń wykorzystywany jest komputer kwantowy, który można zaimplementować teoretycznie lub fizycznie.
język zapytań
Języki zapytań lub języki zapytań o dane (DQL) to języki komputerowe używane do tworzenia zapytań w bazach danych i systemach informatycznych . Ogólnie rzecz biorąc, języki zapytań można klasyfikować według tego, czy są to języki zapytań bazy danych, czy języki zapytań wyszukiwania informacji . Różnica polega na tym, że język zapytań do bazy danych próbuje udzielać faktycznych odpowiedzi na pytania dotyczące faktów, podczas gdy język zapytań do wyszukiwania informacji próbuje znaleźć dokumenty zawierające informacje istotne dla badanego obszaru.

R

Język programowania R
Język programowania i wolne oprogramowanie środowisko do obliczeń statystycznych i grafiki wspierany przez Fundację R dla statystycznego Computing. Język R jest powszechnie używany wśród statystyków i eksploratorów danych do tworzenia oprogramowania statystycznego i analizy danych .
promieniowa sieć funkcji bazowych
W dziedzinie modelowania matematycznego sieć radialnych funkcji bazowych jest sztuczną siecią neuronową, która wykorzystuje radialne funkcje bazowe jako funkcje aktywacji . Wyjście sieci jest liniową kombinacją radialnych funkcji bazowych wejść i parametrów neuronu. Sieci funkcji radialnych mają wiele zastosowań, w tym aproksymację funkcji , przewidywanie szeregów czasowych , klasyfikację i sterowanie systemem . Zostały one po raz pierwszy sformułowane w pracy z 1988 roku przez Broomheada i Lowe'a, badaczy z Royal Signals and Radar Establishment .
losowy las

Również las o losowej decyzji .

Zespół uczenia metoda klasyfikacji , regresji i innych zadań, które działa przy konstruowaniu wiele drzew decyzyjnych w czasie szkolenia i wyprowadzania klasę, która jest tryb zajęć (klasyfikacja) lub średniego predykcji (regresji) poszczególnych drzew. Losowe lasy decyzyjne korygują nawyk drzew decyzyjnych do nadmiernego dopasowania do zestawu treningowego .
system rozumowania
W informatyce system wnioskowania to system oprogramowania, który generuje wnioski z dostępnej wiedzy za pomocą technik logicznych , takich jak dedukcja i indukcja . Systemy rozumowania odgrywają ważną rolę we wdrażaniu sztucznej inteligencji i systemów opartych na wiedzy .
sieć neuronowa rekurencyjna (RNN)
Klasa sztucznych sieci neuronowych, w których połączenia między węzłami tworzą skierowany graf wzdłuż sekwencji czasowej. To pozwala mu wykazywać dynamiczne zachowanie w czasie. W przeciwieństwie do sieci neuronowych ze sprzężeniem do przodu, sieci RNN mogą wykorzystywać swój stan wewnętrzny (pamięć) do przetwarzania sekwencji danych wejściowych. Dzięki temu można je stosować do zadań takich jak niesegmentowane, połączone rozpoznawanie pisma ręcznego lub rozpoznawanie mowy .
rachunek połączeń regionalnych
uczenie wzmacniające (RL)
Obszar uczenia maszynowego dotyczący tego, w jaki sposób agenci oprogramowania powinni podejmować działania w środowisku, aby zmaksymalizować pojęcie skumulowanej nagrody. Uczenie ze wzmocnieniem jest jednym z trzech podstawowych paradygmatów uczenia maszynowego, obok uczenia nadzorowanego i uczenia nienadzorowanego . Różni się od uczenia nadzorowanego tym, że oznaczone pary wejścia/wyjścia nie muszą być przedstawiane, a działania suboptymalne nie muszą być wyraźnie korygowane. Zamiast tego skupiamy się na znalezieniu równowagi między eksploracją (niezbadane terytorium) a eksploatacją (aktualnej wiedzy).
obliczanie zbiornika
Ramy obliczeniowe, które można postrzegać jako rozszerzenie sieci neuronowych . Zazwyczaj sygnał wejściowy jest podawany do stałego (losowego) dynamicznego systemu zwanego zbiornikiem, a dynamika zbiornika odwzorowuje sygnał wejściowy na wyższy wymiar. Następnie prosty mechanizm odczytu jest szkolony do odczytywania stanu zbiornika i mapowania go na żądany wynik. Główną korzyścią jest to, że trening odbywa się tylko na etapie odczytu, a zbiornik jest stały. Maszyny stanu ciekłego i sieci stanu echa to dwa główne typy obliczeń złożowych.
Ramy opisu zasobów (RDF)
Rodzina specyfikacji World Wide Web Consortium (W3C) pierwotnie zaprojektowana jako model danych metadanych . Zaczęła być używana jako ogólna metoda opisu pojęciowego lub modelowania informacji, która jest implementowana w zasobach internetowych , przy użyciu różnych notacji składni i formatów serializacji danych . Jest również używany w aplikacjach do zarządzania wiedzą .
ograniczona maszyna Boltzmanna (RBM)
Generatywna stochastyczny sztuczne sieci neuronowe , które mogą nauczyć się rozkład prawdopodobieństwa nad swoim zestawem wejść.
Algorytm Rete
Wzorzec dopasowania algorytm do wdrożenia systemów opartych na regułach . Algorytm został opracowany w celu efektywnego zastosowania wielu reguł lub wzorców do wielu obiektów lub faktów w bazie wiedzy . Służy do określenia, która z reguł systemu powinna zostać uruchomiona na podstawie jego magazynu danych, jego faktów.
robotyka
Interdyscyplinarna gałąź naukowo-techniczna obejmująca inżynierię mechaniczną , elektronikę , informatykę , informatykę i inne. Robotyka zajmuje się projektowaniem, budową, działaniem i użytkowaniem robotów , a także komputerowych systemów ich sterowania, sensorycznego sprzężenia zwrotnego i przetwarzania informacji .
system oparty na regułach
W informatyce system oparty na regułach służy do przechowywania wiedzy i manipulowania nią w celu użytecznej interpretacji informacji. Jest często używany w aplikacjach i badaniach sztucznej inteligencji. Zwykle termin system oparty na regułach jest stosowany do systemów obejmujących zestawy reguł stworzone przez człowieka lub wyselekcjonowane. Systemy oparte na regułach skonstruowane przy użyciu automatycznego wnioskowania o regułach, takie jak uczenie maszynowe oparte na regułach , są zwykle wykluczone z tego typu systemu.

S

satysfakcja
W logice matematycznej spełnialność i trafność są podstawowymi pojęciami semantyki . Formuła jest spełnialna jeśli jest to możliwe, aby znaleźć interpretację ( modelu ), który sprawia, że formuła prawda. Formuła jest prawidłowa, jeśli wszystkie interpretacje sprawiają, że formuła jest prawdziwa. Przeciwieństwem tych pojęć jest niezaspokojenie i nieważność, to znaczy formuła jest niezaspokojona, jeśli żadna z interpretacji nie czyni formuły prawdziwej, i nieważna, jeśli jakaś taka interpretacja czyni ją fałszywą. Te cztery pojęcia są ze sobą powiązane w sposób dokładnie analogiczny do Arystotelesa „s kwadrat logiczny .
algorytm wyszukiwania
Dowolny algorytm , który rozwiązuje ten problem, wyszukiwarki , a mianowicie, aby pobrać informacje przechowywane w jakiejś struktury danych, lub obliczone w przestrzeni poszukiwań z dziedziny problemów , zarówno z wartości dyskretne lub ciągłe .
wybór
Etap algorytmu genetycznego, w którym poszczególne genomy są wybierane z populacji do późniejszej hodowli (za pomocą operatora krzyżowania ).
samozarządzanie
Proces, w którym systemy komputerowe zarządzają własnym działaniem bez interwencji człowieka.
sieć semantyczna

Również sieć ramek .

Baza wiedzy , która reprezentuje semantyczne relacje między pojęciami w sieci. Jest to często używane jako forma reprezentacji wiedzy . Jest to graf skierowany lub nieskierowany składający się z wierzchołków reprezentujących pojęcia i krawędzi reprezentujących relacje semantyczne między pojęciami, mapujące lub łączące pola semantyczne .
rozumowanie semantyczne

Również rozumowanie silnika , silnik reguł , lub po prostu logiczne .

Oprogramowanie zdolne do wywnioskowania logicznych konsekwencji ze zbioru stwierdzonych faktów lub aksjomatów . Pojęcie wnioskowania semantycznego uogólnia pojęcie silnika wnioskowania , zapewniając bogatszy zestaw mechanizmów do pracy. Te reguły wnioskowania są powszechnie określono za pomocą języka ontologii , a często opis logika języka. Wielu rozumujących używa logiki predykatów pierwszego rzędu do prowadzenia rozumowania; wnioskowanie zwykle odbywa się poprzez łańcuchowanie w przód i łańcuchowanie wsteczne .
zapytanie semantyczne
Umożliwia zapytania i analizy o charakterze asocjacyjnym i kontekstowym . Zapytania semantyczne umożliwiają wyszukiwanie zarówno jawnie, jak i niejawnie wyprowadzonych informacji na podstawie informacji składniowych, semantycznych i strukturalnych zawartych w danych. Mają one na celu dostarczanie precyzyjnych wyników (możliwe, że wyróżniający się wybór jednej pojedynczej informacji) lub udzielanie odpowiedzi na bardziej niejasne i szeroko otwarte pytania poprzez dopasowywanie wzorców i rozumowanie cyfrowe .
semantyka
W teorii języka programowania semantyka jest dziedziną zajmującą się rygorystycznym matematycznym badaniem znaczenia języków programowania . Czyni to poprzez ocenę znaczenia syntaktycznie poprawnych ciągów zdefiniowanych przez określony język programowania, pokazując związane z tym obliczenia. W takim przypadku, gdy ocena będzie składała się z niepoprawnych składniowo ciągów, wynik byłby nieobliczalny. Semantyka opisuje procesy, za pomocą których komputer wykonuje program w tym konkretnym języku. Można to wykazać, opisując związek między danymi wejściowymi i wyjściowymi programu lub wyjaśniając, w jaki sposób program będzie wykonywany na określonej platformie , tworząc w ten sposób model obliczeniowy .
fuzja czujników
Połączenie danych sensorycznych lub danych pochodzących z różnych źródeł w taki sposób, że uzyskane informacje mają mniejszą niepewność niż byłoby to możliwe, gdyby te źródła były używane indywidualnie.
logika separacji
Rozszerzenie logiki Hoare'a , sposób rozumowania o programach. Język asercji logiki separacji jest szczególnym przypadkiem logiki grupowych implikacji (BI).
nauka podobieństw
Obszar nadzorowanego uczenia maszynowego w sztucznej inteligencji. Jest to ściśle związane z regresją i klasyfikacją , ale celem jest uczenie się na podstawie funkcji podobieństwa, która mierzy, jak podobne lub powiązane są dwa obiekty. Ma zastosowanie w rankingu , w systemach rekomendacji , śledzeniu tożsamości wizualnej, weryfikacji twarzy, weryfikacji mówcy.
symulowane wyżarzanie (SA)
Probabilistyczny technika dla zbliżonej do optimum globalnego danej funkcji . W szczególności metaheurystyka polega na przybliżaniu globalnej optymalizacji w dużej przestrzeni wyszukiwania dla problemu optymalizacji .
położone podejście
W badaniach nad sztuczną inteligencją podejście umiejscowione buduje agentów, które są zaprojektowane tak, aby skutecznie zachowywać się w ich środowisku. Wymaga to zaprojektowania sztucznej inteligencji „oddolnie” poprzez skupienie się na podstawowych umiejętnościach percepcyjnych i motorycznych wymaganych do przetrwania. Podejście sytuacyjne nadaje znacznie niższy priorytet rozumowaniu abstrakcyjnemu lub umiejętnościom rozwiązywania problemów.
rachunek sytuacji
Logiczny formalizm zaprojektowany do reprezentowania i wnioskowania o domenach dynamicznych.
Selektywna liniowa rozdzielczość klauzuli określonej

Także po prostu rozdzielczość SLD .

Podstawowa reguła wnioskowania stosowana w programowaniu logicznym . To udoskonalenie rozdzielczości , która jest zarówno dźwięk i odparcie kompletne dla Klauzula Horna .
oprogramowanie
Zbiór danych lub instrukcji komputerowych, które informują komputer, jak ma działać. Jest to w przeciwieństwie do fizycznego sprzętu , z którego system jest zbudowany i faktycznie wykonuje pracę. W informatyce i inżynierii oprogramowania oprogramowanie komputerowe to wszystkie informacje przetwarzane przez systemy komputerowe , programy i dane . Oprogramowanie komputerowe obejmuje programy komputerowe , biblioteki i powiązane niewykonywalne dane , takie jak dokumentacja online lub nośniki cyfrowe .
Inżynieria oprogramowania
Zastosowanie inżynierii do rozwoju z oprogramowaniem w systematyczny sposób.
rozumowanie przestrzenno-czasowe
Dziedzina sztucznej inteligencji, która czerpie z dziedzin informatyki , kognitywistyki i psychologii poznawczej . Cel teoretyczny – po stronie poznawczej – obejmuje reprezentowanie i rozumowanie w umyśle wiedzy przestrzenno-czasowej. Zastosowany cel — po stronie obliczeniowej — obejmuje opracowanie wysokopoziomowych systemów sterowania automatami do nawigacji i zrozumienia czasu i przestrzeni.
SPARQL
Rdql -to znaczy, semantyczny język zapytań do baz danych -able do pobierania i przetwarzania danych przechowywanych w Resource Description Framework (RDF) formacie.
rozpoznawanie mowy
Interdyscyplinarna poddziedzina językoznawstwa komputerowego, która rozwija metodologie i technologie umożliwiające komputerowe rozpoznawanie i tłumaczenie języka mówionego na tekst. Jest również znany jako automatyczne rozpoznawanie mowy (ASR), komputerowe rozpoznawanie mowy lub mowa na tekst (STT). Obejmuje wiedzę i badania z zakresu językoznawstwa , informatyki i elektrotechniki .
impulsowa sieć neuronowa (SNN)
Sztuczne sieci neuronowe , które lepiej naśladuje naturalną sieć neuronową. Oprócz stanu neuronalnego i synaptycznego , SNN włączają pojęcie czasu do swojego modelu operacyjnego .
stan
W informatyce i informatyce program jest opisywany jako stanowy, jeśli został zaprojektowany do zapamiętywania poprzedzających zdarzeń lub interakcji użytkownika; zapamiętane informacje nazywamy stanem systemu.
klasyfikacja statystyczna
W uczeniu maszynowym i statystyce klasyfikacja to problem identyfikacji, do którego ze zbioru kategorii (subpopulacji) należy nowa obserwacja, na podstawie zbioru uczącego danych zawierającego obserwacje (lub instancje), których przynależność do kategorii jest znana. Przykładami są przypisanie danego e-maila do klasy „spam” lub „bez spamu” oraz przypisanie diagnozy danemu pacjentowi na podstawie zaobserwowanych cech pacjenta (płeć, ciśnienie krwi, obecność lub brak pewnych objawów itp.) . Klasyfikacja jest przykładem rozpoznawania wzorców .
statystyczne uczenie relacyjne (SRL)
Subdyscyplina sztucznej inteligencji i uczenia maszynowego zajmująca się modelami dziedzinowymi, które wykazują zarówno niepewność (z którą można sobie poradzić za pomocą metod statystycznych), jak i złożoną strukturę relacyjną . Należy zauważyć, że w literaturze SRL jest czasami nazywane relacyjnym uczeniem maszynowym (RML). Zazwyczaj formalizmy reprezentacji wiedzy opracowane w SRL wykorzystują (podzbiór) logiki pierwszego rzędu do opisu relacyjnych właściwości dziedziny w sposób ogólny ( uniwersalna kwantyfikacja ) i opierają się na probabilistycznych modelach graficznych (takich jak sieci bayesowskie lub sieci Markowa ) do modelować niepewność; niektóre opierają się również na metodach programowania logiki indukcyjnej .
optymalizacja stochastyczna (SO)
Dowolna metoda optymalizacji , która generuje i wykorzystuje zmienne losowe . W przypadku problemów stochastycznych zmienne losowe pojawiają się w sformułowaniu samego problemu optymalizacji, który obejmuje losowe funkcje celu lub losowe ograniczenia. Metody optymalizacji stochastycznej obejmują również metody z losowymi iteracjami. Niektóre metody optymalizacji stochastycznej wykorzystują losowe iteracje do rozwiązywania problemów stochastycznych, łącząc oba znaczenia optymalizacji stochastycznej. Stochastyczne metody optymalizacji uogólniać deterministycznych metod deterministycznych problemów.
stochastyczna analiza semantyczna
Podejście stosowane w informatyce jako semantyczny składnik rozumienia języka naturalnego . Modele stochastyczne zazwyczaj wykorzystują definicję segmentów słów jako podstawowych jednostek semantycznych dla modeli semantycznych, aw niektórych przypadkach wykorzystują podejście dwuwarstwowe.
Rozwiązywanie problemów Instytutu Badawczego Stanforda (STRIPS)
ekspert merytoryczny
superinteligencja
Hipotetyczny agent, który posiada inteligencję znacznie przewyższającą inteligencję najzdolniejszych i najbardziej utalentowanych ludzkich umysłów. Superinteligencja może również odnosić się do właściwości systemów rozwiązywania problemów (np. superinteligentnych tłumaczy językowych lub asystentów inżynierskich), niezależnie od tego, czy te wysokopoziomowe kompetencje intelektualne są ucieleśnione w agentach działających w świecie fizycznym. Superinteligencja może, ale nie musi, zostać stworzona przez eksplozję inteligencji i kojarzyć się z osobliwością technologiczną .
Nadzorowana nauka
Uczenie maszynowe zadanie uczenia się funkcji, która odwzorowuje wejście z wyjściem na przykładzie pary wejścia-wyjścia. Wnioskuje funkcję zoznakowane dane treningowe składające się z zestawuprzykładów treningowych. W uczeniu nadzorowanym każdy przykład jestparąskładającą się z obiektu wejściowego (zazwyczaj wektora) i pożądanej wartości wyjściowej (nazywanej równieżsygnałem nadzorczym). Nadzorowany algorytm uczenia analizuje dane treningowe i tworzy wywnioskowaną funkcję, która może być wykorzystana do mapowania nowych przykładów. Optymalny scenariusz pozwoli algorytmowi poprawnie określić etykiety klas dla niewidocznych instancji. Wymaga to od algorytmu uczącego uogólniania danych uczących na niewidzialne sytuacje w „rozsądny” sposób (patrz błądindukcyjny).
maszyny wektorów nośnych
W uczeniu maszynowym maszyny z wektorem nośnym (SVM, również sieci z wektorem nośnym) są nadzorowanymi modelami uczenia się z powiązanymi algorytmami uczenia , które analizują dane używane do analizy klasyfikacji i regresji .
inteligencja roju (SI)
Zbiorowe zachowanie od zdecentralizowane , samoorganizujące się systemy, naturalne lub sztuczne. Ekspresja została wprowadzona w kontekście systemów robotyki komórkowej.
symboliczna sztuczna inteligencja
Termin określający zbiór wszystkich metod w badaniach nad sztuczną inteligencją, które są oparte na „symbolicznych” (czytelnych dla człowieka) przedstawieniach problemów, logiki i wyszukiwania wysokiego poziomu .
inteligencja syntetyczna (SI)
Alternatywny termin na sztuczną inteligencję, który podkreśla, że ​​inteligencja maszyn nie musi być imitacją ani w żaden sposób sztuczną; może być prawdziwą formą inteligencji.
neuronauka systemów
Subdyscyplina neuronauki i biologii systemów zajmująca się badaniem struktury i funkcji obwodów i systemów neuronowych. Jest to termin ogólny, obejmujący wiele dziedzin nauki związanych z jak komórki nerwowe działał gdy połączone ze sobą w celu utworzenia ścieżki neuronowe , obwodów neuronowych i większych sieci mózgowych .

T

osobliwość technologiczna

Również po prostu osobliwość .

Hipotetyczny punkt w przyszłości, kiedy wzrost technologiczny staje się niekontrolowany i nieodwracalny, powodując niezgłębionych zmian ludzkiej cywilizacji.
nauka różnic czasowych
Klasa modelu wolne uczenia wzmocnienie metod, które uczą się ładowaniem od bieżącej szacunkowej wartości funkcji. Metody te pobierają próbki ze środowiska, takie jak metody Monte Carlo , i wykonują aktualizacje na podstawie bieżących szacunków, takich jak metody programowania dynamicznego .
teoria sieci tensorowych
Teoria funkcji mózgu (szczególnie móżdżku ), która dostarcza matematycznego modelu transformacji sensorycznych współrzędnych czasoprzestrzennych we współrzędne motoryczne i vice versa przez móżdżkowe sieci neuronowe . Teoria została opracowana jako geometryzacja funkcji mózgu (zwłaszcza ośrodkowego układu nerwowego ) za pomocą tensorów .
Przepływ Tensora
Darmowy i open-source biblioteki oprogramowania dla przepływu danych i różniczkowalnej programowania całej zakresu zadań. Jest to symboliczna biblioteka matematyczna, używana również w aplikacjach uczenia maszynowego , takich jak sieci neuronowe .
informatyka teoretyczna (TCS)
Podzbiór ogólnej informatyki i matematyki, który koncentruje się na bardziej matematycznych zagadnieniach komputerowych i obejmuje teorię obliczeń .
teoria obliczeń
W informatyce teoretycznej i matematyce teoria obliczeń jest gałęzią zajmującą się tym, jak skutecznie problemy można rozwiązywać na modelu obliczeń przy użyciu algorytmu . Dziedzina jest podzielona na trzy główne gałęzie: teorię i języki automatów, teorię obliczalności i teorię złożoności obliczeniowej , które łączy pytanie: „Jakie są podstawowe możliwości i ograniczenia komputerów?”.
Próbkowanie Thompsona
Heurystyczny wyboru działań, które adresy dylemat poszukiwawczo-eksploatacja w multi-bandyta problemu. Polega na wybraniu działania, które maksymalizuje oczekiwaną nagrodę w odniesieniu do losowo wylosowanego przekonania.
złożoność czasowa
Złożoność obliczeniowa , która opisuje ilość czasu potrzebnego do uruchomienia algorytmu . Złożoność czasowa jest powszechnie szacowana poprzez zliczenie liczby operacji elementarnych wykonywanych przez algorytm, przy założeniu, że wykonanie każdej operacji elementarnej zajmuje określoną ilość czasu. W związku z tym przyjmuje się, że ilość czasu i liczba operacji elementarnych wykonywanych przez algorytm różni się co najwyżej o stały współczynnik .
transhumanizm

Skrót H+ lub h+ .

Międzynarodowy ruch filozoficzny, który opowiada się za przemianą ludzkiej kondycji poprzez opracowywanie i udostępnianie szeroko dostępnych zaawansowanych technologii w celu znacznego wzmocnienia ludzkiego intelektu i fizjologii.
system przejściowy
W informatyce teoretycznej system przejściowy jest pojęciem używanym w badaniach obliczeń . Służy do opisu potencjalnego zachowania systemów dyskretnych . Składa się ze stanów i przejść między stanami, które mogą być opatrzone etykietami wybranymi ze zbioru; ta sama etykieta może pojawić się na więcej niż jednym przejściu. Jeśli zestaw etykiet to singleton , system jest zasadniczo nieetykietowany i możliwa jest prostsza definicja, która pomija etykiety.
przemierzanie drzew

Również wyszukiwanie drzew .

Forma przechodzenia przez graf i odnosi się do procesu odwiedzania (sprawdzania i/lub aktualizacji) każdego węzła w drzewiastej strukturze danych , dokładnie raz. Takie przejścia są klasyfikowane według kolejności odwiedzania węzłów.
prawdziwa kwantyfikowana formuła Boole'a
W teorii złożoności obliczeniowej język TQBF jest językiem formalnym składającym się z prawdziwych skwantyfikowanych formuł logicznych. (W pełni skwantyfikowana formuła Boole'a to formuła w skwantyfikowanej logice zdań, w której każda zmienna jest skwantyfikowana (lub związana ) przy użyciu kwantyfikatorów egzystencjalnych lub uniwersalnych , na początku zdania. Taka formuła jest równoznaczna z prawdą lub fałszem (ponieważ nie ma wolnych zmiennych). Jeśli taka formuła ma wartość prawda, to formuła ta jest w języku TQBF. Jest również znany jako QSAT (Quantified SAT ).
Maszyna Turinga
Test Turinga
Test zdolności maszyny do wykazywania inteligentnego zachowania równoważnego lub nie do odróżnienia od zachowania człowieka, opracowany przez Alana Turinga w 1950 roku. Turing zaproponował, że osoba oceniająca człowieka będzie oceniać rozmowy w języku naturalnym między człowiekiem a maszyną zaprojektowaną do generowania człowieka podobne odpowiedzi. Oceniający miałby świadomość, że jeden z dwóch partnerów w rozmowie jest maszyną, a wszyscy uczestnicy byliby od siebie oddzieleni. Konwersacja byłaby ograniczona do kanału tekstowego, takiego jak klawiatura komputera i ekran, więc wynik nie zależałby od zdolności maszyny do renderowania słów jako mowy. Jeśli oceniający nie może wiarygodnie odróżnić maszyny od człowieka, mówi się, że maszyna przeszła test. Wyniki testu nie zależą od zdolności maszyny do udzielania poprawnych odpowiedzi na pytania, tylko od tego, jak bardzo jej odpowiedzi przypominają te, które udzieliłby człowiek.
typ systemu
W językach programowania: zestaw reguł, który przypisuje właściwość zwaną typem do różnych konstrukcji programu komputerowego , takich jak zmienne , wyrażenia , funkcje lub moduły . Te typy formalizują i wymuszają niejawne kategorie, których programista używa dla algebraicznych typów danych, struktur danych lub innych komponentów (np. "string", "array of float", "funkcja zwracająca wartość logiczną"). Głównym celem systemu typów jest zmniejszenie możliwości występowania błędów w programach komputerowych poprzez zdefiniowanie interfejsów między różnymi częściami programu komputerowego, a następnie sprawdzenie, czy części zostały połączone w spójny sposób. To sprawdzanie może odbywać się statycznie (w czasie kompilacji ), dynamicznie (w czasie wykonywania ) lub jako połączenie sprawdzania statycznego i dynamicznego. Systemy typu mają również inne cele, takie jak wyrażanie reguł biznesowych, umożliwienie pewnych optymalizacji kompilatora, umożliwienie wielokrotnej wysyłki , udostępnienie formy dokumentacji itp.

U

nauka nienadzorowana
Rodzaj samoorganizującego się uczenia Hebbowskiego, który pomaga znaleźć wcześniej nieznane wzorce w zbiorze danych bez wcześniej istniejących etykiet. Jest również znany jako samoorganizacja i umożliwia modelowanie gęstości prawdopodobieństwa danych wejściowych. Jest to jedna z trzech głównych kategorii uczenia maszynowego, obok uczenia nadzorowanego i uczenia ze wzmacnianiem . Opisano również częściowo nadzorowane uczenie się, które jest hybrydą technik nadzorowanych i nienadzorowanych.

V

jednostka przetwarzania wizyjnego (VPU)
Rodzaj mikroprocesora zaprojektowanego do przyspieszania zadań widzenia maszynowego . Kompletne wyrównywanie wartości — analogicznie do problemu z kompletną AI, kompletny problem z wyrównywaniem wartości to problem, w którym problem kontroli AI musi być w pełni rozwiązany, aby go rozwiązać.

W

Watson
Zapytania odpowiadając system komputerowy w stanie odpowiedzieć na pytania stawiane w języku naturalnym , opracowany w IBM projektu „s DeepQA przez zespół badawczy kierowany przez głównego badacza Davida Ferrucci . Watson został nazwany na cześć pierwszego dyrektora generalnego IBM, przemysłowca Thomasa J. Watsona .
słaba sztuczna inteligencja

Również wąska sztuczna inteligencja .

Sztuczna inteligencja skupiona na jednym wąskim zadaniu.
Konsorcjum World Wide Web (W3C)
Główna międzynarodowa organizacja normalizacyjna dla World Wide Web (w skrócie WWW lub W3).

Zobacz też

Bibliografia

Uwagi