Oś czasu uczenia maszynowego - Timeline of machine learning

Ta strona to oś czasu uczenia maszynowego . Uwzględniono główne odkrycia, osiągnięcia, kamienie milowe i inne ważne wydarzenia.

Przegląd

Dekada Streszczenie
<lata pięćdziesiąte XX wieku Metody statystyczne są odkrywane i udoskonalane.
1950 Pionierskie badania nad uczeniem maszynowym prowadzone są przy użyciu prostych algorytmów.
1960 Metody bayesowskie zostały wprowadzone do wnioskowania probabilistycznego w uczeniu maszynowym.
lata 70. Zima AI ” spowodowana pesymizmem na temat skuteczności uczenia maszynowego.
lata 80. Ponowne odkrycie wstecznej propagacji powoduje odrodzenie badań nad uczeniem maszynowym.
1990 Praca nad uczeniem maszynowym przechodzi od podejścia opartego na wiedzy do podejścia opartego na danych. Naukowcy zaczynają tworzyć programy dla komputerów, które analizują duże ilości danych i wyciągają wnioski – lub „uczą się” – z wyników. Popularne stają się maszyny wektora nośnego (SVM) i rekurencyjne sieci neuronowe (RNN). Rozpoczęto tworzenie pól złożoności obliczeniowej poprzez sieci neuronowe i obliczenia super-Turinga.
2000s Klastrowanie wektorów wsparcia i inne metody jądra oraz nienadzorowane metody uczenia maszynowego stają się powszechne.
2010s Głębokie uczenie staje się wykonalne, co prowadzi do tego, że uczenie maszynowe staje się integralną częścią wielu powszechnie używanych usług i aplikacji oprogramowania.

Oś czasu

Prosta sieć neuronowa z dwiema jednostkami wejściowymi i jedną jednostką wyjściową


Rok Typ wydarzenia Podpis Wydarzenie
1763 Odkrycie Podstawy twierdzenia Bayesa Praca Thomasa Bayesa Esej o rozwiązaniu problemu w doktrynie szans, opublikowana dwa lata po jego śmierci, została poprawiona i zredagowana przez przyjaciela Bayesa, Richarda Price'a . Esej przedstawia pracę leżącą u podstaw twierdzenia Bayesa .
1805 Odkrycie Najmniejszy kwadrat Adrien-Marie Legendre opisuje „metodę des moindres carrés”, znaną w języku angielskim jako metoda najmniejszych kwadratów . Metoda najmniejszych kwadratów jest szeroko stosowana w dopasowywaniu danych .
1812 Twierdzenie Bayesa Pierre-Simon Laplace publikuje Théorie Analytique des Probabilités , w której rozwija prace Bayesa i definiuje to, co jest obecnie znane jako Twierdzenie Bayesa .
1913 Odkrycie Łańcuchy Markowa Andrey Markov po raz pierwszy opisuje techniki, których używał do analizy wiersza. Techniki później stały się znane jako łańcuchy Markowa .
1943 Odkrycie Sztuczny neuron Warren McCulloch i Walter Pitts opracowują model matematyczny, który imituje funkcjonowanie neuronu biologicznego, sztucznego neuronu uważanego za pierwszy wynaleziony model neuronowy.
1950 Maszyna do nauki Turinga Alan Turing proponuje „uczącą się maszynę”, która mogłaby się uczyć i stać się sztucznie inteligentną. Konkretna propozycja Turinga zapowiada algorytmy genetyczne .
1951 Pierwsza maszyna sieci neuronowej Marvin Minsky i Dean Edmonds zbudowali pierwszą maszynę sieci neuronowej, zdolną do uczenia się, SNARC .
1952 Maszyny grające w warcaby Arthur Samuel dołącza do IBM Poughkeepsie Laboratory i zaczyna pracować nad jednymi z pierwszych programów uczenia maszynowego, najpierw tworząc programy, które grają w warcaby .
1957 Odkrycie Perceptron Frank Rosenblatt wynalazł perceptron podczas pracy w Cornell Aeronautical Laboratory . Wynalezienie perceptronu wywołało wiele emocji i było szeroko komentowane w mediach.
1963 Osiągnięcie Maszyny grające w kółko i krzyżyk Donald Michie tworzy „maszynę” składający się z 304 pól Mecz i koralików, która wykorzystuje wzmocnienie uczenia się grać Kółko i krzyżyk (znany także jako kółko i krzyżyk).
1967 Najbliższy sąsiad Powstał algorytm najbliższego sąsiada , który jest początkiem podstawowego rozpoznawania wzorców. Algorytm został wykorzystany do mapowania tras.
1969 Ograniczenia sieci neuronowych Marvin Minsky i Seymour Papert publikują swoją książkę Perceptrons , opisującą niektóre ograniczenia perceptronów i sieci neuronowych. Interpretacja, którą książka pokazuje, że sieci neuronowe są zasadniczo ograniczone, jest postrzegana jako przeszkoda w badaniach nad sieciami neuronowymi.
1970 Automatyczne różnicowanie (propagacja wsteczna) Seppo Linnainmaa publikuje ogólną metodę automatycznego różnicowania (AD) dyskretnych połączonych sieci zagnieżdżonych funkcji różniczkowalnych. Odpowiada to współczesnej wersji wstecznej propagacji, ale nie jest jeszcze tak nazwane.
1979 Wózek Stanforda Studenci Uniwersytetu Stanforda opracowują wózek, który może nawigować i omijać przeszkody w pomieszczeniu.
1979 Odkrycie Neokognitron Kunihiko Fukushima po raz pierwszy publikuje swoją pracę na temat neokognitronu , rodzaju sztucznej sieci neuronowej (ANN). Neopoznanie później inspiruje konwolucyjne sieci neuronowe (CNN).
1981 Wyjaśnienie oparte na uczeniu się Gerald Dejong wprowadza Wyjaśnienie Oparte na Uczeniu, gdzie algorytm komputerowy analizuje dane i tworzy ogólną zasadę, której może przestrzegać i odrzucać nieistotne dane.
1982 Odkrycie Rekurencyjna sieć neuronowa John Hopfield popularyzuje sieci Hopfielda , rodzaj rekurencyjnej sieci neuronowej, która może służyć jako systemy pamięci adresowalnej treścią .
1985 NetTalk Terry Sejnowski opracował program, który uczy się wymawiać słowa w taki sam sposób, jak dziecko.
1986 Podanie Propagacja wsteczna Odwrócony tryb automatycznego różnicowania Seppo Linnainmaa (po raz pierwszy zastosowany do sieci neuronowych przez Paula Werbosa ) jest używany w eksperymentach Davida Rumelharta , Geoffa Hintona i Ronalda J. Williamsa do uczenia się reprezentacji wewnętrznych .
1989 Odkrycie Nauka wzmacniania Christopher Watkins opracowuje Q-learning , który znacznie poprawia praktyczność i wykonalność uczenia się przez wzmacnianie .
1989 Komercjalizacja Komercjalizacja uczenia maszynowego na komputerach osobistych Axcelis, Inc. wydaje Evolver , pierwszy pakiet oprogramowania, który komercjalizuje wykorzystanie algorytmów genetycznych na komputerach osobistych.
1992 Osiągnięcie Maszyny grające w tryktraka Gerald Tesauro opracowuje TD-Gammon , komputerowy program do gry w tryktraka , który wykorzystuje sztuczną sieć neuronową wytrenowaną przy użyciu uczenia różnic czasowych (stąd „TD” w nazwie). TD-Gammon jest w stanie rywalizować, ale nie zawsze przewyższać zdolności najlepszych graczy w backgammon.
1995 Odkrycie Algorytm losowego lasu Tin Kam Ho publikuje artykuł opisujący losowe lasy decyzyjne .
1995 Odkrycie Maszyny wektorów nośnych Corinna Cortes i Vladimir Vapnik publikują swoje prace na temat maszyn wektora nośnego .
1997 Osiągnięcie IBM Deep Blue bije Kasparowa IBM Deep Blue pokonuje mistrza świata w szachach.
1997 Odkrycie LSTM Sepp Hochreiter i Jürgen Schmidhuber wymyślać długo pamięć krótkotrwałą sieci (LSTM) o charakterze powtarzającym neuronowe, znacznie poprawia wydajność i praktyczność nawracających sieciach neuronowych.
1998 Baza danych MNIST Zespół kierowany przez Yanna LeCuna publikuje bazę danych MNIST , zbiór danych składający się z kombinacji odręcznych cyfr pochodzących od pracowników Amerykańskiego Biura Spisu Ludności i amerykańskich uczniów szkół średnich. Baza danych MNIST stała się od tego czasu punktem odniesienia dla oceny rozpoznawania pisma ręcznego .
2002 Biblioteka do uczenia maszynowego palnika Torch , biblioteka oprogramowania do uczenia maszynowego, została wydana po raz pierwszy.
2006 Nagroda Netflix Konkurs Netflix Prize uruchamia Netflix . Celem konkursu było wykorzystanie uczenia maszynowego do pobicia dokładności własnego oprogramowania rekomendacyjnego Netflixa w przewidywaniu oceny użytkownika dla filmu na podstawie ocen poprzednich filmów o co najmniej 10%. Nagroda została zdobyta w 2009 roku.
2009 Osiągnięcie ImageNet Powstaje ImageNet . ImageNet to duża wizualna baza danych stworzona przez Fei-Fei Li z Uniwersytetu Stanforda, który zdał sobie sprawę, że najlepsze algorytmy uczenia maszynowego nie działałyby dobrze, gdyby dane nie odzwierciedlały rzeczywistego świata. Dla wielu ImageNet był katalizatorem boomu AI w XXI wieku.
2010 Konkurs Kaggle Rusza Kaggle , serwis, który służy jako platforma dla zawodów w uczeniu maszynowym.
2011 Osiągnięcie Pokonywanie ludzi w niebezpieczeństwie Za pomocą kombinacji uczenia maszynowego, przetwarzania języka naturalnego i informacyjnych technik wyszukiwawczych, IBM „s Watson bije dwóch mistrzów człowieka w Jeopardy! konkurencja.
2012 Osiągnięcie Rozpoznawanie kotów na YouTube Zespół Google Brain pod kierownictwem Andrew Ng i Jeffa Deana tworzy sieć neuronową, która uczy się rozpoznawać koty, oglądając nieoznakowane obrazy z ramek filmów w YouTube .
2014 Skok w rozpoznawaniu twarzy Badacze Facebooka publikują swoje prace na DeepFace , systemie wykorzystującym sieci neuronowe, który identyfikuje twarze z 97,35% dokładnością. Wyniki to poprawa o ponad 27% w porównaniu z poprzednimi systemami i konkurująca z ludzką wydajnością.
2014 Sybilla Badacze z Google szczegółowo opisują swoją pracę nad Sibyl, zastrzeżoną platformą do masowo równoległego uczenia maszynowego, używaną wewnętrznie przez Google do przewidywania zachowań użytkowników i dostarczania rekomendacji.
2016 Osiągnięcie Pokonywanie ludzi w Go Program AlphaGo firmy Google staje się pierwszym programem Computer Go , który pokonał niepełnosprawnych profesjonalnego gracza, wykorzystując połączenie uczenia maszynowego i technik wyszukiwania drzew. Później ulepszony jako AlphaGo Zero, a następnie w 2017 uogólniony na szachy i inne gry dwuosobowe z AlphaZero .

Zobacz też

Bibliografia