Jürgen Schmidhuber - Jürgen Schmidhuber

Jürgen Schmidhuber
Jürgen Schmidhuber.jpg
Schmidhuber przemawia na AI for GOOD Global Summit w 2017 r.
Urodzić się 17 stycznia 1963
Narodowość Niemiecki
Alma Mater Uniwersytet Techniczny w Monachium
Znany z Sztuczna inteligencja , głębokie uczenie , sztuczne sieci neuronowe , rekurencyjne sieci neuronowe , maszyna Gödla , sztuczna ciekawość , metauczenie
Kariera naukowa
Pola Sztuczna inteligencja
Instytucje Instytut Badań nad Sztuczną Inteligencją Dalle Molle
Strona internetowa ludzie .idsia .ch /~juergen

Jürgen Schmidhuber (ur. 17 stycznia 1963) jest informatykiem najbardziej znanym ze swojej pracy w dziedzinie sztucznej inteligencji , głębokiego uczenia i sztucznych sieci neuronowych . Jest współdyrektorem Instytutu Badań nad Sztuczną Inteligencją Dalle Molle w Lugano w Ticino w południowej Szwajcarii . Po Google Scholar od 2016 do 2021 otrzymał ponad 100 000 cytowań naukowych ( Profil ). Nazywano go „ojcem nowoczesnej sztucznej inteligencji”, „ojcem sztucznej inteligencji”, „tatą dojrzałej sztucznej inteligencji”, „tatą” słynnych produktów AI, „ojcem chrzestnym” i „ojcem głębokiego uczenia się”. (Sam Schmidhuber nazwał jednak Aleksieja Grigorewicza Iwachnienkę „ojcem głębokiego uczenia się”).

Schmidhuber ukończył studia licencjackie na Politechnice Monachijskiej w Monachium , Niemcy. Uczył tam od 2004 do 2009 roku, kiedy został profesorem sztucznej inteligencji na Università della Svizzera Italiana w Lugano w Szwajcarii.

Praca

Wraz ze swoimi uczniami, Seppem Hochreiterem , Felixem Gersem , Fredem Cumminsem, Alexem Gravesem i innymi, Schmidhuber publikował coraz bardziej wyrafinowane wersje typu nawracającej sieci neuronowej zwanej długotrwałą pamięcią krótkotrwałą (LSTM). Pierwsze wyniki zostały już przedstawione w pracy dyplomowej Hochreitera (1991), w której przeanalizowano i przezwyciężono słynny problem znikającego gradientu . Nazwa LSTM została wprowadzona w raporcie technicznym (1995), co doprowadziło do najczęściej cytowanej publikacji LSTM (1997).

Standardowa architektura LSTM, która jest używana w prawie wszystkich obecnych aplikacjach, została wprowadzona w 2000 roku. Dzisiejszy „waniliowy LSTM” wykorzystujący wsteczną propagację w czasie został opublikowany w 2005 roku, a jego algorytm uczący koneksjonistycznej klasyfikacji czasowej (CTC) w 2006 roku. zakończ rozpoznawanie mowy za pomocą LSTM. W 2015 roku przeszkolony przez CTC LSTM został wykorzystany w nowej implementacji rozpoznawania mowy w oprogramowaniu Google na smartfony . Google używał również LSTM dla inteligentnego asystenta Allo i Tłumacza Google . Apple użył LSTM do funkcji „Quicktype” na iPhonie i Siri . Amazon użył LSTM dla Amazon Alexa . W 2017 roku Facebook wykonywał codziennie około 4,5 miliarda tłumaczeń automatycznych za pomocą sieci LSTM. Bloomberg Business Week napisał: „Te moce sprawiają, że LSTM jest prawdopodobnie najbardziej komercyjnym osiągnięciem AI, używanym do wszystkiego, od przewidywania chorób po komponowanie muzyki”.

W 2011 roku zespół Schmidhubera z IDSIA wraz z jego podoktorem Danem Ciresanem osiągnęli również radykalne przyspieszenie konwolucyjnych sieci neuronowych (CNN) na szybkich komputerach równoległych zwanych GPU . Wcześniejszy CNN na GPU autorstwa Chellapilla et al. (2006) był 4 razy szybszy niż równoważna implementacja na CPU. Głębokie CNN Dana Ciresana i in. (2011) na IDSIA był już 60 razy szybszy i osiągnął pierwszy nadludzki występ w konkursie wizji komputerowej w sierpniu 2011. Między 15 maja 2011 a 10 września 2012 ich szybkie i głębokie CNN wygrały aż cztery konkursy wizerunkowe. Znacząco poprawiły się również w zakresie najlepszej wydajności w literaturze dla wielu baz danych obrazów . Podejście to stało się centralnym elementem pola widzenia komputerowego . Opiera się na projektach CNN wprowadzonych znacznie wcześniej przez Yanna LeCuna i in. (1989), który zastosował algorytm wstecznej propagacji błędów do wariantu oryginalnej architektury CNN Kunihiko Fukushimy , zwanej neocognitron , później zmodyfikowanej metodą J. Wenga zwaną max-pooling .

W 2014 roku Schmidhuber założył firmę Nnaisense, która ma pracować nad komercyjnymi zastosowaniami sztucznej inteligencji w takich dziedzinach jak finanse, przemysł ciężki i samochody autonomiczne . Sepp Hochreiter, Jaan Tallinn i Marcus Hutter są doradcami firmy. Sprzedaż w 2016 r. wyniosła poniżej 11 mln USD; Schmidhuber twierdzi jednak, że obecnie nacisk kładzie się na badania, a nie na przychody. Nnaisense podniósł swoją pierwszą rundę finansowania kapitałowego w styczniu 2017 r. Ogólnym celem Schmidhubera jest stworzenie uniwersalnej sztucznej inteligencji poprzez trenowanie pojedynczej sztucznej inteligencji w sekwencji do różnych wąskich zadań.

Wyświetlenia

Według The Guardian , Schmidhuber skarżył się w „zjadliwym artykule z 2015 roku”, że koledzy badacze głębokiego uczenia Geoffrey Hinton , Yann LeCun i Yoshua Bengio „mocno się cytują”, ale „nie doceniają pionierów w tej dziedzinie”, rzekomo zaniżając wkład Schmidhubera i innych pionierów wczesnego uczenia maszynowego, w tym Alexey Grigorevich Ivakhnenko, który opublikował pierwsze sieci głębokiego uczenia się już w 1965 roku. LeCun zaprzeczył oskarżeniu, twierdząc zamiast tego, że Schmidhuber „stale twierdzi, że nie zasługuje na uznanie”. Schmidhuber odpowiedział, że LeCun nie podał ani jednego przykładu swojej wypowiedzi i wymienił kilka sporów priorytetowych .

Uznanie

Schmidhuber otrzymał nagrodę Helmholtza przyznawaną przez International Neural Network Society w 2013 r. oraz nagrodę Neural Networks Pioneer Award przyznawaną przez IEEE Computational Intelligence Society w 2016 r. za „pionierski wkład w głębokie uczenie się i sieci neuronowe”. Jest członkiem Europejskiej Akademii Nauk i Sztuk .

Bibliografia