Eliezer Judkowski - Eliezer Yudkowsky

Eliezer Judkowski
Eliezer Yudkowsky, Stanford 2006 (kwadratowa uprawa).jpg
Yudkowsky na Uniwersytecie Stanforda w 2006 r.
Urodzić się ( 1979-09-11 )11 września 1979 (wiek 42)
Chicago , Illinois , USA
Narodowość amerykański
Organizacja Instytut Badań Inteligencji Maszynowej
Znany z Tworzenie terminu przyjazna sztuczna inteligencja
Badania nad bezpieczeństwem AI
Racjonalność pisania
Założyciel LessWrong
Strona internetowa judkowsky .net

Eliezer Shlomo Yudkowsky (ur. 11 września 1979) jest amerykańskim teoretykiem decyzji i teoretykiem sztucznej inteligencji (AI) oraz pisarzem, najbardziej znanym z popularyzowania idei przyjaznej sztucznej inteligencji . Jest współzałożycielem i pracownikiem naukowym w Instytucie Badań nad Inteligencją Maszynową (MIRI), prywatnej organizacji non-profit badawczej z siedzibą w Berkeley w Kalifornii . Jego praca nad perspektywą uciekający wywiadu eksplozji był wpływ na Nick Bostrom „s superinteligencji: Ścieżki, niebezpieczeństw, strategie .

Praca w zakresie bezpieczeństwa sztucznej inteligencji

Nauka celów i zachęty w systemach oprogramowania

Poglądy Yudkowsky'ego na wyzwania związane z bezpieczeństwem stwarzane przez przyszłe generacje systemów sztucznej inteligencji są omówione w podręczniku licencjackim w AI, Stuart Russell i Peter Norvig 's Artificial Intelligence: A Modern Approach . Zwracając uwagę na trudność formalnego określenia celów ogólnego przeznaczenia ręcznie, Russell i Norvig przytaczają propozycję Yudkowsky'ego, że autonomiczne i adaptacyjne systemy należy projektować tak, aby uczyły się prawidłowego zachowania w czasie:

Yudkowsky (2008) omawia bardziej szczegółowo, jak zaprojektować przyjazną sztuczną inteligencję . Twierdzi, że przyjazność (chęć nieszkodzenia ludziom) powinna być zaprojektowana od samego początku, ale projektanci powinni zdawać sobie sprawę, że ich własne projekty mogą być wadliwe, a robot będzie się uczyć i ewoluować z czasem. Wyzwaniem jest więc projektowanie mechanizmów – zaprojektowanie mechanizmu rozwoju sztucznej inteligencji w systemie checks and balances oraz nadanie systemom funkcji użytkowych, które pozostaną przyjazne w obliczu takich zmian.

W odpowiedzi na problem instrumentalnej konwergencji , w której autonomiczne systemy podejmowania decyzji ze źle zaprojektowanymi celami miałyby domyślne bodźce do znęcania się nad ludźmi, Yudkowsky i inni badacze MIRI zalecili podjęcie pracy w celu określenia agentów oprogramowania, które zbiegają się w bezpieczne domyślne zachowania, nawet gdy ich cele są błędnie określone.

Prognozowanie możliwości

W scenariuszu eksplozji inteligencji wysuniętym przez IJ Gooda , rekursywnie samodoskonalące się systemy AI szybko przechodzą od podludzkiej inteligencji ogólnej do superinteligentnej . Książka Nicka Bostroma z 2014 r. Superintelligence: Paths, Dangers, Strategies szczegółowo przedstawia argumenty Gooda, cytując jednocześnie pismo Yudkowsky'ego na temat ryzyka, że ​​antropomorfizacja zaawansowanych systemów sztucznej inteligencji spowoduje, że ludzie nie zrozumieją natury eksplozji inteligencji. „Sztuczna inteligencja może dokonać pozornie ostrego skoku inteligencji wyłącznie w wyniku antropomorfizmu, ludzkiej tendencji do myślenia o „wiejskim idiocie” i „Einsteinie” jako skrajnych krańcach skali inteligencji, zamiast prawie nieodróżnialnych punktów na skali umysłów -ogólnie."

W książce „Sztuczna inteligencja: nowoczesne podejście” autorzy Stuart Russell i Peter Norvig podnoszą zarzut, że istnieją znane granice inteligentnego rozwiązywania problemów wynikające z teorii złożoności obliczeniowej ; jeśli istnieją silne ograniczenia dotyczące tego, jak skutecznie algorytmy mogą rozwiązywać różne zadania informatyczne, eksplozja inteligencji może nie być możliwa.

Pisanie racjonalności

W latach 2006-2009 Yudkowsky i Robin Hanson byli głównymi współtwórcami Overcoming Bias , bloga nauk kognitywnych i społecznych sponsorowanego przez Future of Humanity Institute of Oxford University. W lutym 2009 roku Yudkowsky założył LessWrong , „blog społecznościowy poświęcony udoskonalaniu sztuki ludzkiej racjonalności”. Overcoming Bias od tego czasu funkcjonuje jako osobisty blog Hansona.

Ponad 300 wpisów na blogu Yudkowsky'ego na temat filozofii i nauki (pierwotnie napisanych na LessWrong i Overcoming Bias ) zostało wydanych jako ebook zatytułowany Rationality: From AI to Zombies przez Machine Intelligence Research Institute (MIRI) w 2015 roku. MIRI opublikowała również Inadequate Equilibria , Yudkowsky'ego Ebook 2017 na temat nieefektywności społecznej.

Yudkowski napisał także kilka utworów beletrystycznych. Jego powieść fanfiction Harry Potter i metody racjonalności wykorzystuje elementy fabuły z serii Harry Potter autorstwa JK Rowling , aby zilustrować tematy naukowe. „New Yorker” opisał Harry'ego Pottera i metody racjonalności jako powtórzenie oryginału Rowling „w próbie wyjaśnienia czarodziejstwa Harry'ego za pomocą metody naukowej”.

Życie osobiste

Yudkowsky jest samoukiem i nie uczęszczał do szkoły średniej ani na studia. Wychował się w judaizmie ortodoksyjnym.

Publikacje naukowe

  • Judkowski, Eliezer (2007). „Poziomy organizacji w wywiadzie ogólnym” (PDF) . Sztuczna inteligencja ogólna . Berlin: Springer.
  • Judkowski, Eliezer (2008). „Uprzedzenia poznawcze potencjalnie wpływające na ocenę globalnych zagrożeń” (PDF) . W Bostrom, Nick ; Ćirković, Mediolan (red.). Globalne ryzyko katastroficzne . Oxford University Press. Numer ISBN 978-0199606504.
  • Judkowski, Eliezer (2008). „Sztuczna inteligencja jako pozytywny i negatywny czynnik w globalnym ryzyku” (PDF) . W Bostrom, Nick ; Ćirković, Mediolan (red.). Globalne ryzyko katastroficzne . Oxford University Press. Numer ISBN 978-0199606504.
  • Judkowski, Eliezer (2011). „Złożone systemy wartości w przyjaznej sztucznej inteligencji” (PDF) . Sztuczna ogólna inteligencja: 4. międzynarodowa konferencja, AGI 2011, Mountain View, CA, USA, 3–6 sierpnia 2011 r . Berlin: Springer.
  • Judkowski, Eliezer (2012). „Przyjazna sztuczna inteligencja”. w Edenie, Ammon; Moor, James; Søraker, John; i in. (wyd.). Hipotezy osobliwości: ocena naukowa i filozoficzna . Kolekcja Frontiers. Berlin: Springer. str.  181 -195. doi : 10.1007/978-3-642-32560-1_10 . Numer ISBN 978-3-642-32559-5.
  • Bostrom, Nick ; Yudkowski, Eliezer (2014). „Etyka sztucznej inteligencji” (PDF) . po francusku Keith; Ramsey, William (red.). Podręcznik sztucznej inteligencji Cambridge . Nowy Jork: Cambridge University Press. Numer ISBN 978-0-521-87142-6.
  • LaVictoire, Patrick; Fallenstein, Benja; Judkowski, Eliezer; Barász, Mihály; Christiano, Paweł; Herreshoff, Marcello (2014). „Równowaga programowa w dylemacie więźnia poprzez twierdzenie Löba” . Interakcja wieloagentowa bez uprzedniej koordynacji: artykuły z warsztatów AAAI-14 . Publikacje AAAI.
  • Szybuje, Nate; Fallenstein, Benja; Judkowski, Eliezer (2015). „Korybilność” (PDF) . Warsztaty AAAI: Warsztaty na dwudziestej dziewiątej konferencji AAAI poświęconej sztucznej inteligencji, Austin, Teksas, 25–26 stycznia 2015 r . Publikacje AAAI.

Zobacz też

Bibliografia

Zewnętrzne linki