Eliezer Judkowski - Eliezer Yudkowsky
Eliezer Judkowski | |
---|---|
Urodzić się |
|
11 września 1979
Narodowość | amerykański |
Organizacja | Instytut Badań Inteligencji Maszynowej |
Znany z | Tworzenie terminu przyjazna sztuczna inteligencja Badania nad bezpieczeństwem AI Racjonalność pisania Założyciel LessWrong |
Strona internetowa | judkowsky |
Eliezer Shlomo Yudkowsky (ur. 11 września 1979) jest amerykańskim teoretykiem decyzji i teoretykiem sztucznej inteligencji (AI) oraz pisarzem, najbardziej znanym z popularyzowania idei przyjaznej sztucznej inteligencji . Jest współzałożycielem i pracownikiem naukowym w Instytucie Badań nad Inteligencją Maszynową (MIRI), prywatnej organizacji non-profit badawczej z siedzibą w Berkeley w Kalifornii . Jego praca nad perspektywą uciekający wywiadu eksplozji był wpływ na Nick Bostrom „s superinteligencji: Ścieżki, niebezpieczeństw, strategie .
Praca w zakresie bezpieczeństwa sztucznej inteligencji
Nauka celów i zachęty w systemach oprogramowania
Poglądy Yudkowsky'ego na wyzwania związane z bezpieczeństwem stwarzane przez przyszłe generacje systemów sztucznej inteligencji są omówione w podręczniku licencjackim w AI, Stuart Russell i Peter Norvig 's Artificial Intelligence: A Modern Approach . Zwracając uwagę na trudność formalnego określenia celów ogólnego przeznaczenia ręcznie, Russell i Norvig przytaczają propozycję Yudkowsky'ego, że autonomiczne i adaptacyjne systemy należy projektować tak, aby uczyły się prawidłowego zachowania w czasie:
Yudkowsky (2008) omawia bardziej szczegółowo, jak zaprojektować przyjazną sztuczną inteligencję . Twierdzi, że przyjazność (chęć nieszkodzenia ludziom) powinna być zaprojektowana od samego początku, ale projektanci powinni zdawać sobie sprawę, że ich własne projekty mogą być wadliwe, a robot będzie się uczyć i ewoluować z czasem. Wyzwaniem jest więc projektowanie mechanizmów – zaprojektowanie mechanizmu rozwoju sztucznej inteligencji w systemie checks and balances oraz nadanie systemom funkcji użytkowych, które pozostaną przyjazne w obliczu takich zmian.
W odpowiedzi na problem instrumentalnej konwergencji , w której autonomiczne systemy podejmowania decyzji ze źle zaprojektowanymi celami miałyby domyślne bodźce do znęcania się nad ludźmi, Yudkowsky i inni badacze MIRI zalecili podjęcie pracy w celu określenia agentów oprogramowania, które zbiegają się w bezpieczne domyślne zachowania, nawet gdy ich cele są błędnie określone.
Prognozowanie możliwości
W scenariuszu eksplozji inteligencji wysuniętym przez IJ Gooda , rekursywnie samodoskonalące się systemy AI szybko przechodzą od podludzkiej inteligencji ogólnej do superinteligentnej . Książka Nicka Bostroma z 2014 r. Superintelligence: Paths, Dangers, Strategies szczegółowo przedstawia argumenty Gooda, cytując jednocześnie pismo Yudkowsky'ego na temat ryzyka, że antropomorfizacja zaawansowanych systemów sztucznej inteligencji spowoduje, że ludzie nie zrozumieją natury eksplozji inteligencji. „Sztuczna inteligencja może dokonać pozornie ostrego skoku inteligencji wyłącznie w wyniku antropomorfizmu, ludzkiej tendencji do myślenia o „wiejskim idiocie” i „Einsteinie” jako skrajnych krańcach skali inteligencji, zamiast prawie nieodróżnialnych punktów na skali umysłów -ogólnie."
W książce „Sztuczna inteligencja: nowoczesne podejście” autorzy Stuart Russell i Peter Norvig podnoszą zarzut, że istnieją znane granice inteligentnego rozwiązywania problemów wynikające z teorii złożoności obliczeniowej ; jeśli istnieją silne ograniczenia dotyczące tego, jak skutecznie algorytmy mogą rozwiązywać różne zadania informatyczne, eksplozja inteligencji może nie być możliwa.
Pisanie racjonalności
W latach 2006-2009 Yudkowsky i Robin Hanson byli głównymi współtwórcami Overcoming Bias , bloga nauk kognitywnych i społecznych sponsorowanego przez Future of Humanity Institute of Oxford University. W lutym 2009 roku Yudkowsky założył LessWrong , „blog społecznościowy poświęcony udoskonalaniu sztuki ludzkiej racjonalności”. Overcoming Bias od tego czasu funkcjonuje jako osobisty blog Hansona.
Ponad 300 wpisów na blogu Yudkowsky'ego na temat filozofii i nauki (pierwotnie napisanych na LessWrong i Overcoming Bias ) zostało wydanych jako ebook zatytułowany Rationality: From AI to Zombies przez Machine Intelligence Research Institute (MIRI) w 2015 roku. MIRI opublikowała również Inadequate Equilibria , Yudkowsky'ego Ebook 2017 na temat nieefektywności społecznej.
Yudkowski napisał także kilka utworów beletrystycznych. Jego powieść fanfiction Harry Potter i metody racjonalności wykorzystuje elementy fabuły z serii Harry Potter autorstwa JK Rowling , aby zilustrować tematy naukowe. „New Yorker” opisał Harry'ego Pottera i metody racjonalności jako powtórzenie oryginału Rowling „w próbie wyjaśnienia czarodziejstwa Harry'ego za pomocą metody naukowej”.
Życie osobiste
Yudkowsky jest samoukiem i nie uczęszczał do szkoły średniej ani na studia. Wychował się w judaizmie ortodoksyjnym.
Publikacje naukowe
- Judkowski, Eliezer (2007). „Poziomy organizacji w wywiadzie ogólnym” (PDF) . Sztuczna inteligencja ogólna . Berlin: Springer.
- Judkowski, Eliezer (2008). „Uprzedzenia poznawcze potencjalnie wpływające na ocenę globalnych zagrożeń” (PDF) . W Bostrom, Nick ; Ćirković, Mediolan (red.). Globalne ryzyko katastroficzne . Oxford University Press. Numer ISBN 978-0199606504.
- Judkowski, Eliezer (2008). „Sztuczna inteligencja jako pozytywny i negatywny czynnik w globalnym ryzyku” (PDF) . W Bostrom, Nick ; Ćirković, Mediolan (red.). Globalne ryzyko katastroficzne . Oxford University Press. Numer ISBN 978-0199606504.
- Judkowski, Eliezer (2011). „Złożone systemy wartości w przyjaznej sztucznej inteligencji” (PDF) . Sztuczna ogólna inteligencja: 4. międzynarodowa konferencja, AGI 2011, Mountain View, CA, USA, 3–6 sierpnia 2011 r . Berlin: Springer.
- Judkowski, Eliezer (2012). „Przyjazna sztuczna inteligencja”. w Edenie, Ammon; Moor, James; Søraker, John; i in. (wyd.). Hipotezy osobliwości: ocena naukowa i filozoficzna . Kolekcja Frontiers. Berlin: Springer. str. 181 -195. doi : 10.1007/978-3-642-32560-1_10 . Numer ISBN 978-3-642-32559-5.
- Bostrom, Nick ; Yudkowski, Eliezer (2014). „Etyka sztucznej inteligencji” (PDF) . po francusku Keith; Ramsey, William (red.). Podręcznik sztucznej inteligencji Cambridge . Nowy Jork: Cambridge University Press. Numer ISBN 978-0-521-87142-6.
- LaVictoire, Patrick; Fallenstein, Benja; Judkowski, Eliezer; Barász, Mihály; Christiano, Paweł; Herreshoff, Marcello (2014). „Równowaga programowa w dylemacie więźnia poprzez twierdzenie Löba” . Interakcja wieloagentowa bez uprzedniej koordynacji: artykuły z warsztatów AAAI-14 . Publikacje AAAI.
- Szybuje, Nate; Fallenstein, Benja; Judkowski, Eliezer (2015). „Korybilność” (PDF) . Warsztaty AAAI: Warsztaty na dwudziestej dziewiątej konferencji AAAI poświęconej sztucznej inteligencji, Austin, Teksas, 25–26 stycznia 2015 r . Publikacje AAAI.
Zobacz też
Bibliografia
Zewnętrzne linki
- Oficjalna strona internetowa
- Racjonalność: od AI do zombie (cała książka online)