List otwarty w sprawie sztucznej inteligencji — Open Letter on Artificial Intelligence

Priorytety badawcze dotyczące solidnej i korzystnej sztucznej inteligencji: list otwarty
Utworzony Styczeń 2015
Autorski) Stephen Hawking , Elon Musk i dziesiątki ekspertów od sztucznej inteligencji
Podmiot badania nad społecznymi skutkami sztucznej inteligencji

W styczniu 2015 r. Stephen Hawking , Elon Musk i dziesiątki ekspertów ds. sztucznej inteligencji podpisali list otwarty w sprawie sztucznej inteligencji wzywający do zbadania wpływu AI na społeczeństwo. List potwierdził, że społeczeństwo może czerpać ogromne potencjalne korzyści ze sztucznej inteligencji, ale wezwał do konkretnych badań nad tym, jak zapobiegać pewnym potencjalnym „pułapkom”: sztuczna inteligencja ma potencjał, aby wyeliminować choroby i ubóstwo, ale naukowcy nie mogą tworzyć czegoś, czego nie można kontrolować . Pismo składające się z czterech akapitów, zatytułowane „ Priorytety badawcze na rzecz solidnej i korzystnej sztucznej inteligencji: list otwarty ”, zawiera szczegółowe priorytety badawcze w towarzyszącym dwunastostronicowym dokumencie.

Tło

Do 2014 roku zarówno fizyk Stephen Hawking, jak i magnat biznesowy Elon Musk publicznie wyrazili opinię, że nadludzka sztuczna inteligencja może zapewnić nieobliczalne korzyści, ale może również zakończyć rasę ludzką, jeśli zostanie zastosowana nieostrożnie. W tym czasie Hawking i Musk zasiadali w naukowej radzie doradczej Instytutu Przyszłości Życia , organizacji działającej na rzecz „łagodzenia zagrożeń egzystencjalnych stojących przed ludzkością”. Instytut przygotował projekt listu otwartego skierowanego do szerszej społeczności naukowej zajmującej się sztuczną inteligencją i rozesłał go do uczestników swojej pierwszej konferencji w Portoryko w pierwszy weekend 2015 roku. List został upubliczniony 12 stycznia.

Cel, powód

List podkreśla zarówno pozytywne, jak i negatywne skutki sztucznej inteligencji. Według Bloomberg Business , profesor Max Tegmark z MIT rozesłał list, aby znaleźć wspólną płaszczyznę między sygnatariuszami, którzy uważają superinteligentną sztuczną inteligencję za znaczące ryzyko egzystencjalne , a sygnatariuszami, takimi jak profesor Oren Etzioni , którzy uważają, że dziedzina sztucznej inteligencji była „kwestionowana” przez jednostronne media skupiają się na rzekomym ryzyku. Pismo stwierdza, że:

Potencjalne korzyści (sztucznej inteligencji) są ogromne, ponieważ wszystko, co ma do zaoferowania cywilizacja, jest wytworem ludzkiej inteligencji; nie możemy przewidzieć, co możemy osiągnąć, gdy ta inteligencja zostanie wzmocniona przez narzędzia, które może zapewnić sztuczna inteligencja, ale wykorzenienie chorób i ubóstwa nie jest niezgłębione. Ze względu na ogromny potencjał sztucznej inteligencji ważne jest, aby zbadać, jak czerpać z niej korzyści, jednocześnie unikając potencjalnych pułapek.

Jeden z sygnatariuszy, profesor Bart Selman z Cornell University , powiedział, że celem jest nakłonienie badaczy i programistów AI do zwrócenia większej uwagi na bezpieczeństwo AI. Ponadto dla decydentów i ogółu społeczeństwa list ma charakter informacyjny, ale nie alarmistyczny. Inna sygnatariuszka, profesor Francesca Rossi , stwierdziła, że ​​„Myślę, że to bardzo ważne, aby wszyscy wiedzieli, że badacze sztucznej inteligencji poważnie myślą o tych obawach i kwestiach etycznych”.

Obawy zgłaszane przez list

Sygnatariusze pytają: w jaki sposób inżynierowie mogą tworzyć systemy sztucznej inteligencji, które są korzystne dla społeczeństwa i które są solidne? Ludzie muszą zachować kontrolę nad sztuczną inteligencją ; nasze systemy sztucznej inteligencji muszą „robić to, czego od nich oczekujemy”. Wymagane badania mają charakter interdyscyplinarny, czerpiąc z dziedzin od ekonomii i prawa po różne gałęzie informatyki , takie jak bezpieczeństwo komputerowe i weryfikacja formalna . Pojawiające się wyzwania dzielą się na weryfikację („Czy dobrze zbudowałem system?”), ważność („Czy zbudowałem właściwy system?”), bezpieczeństwo i kontrolę („OK, źle zbudowałem system, czy mogę to naprawić ?").

Krótkoterminowe obawy

Niektóre obawy w najbliższym czasie dotyczą pojazdów autonomicznych, od cywilnych dronów i autonomicznych samochodów . Na przykład samochód autonomiczny może, w sytuacji awaryjnej, być zmuszony do wyboru między małym ryzykiem poważnego wypadku a dużym prawdopodobieństwem małego wypadku. Inne obawy dotyczą śmiercionośnej inteligentnej broni autonomicznej: czy należy ją zakazać? Jeśli tak, to jak dokładnie zdefiniować „autonomię”? Jeśli nie, w jaki sposób należy przypisywać winę za niewłaściwe użycie lub nieprawidłowe działanie?

Inne kwestie obejmują obawy o prywatność, ponieważ sztuczna inteligencja staje się coraz bardziej zdolna do interpretowania dużych zbiorów danych z monitoringu oraz jak najlepiej zarządzać ekonomicznym wpływem miejsc pracy przeniesionych przez sztuczną inteligencję.

Długoterminowe obawy

Dokument zamyka się powtórzeniem obaw dyrektora badawczego Microsoftu, Erica Horvitza , że:

moglibyśmy pewnego dnia stracić kontrolę nad systemami AI poprzez powstanie superinteligencji, które nie działają zgodnie z ludzkimi życzeniami – i że tak potężne systemy zagroziłyby ludzkości. Czy możliwe są takie dystopiczne skutki? Jeśli tak, jak mogą powstać takie sytuacje? ...Jakie inwestycje w badania należy poczynić, aby lepiej zrozumieć i zająć się możliwością powstania niebezpiecznego superinteligencji lub wystąpienia „eksplozji inteligencji”?

Istniejące narzędzia do wykorzystywania sztucznej inteligencji, takie jak uczenie się przez wzmacnianie i proste funkcje użytkowe, są niewystarczające do rozwiązania tego problemu; dlatego konieczne są dalsze badania, aby znaleźć i zweryfikować solidne rozwiązanie „problemu kontroli”.

Sygnatariusze

Sygnatariusze obejmują fizyk Stephen Hawking , firma magnat Elon Musk , z współzałożycieli DeepMind , zastępczą , Google dyrektor badań „s Peter Norvig profesor Stuart J. Russell z Uniwersytetu Kalifornijskiego w Berkeley oraz innych ekspertów AI, twórcy robota, programiści i etyków. Pierwotna liczba sygnatariuszy wynosiła ponad 150 osób, w tym naukowców z Cambridge, Oxford, Stanford, Harvard i MIT.

Uwagi

Zewnętrzne linki