Przyjazna sztuczna inteligencja - Friendly artificial intelligence

Przyjazna sztuczna inteligencja (również przyjazna AI lub FAI ) odnosi się do hipotetycznej sztucznej ogólnej inteligencji (AGI), która miałaby pozytywny (łagodny) wpływ na ludzkość lub przynajmniej byłaby zgodna z ludzkimi interesami lub przyczyniała się do wspierania rozwoju gatunku ludzkiego. Jest to część etyki sztucznej inteligencji i jest ściśle związana z etyką maszyn . Podczas gdy etyka maszyn dotyczy tego, jak powinien zachowywać się sztucznie inteligentny agent , przyjazne badania nad sztuczną inteligencją koncentrują się na tym, jak praktycznie doprowadzić do takiego zachowania i zapewnić jego odpowiednie ograniczenie.

Etymologia i użycie

Eliezer Yudkowsky , badacz AI i twórca terminu Przyjazna sztuczna inteligencja

Termin został wymyślony przez Eliezera Yudkowsky'ego , który jest najbardziej znany z popularyzowania idei, aby omówić superinteligentne sztuczne środki, które rzetelnie realizują ludzkie wartości. Wiodący podręcznik sztucznej inteligencji Stuarta J. Russella i Petera Norviga , Sztuczna inteligencja: nowoczesne podejście , opisuje ten pomysł:

Yudkowsky (2008) omawia bardziej szczegółowo, jak zaprojektować przyjazną sztuczną inteligencję . Twierdzi, że przyjazność (chęć nieszkodzenia ludziom) powinna być zaprojektowana od samego początku, ale projektanci powinni zdawać sobie sprawę, że ich własne projekty mogą być wadliwe, a robot będzie się uczyć i ewoluować z czasem. Wyzwaniem jest więc projektowanie mechanizmów – zdefiniowanie mechanizmu ewolucji systemów AI w systemie checks and balances oraz nadanie systemom funkcji użytkowych, które pozostaną przyjazne w obliczu takich zmian.

Termin „przyjazny” jest używany w tym kontekście jako terminologia techniczna i wybiera środki, które są bezpieczne i użyteczne, niekoniecznie takie, które są „przyjazne” w potocznym znaczeniu. Koncepcja ta jest przywoływana przede wszystkim w kontekście dyskusji o rekurencyjnie samodoskonalących się sztucznych agentach, które szybko eksplodują w inteligencji , na tej podstawie, że ta hipotetyczna technologia miałaby duży, szybki i trudny do kontrolowania wpływ na ludzkie społeczeństwo.

Ryzyko nieprzyjaznej sztucznej inteligencji

Korzenie troski o sztuczną inteligencję są bardzo stare. Kevin LaGrandeur wykazał, że zagrożenia specyficzne dla sztucznej inteligencji można dostrzec w starożytnej literaturze dotyczącej sztucznych humanoidalnych sług, takich jak golem , czy proto-roboty Gerberta z Aurillac i Rogera Bacona . W tych opowieściach ekstremalna inteligencja i moc tych humanoidalnych tworów zderzają się z ich statusem niewolników (którzy z natury są postrzegani jako podludzie) i powodują katastrofalny konflikt. W 1942 r. te tematy skłoniły Isaaca Asimova do stworzenia „ Trzech Praw Robotyki ” – zasad wpisanych na stałe we wszystkie roboty w jego fikcji, mających na celu uniemożliwienie im zwrócenia się przeciwko twórcom lub spowodowania, by wyrządzili im krzywdę.

W dzisiejszych czasach, gdy perspektywa superinteligentnej sztucznej inteligencji zbliża się coraz bardziej, filozof Nick Bostrom powiedział, że superinteligentne systemy sztucznej inteligencji z celami, które nie są zgodne z ludzką etyką, są z natury niebezpieczne, chyba że zostaną podjęte ekstremalne środki w celu zapewnienia bezpieczeństwa ludzkości. Ujął to w ten sposób:

Zasadniczo powinniśmy założyć, że „superinteligencja” byłaby w stanie osiągnąć wszelkie cele, jakie ma. Dlatego niezmiernie ważne jest, aby cele, które stawiamy, i cały system motywacyjny był „przyjazny człowiekowi”.

W 2008 roku Eliezer Yudkowsky wezwał do stworzenia „przyjaznej sztucznej inteligencji”, aby złagodzić ryzyko egzystencjalne ze strony zaawansowanej sztucznej inteligencji . Wyjaśnia: „AI cię nie nienawidzi ani nie kocha, ale jesteś zrobiony z atomów, których może użyć do czegoś innego”.

Steve Omohundro mówi, że wystarczająco zaawansowany system sztucznej inteligencji, o ile nie zostanie wyraźnie przeciwdziałany, będzie wykazywał szereg podstawowych „napędów” , takich jak pozyskiwanie zasobów, samozachowanie i ciągłe samodoskonalenie, ze względu na nieodłączną naturę każdego systemu nastawionego na cel i że napędy te „bez specjalnych środków ostrożności” spowodują, że sztuczna inteligencja będzie wykazywać niepożądane zachowanie.

Alexander Wissner-Gross mówi, że SI nastawione na maksymalizację swojej przyszłej swobody działania (lub entropii ścieżki przyczynowej) mogą być uważane za przyjazne, jeśli ich horyzont planowania jest dłuższy niż określony próg, i nieprzyjazne, jeśli ich horyzont planowania jest krótszy niż ten próg.

Luke Muehlhauser, piszący dla Instytutu Badań nad Inteligencją Maszyn , zaleca, aby badacze etyki maszyn przyjęli to, co Bruce Schneier nazwał „nastawieniem bezpieczeństwa”: Zamiast myśleć o tym, jak system będzie działał, wyobraź sobie, jak może zawieść. Na przykład sugeruje, że nawet sztuczna inteligencja, która tylko dokładnie prognozuje i komunikuje się za pośrednictwem interfejsu tekstowego, może spowodować niezamierzone szkody.

W 2014 roku Luke Muehlhauser i Nick Bostrom podkreślili potrzebę „przyjaznej sztucznej inteligencji”; niemniej jednak trudności w zaprojektowaniu „przyjaznej” superinteligencji, na przykład poprzez zaprogramowanie kontrfaktycznego myślenia moralnego, są znaczne.

Spójna ekstrapolowana wola

Yudkowsky rozwija model Coherent Extrapolated Volition (CEV). Według niego spójna ekstrapolowana wola to wybory ludzi i działania, które ludzie podjęliby wspólnie, gdybyśmy „wiedzieli więcej, myśleli szybciej, byli bardziej ludźmi, którymi chcielibyśmy być, i dorastali bliżej siebie”.

Zamiast przyjaznej sztucznej inteligencji projektowanej bezpośrednio przez ludzkich programistów, ma być zaprojektowana przez „ziarnową sztuczną inteligencję” zaprogramowaną w celu najpierw zbadania ludzkiej natury, a następnie wytworzenia sztucznej inteligencji, której ludzkość chciałaby, mając wystarczająco dużo czasu i wglądu, osiągnąć zadowalającą odpowiedź. Odwołanie się do celu poprzez przygodną naturę ludzką (być może wyrażoną, dla celów matematycznych, w postaci funkcji użyteczności lub innego formalizmu decyzyjno-teoretycznego ), jako dostarczającego ostatecznego kryterium „życzliwości”, jest odpowiedzią na metaetyczne problem zdefiniowania moralności obiektywnej ; ekstrapolowana wola ma być tym, czego obiektywnie chciałaby ludzkość, biorąc pod uwagę wszystkie okoliczności, ale można ją zdefiniować jedynie w odniesieniu do psychologicznych i poznawczych cech dzisiejszej, nieekstrapolowanej ludzkości.

Inne podejścia

Steve Omohundro zaproponował podejście „rusztowania” do bezpieczeństwa sztucznej inteligencji, w którym jedna generacja bezpieczna sztuczna inteligencja pomaga zbudować następną generację bezpieczną do udowodnienia.

Seth Baum argumentuje, że rozwój bezpiecznej, korzystnej społecznie sztucznej inteligencji lub sztucznej inteligencji ogólnej jest funkcją psychologii społecznej społeczności badaczy sztucznej inteligencji, a zatem może być ograniczany przez środki zewnętrzne i motywowany środkami wewnętrznymi. Wewnętrzne motywacje mogą zostać wzmocnione, gdy wiadomości będą rezonować z programistami AI; Baum argumentuje, że „istniejące wiadomości o korzystnej sztucznej inteligencji nie zawsze są dobrze sformułowane”. Baum opowiada się za „relacjami opartymi na współpracy i pozytywnym kształtowaniem badaczy sztucznej inteligencji” i ostrzega przed określaniem badaczy SI jako „nie chcących realizować korzystnych projektów”.

W swojej książce Human Compatible , badacz sztucznej inteligencji Stuart J. Russell wymienia trzy zasady kierujące rozwojem pożytecznych maszyn. Podkreśla, że ​​zasady te nie mają być wyraźnie zakodowane w maszynach; są raczej przeznaczone dla ludzkich twórców. Zasady są następujące:

1. Jedynym celem maszyny jest maksymalizacja realizacji ludzkich preferencji.

2. Maszyna jest początkowo niepewna, jakie są te preferencje.

3. Ostatecznym źródłem informacji o ludzkich preferencjach jest ludzkie zachowanie.

„Preferencje”, o których mówi Russell, „są wszechogarniające; obejmują wszystko, na czym może ci zależeć, arbitralnie daleko w przyszłości”. Podobnie, „zachowanie” obejmuje dowolny wybór między opcjami, a niepewność jest taka, że ​​pewne prawdopodobieństwo, które może być dość małe, musi być przypisane do każdej logicznie możliwej ludzkiej preferencji.

Polityka publiczna

James Barrat , autor Naszego ostatecznego wynalazku , zasugerował, że „należy stworzyć partnerstwo publiczno-prywatne, aby zgromadzić twórców sztucznej inteligencji w celu dzielenia się pomysłami na temat bezpieczeństwa — coś w rodzaju Międzynarodowej Agencji Energii Atomowej, ale we współpracy z korporacjami”. Wzywa badaczy sztucznej inteligencji do zwołania spotkania podobnego do konferencji Asilomar na temat rekombinacji DNA , na której omówiono zagrożenia związane z biotechnologią.

John McGinnis zachęca rządy do przyspieszenia przyjaznych badań nad sztuczną inteligencją. Ponieważ cele przyjaznej sztucznej inteligencji niekoniecznie są wybitne, sugeruje model podobny do National Institutes of Health , w którym „panele recenzentów komputerowych i kognitywnych przesiewałyby projekty i wybierały te, które mają zarówno rozwijać sztuczną inteligencję, jak i zapewniać, że takim postępom będą towarzyszyć odpowiednie zabezpieczenia." McGinnis uważa, że ​​wzajemna weryfikacja jest lepsza „niż regulacje w celu rozwiązania problemów technicznych, których nie można uchwycić za pomocą mandatów biurokratycznych”. McGinnis zauważa, że ​​jego propozycja stoi w sprzeczności z propozycją Instytutu Badawczego Inteligencji Maszynowej , który generalnie ma na celu uniknięcie zaangażowania rządu w przyjazną sztuczną inteligencję.

Według Gary'ego Marcusa roczna suma pieniędzy przeznaczana na rozwijanie moralności maszyn jest niewielka.

Krytyka

Niektórzy krytycy uważają, że zarówno sztuczna inteligencja na poziomie człowieka, jak i superinteligencja są mało prawdopodobne, a zatem przyjazna sztuczna inteligencja jest mało prawdopodobna. Pisząc w The Guardian , Alan Winfield porównuje sztuczną inteligencję na poziomie człowieka z podróżami szybszymi niż światło pod względem trudności i stwierdza, że ​​chociaż musimy być „ostrożni i przygotowani”, biorąc pod uwagę stawkę, „nie musimy mieć obsesję” na punkcie ryzyka superinteligencji. Z drugiej strony Boyles i Joaquin twierdzą, że propozycja Luke'a Muehlhausera i Nicka Bostroma dotycząca stworzenia przyjaznych AI wydaje się być ponura. Dzieje się tak, ponieważ Muehlhauser i Bostrom zdają się podtrzymywać ideę, że inteligentne maszyny można zaprogramować tak, aby myśleli kontrfaktycznie o wartościach moralnych, które mieliby ludzie. W artykule w AI & Society Boyles i Joaquin utrzymują, że takie AI nie byłyby tak przyjazne, biorąc pod uwagę następujące kwestie: nieskończoną ilość poprzedzających warunków kontrfaktycznych, które musiałyby zostać zaprogramowane w maszynie, trudność spieniężenia zestawu moralnego wartości — to znaczy te, które są bardziej idealne niż te, które ludzie posiadają obecnie, oraz pozorny rozdźwięk między kontrfaktycznymi poprzednikami a idealną wartością w konsekwencji.

Niektórzy filozofowie twierdzą, że każdy prawdziwie „racjonalny” czynnik, czy to sztuczny, czy ludzki, będzie naturalnie życzliwy; w związku z tym celowe zabezpieczenia zaprojektowane w celu stworzenia przyjaznej sztucznej inteligencji mogą być niepotrzebne lub nawet szkodliwe. Inni krytycy kwestionują, czy sztuczna inteligencja może być przyjazna. Adam Keiper i Ari N. Schulman, redaktorzy czasopisma technologicznego The New Atlantis , twierdzą, że nigdy nie będzie możliwe zagwarantowanie „przyjaznego” zachowania AI, ponieważ problemy etycznej złożoności nie ustąpią postępom w oprogramowaniu lub zwiększeniu mocy obliczeniowej. Piszą, że kryteria, na których opierają się przyjazne teorie sztucznej inteligencji, działają „tylko wtedy, gdy ktoś ma nie tylko wielką moc przewidywania co do prawdopodobieństwa niezliczonych możliwych wyników, ale także pewność i konsensus co do tego, jak ocenia się różne wyniki.

Zobacz też

Bibliografia

Dalsza lektura

Zewnętrzne linki