Etyka sztucznej inteligencji - Ethics of artificial intelligence


Z Wikipedii, wolnej encyklopedii

W etyka sztucznej inteligencji jest częścią etyki technologii specyficznych dla robotów i innych sztucznie inteligentnych istot. To jest zwykle podzielony na roboethics , problemem z moralnego zachowania ludzi jak oni, konstruujemy, użytkowania i traktują sztucznie inteligentnych istot i etyki maszyn , które dotyczy moralnego zachowania sztucznymi środkami moralnymi (AMA).

etyka robota

Termin „etyka robot” (czasami „roboethics”) odnosi się do moralności, jak ludzie konstrukcja, konstruować, stosowanie i traktują roboty i inne sztucznie inteligentne istoty. uważa, że ​​zarówno jak sztucznie inteligentne istoty mogą być wykorzystywane do zaszkodzić ludziom i jak mogą one być wykorzystywane na rzecz ludzi.

prawa robotów

„Prawa robot” jest koncepcja, że ludzie powinni mieć obowiązki moralne wobec swoich maszynach, podobnych do praw człowieka i praw zwierząt . Sugerowano, że prawa robot, takie jak prawo do istnienia i wykonywać swoją własną misję, mogą być związane z obowiązkiem robota, aby służyć człowiekowi, przez analogię z linkami praw człowieka do obowiązków człowieka przed społeczeństwem. Mogłyby one obejmować prawo do życia i wolności, wolności myśli i słowa i równości wobec prawa. Kwestia ta została uznana przez Institute for the Future i przez brytyjskiego Departamentu Handlu i Przemysłu .

Eksperci zgadzają się, czy konkretne i szczegółowe przepisy będą musieli wkrótce lub bezpiecznie w odległej przyszłości. Glenn McGee informuje, że wystarczająco humanoidalne roboty mogą pojawić się w roku 2020. Ray Kurzweil wyznacza datę w 2029 roku inna grupa naukowców, którzy spotkali się w 2007 roku zakłada się, że co najmniej 50 lat musiało upłynąć, zanim będzie istnieć wystarczająco zaawansowany system.

Zasady 2003 nagroda loebnera konkursu przewidywał możliwość robotów posiadających własne prawa:

61. Jeżeli w danym roku, a publicznie dostępny Wejście open source wprowadzone przez University of Surrey lub Centrum Cambridge wygrywa Srebrnym Medalem lub złoty medal, a następnie Medal i Nagroda Cash zostaną przyznane do organu odpowiedzialnego za rozwój tym wpisem. W przypadku braku takiego organu może zostać zidentyfikowany, lub jeśli istnieje rozbieżność między dwoma lub większą liczbą poszkodowanych, Medal i Nagroda Cash odbędzie się w zaufaniu do czasu, gdy Wejście może legalnie posiadać, zarówno w Stanach Zjednoczonych Ameryki albo w miejsce konkursu, nagrody pieniężne i złoty medal w swojej prawej stronie.

W październiku 2017 r android Zofia otrzymała obywatelstwo w Arabii Saudyjskiej, choć niektórzy obserwatorzy znaleźć to być bardziej chwyt reklamowy niż sensowny prawnego uznania.

Filozofia Sentientism przyznaje stopnie uwagę moralnym dla wszystkich czujących istot, głównie ludzi i większości zwierząt innych niż ludzie. Jeśli sztuczne lub obce inteligencje pokazać dowód bycia czującą , filozofia ta utrzymuje, że powinny być one przedstawione współczucie i prawa przyznane.

Zagrożenie dla godności ludzkiej

Joseph Weizenbaum twierdził, że w 1976 roku technologia AI nie powinny być wykorzystywane do zastąpienia ludzi na stanowiskach, które wymagają szacunku i opieki, jak każdy z nich:

  • Przedstawiciel obsługi klienta (technologia AI jest już używany dzisiaj dla telefonów opartych na reakcji Interactive Voice Systems)
  • Terapeuta (jak został zaproponowany przez Kennetha Colby w 1970 roku)
  • Niańka dla osób starszych (jak zostało zgłoszone przez Pamela McCorduck w swojej książce The Fifth Generation )
  • Żołnierz
  • Sędzia
  • Policjant

Weizenbaum wyjaśnia, że wymagają autentyczne uczucia empatii z ludźmi w tych pozycjach. Jeśli Maszyny je zastąpić, znajdziemy się wyobcowani, dewaluacji i sfrustrowany. Sztuczna inteligencja, jeśli są stosowane w ten sposób, stanowi zagrożenie dla godności ludzkiej. Weizenbaum twierdzi, że fakt, iż jesteśmy rozrywkowych możliwości maszyn na tych stanowiskach sugeruje, że doświadczyło „zanik ducha ludzkiego, który pochodzi od myślenia o sobie jako o komputerach.”

Pamela McCorduck odpowiada, że, mówiąc dla kobiet i mniejszości „Wolę zaryzykować z bezstronnego komputera”, wskazując, że istnieją warunki, w których wolelibyśmy mieć zautomatyzowane sędziów i policji, które nie mają prywatnego porządek w ogóle. Jednak Kaplana i Haenlein podkreślić, że systemy AI są tylko tak inteligentne jak dane wykorzystane do ich trenować, ponieważ są one, w swej istocie, nic więcej niż fantazyjnych maszynach dopasowania krzywej: Korzystanie AI wspierać orzeczenie sądu może być bardzo problematyczne jeśli przeszłość orzeczenia pokazują nastawienie wobec pewnych grup, ponieważ te odchyla się sformalizowanych i zakorzenione, co czyni je jeszcze bardziej trudne do wykrycia i zwalczania. AI założyciel John McCarthy sprzeciwia się tonem moralizatorskim krytyki Weizenbaum użytkownika. „Kiedy moralizowania jest zarówno gwałtowny i niejasne, to zaprasza autorytarny nadużycie”, pisze.

Bill Hibbard pisze, że „Godność człowieka wymaga, staramy się usuwać naszej niewiedzy o naturze istnienia, a AI jest konieczne dla realizacji tego dążenia.”

Przejrzystość i open source

Bill Hibbard twierdzi, że ponieważ AI będzie mieć taki ogromny wpływ na ludzkość, programiści AI są przedstawiciele przyszłej ludzkości, a tym samym mają etyczny obowiązek być przejrzysty w swoich wysiłkach. Ben Goertzel i David Hart stworzył OpenCog jako open source ramach rozwoju AI. OpenAI jest organizacją non-profit firma badawcza tworzona przez AI Elon Musk , Sam Altman i inni rozwijać open source AI korzystny dla ludzkości. Istnieje wiele innych open source AI rozwój.

Weaponization sztucznej inteligencji

Niektórzy eksperci i naukowcy zakwestionowali wykorzystanie robotów do walki wojskowej, zwłaszcza gdy takie roboty podano pewien stopień funkcji autonomicznych. US Navy sfinansowała raport, który wskazuje, że roboty wojskowe stają się bardziej złożone, nie powinno być większej uwagi na konsekwencje ich zdolność do podejmowania autonomicznych decyzji. Jeden naukowiec twierdzi, że autonomiczne roboty mogą być bardziej humanitarny, gdyż mogą one bardziej efektywnie podejmować decyzje.

W ramach tej ostatniej dekadzie nastąpił intensywne badania w autonomicznej władzy ze zdolnością do uczenia się z wykorzystaniem przypisanych obowiązków moralnych. „Wyniki mogą być wykorzystane przy projektowaniu przyszłych robotów wojskowych, aby kontrolować niepożądane tendencje do przypisywania odpowiedzialności do roboty.” Z konsekwencjalizmu zdaniem, jest szansa, że roboty będą rozwijać zdolność do podejmowania własnych decyzji logicznych kto zabić i dlatego nie powinien być zestaw ramy moralne, że AI nie może zastąpić.

Nastąpił ostatni krzyk w zakresie inżynierii broni sztucznej inteligencji, które włączyło idee przejęcia robota ludzkości. Broń ai do przedstawienia rodzaj zagrożenia odmienne od broni człowieka sterowane. Wiele rządów zaczęły finansować programy rozwijać AI broni. United States Navy ogłosiła niedawno plany rozwoju autonomicznych broni truteń , równolegle podobne zapowiedzi Rosji i Korei odpowiednio. Ze względu na potencjał broni AI coraz bardziej niebezpieczna niż broń człowieka sterowane, Stephen Hawking i Max Tegmark podpisał „Future of Life” petycją o zakazie broni AI. Wiadomość wysłana przez Hawkinga i Tegmark stwierdza, że broń AI stwarzają bezpośrednie zagrożenie i że konieczne są działania w celu uniknięcia katastrofalnych katastrof w najbliższej przyszłości.

„Jeśli potęga militarna popycha do przodu z rozwojem broni AI, światowy wyścig zbrojeń jest praktycznie nieuniknione, a punktem końcowym tego toru technologicznego jest oczywista: broni autonomiczne staną się kałasznikowy jutra”, mówi, że petycja, która obejmuje Skype współpracy -founder Jaan Tallinn i MIT profesor lingwistyki Noam Chomsky jako dodatkowe zwolenników przeciwko AI broni.

Fizyk i astronom królewski sir Martin Rees ostrzega przed katastrofalnymi przypadkach jak „głupie roboty dzieje łotrzyk lub sieć, która rozwija własny rozum.” Cena Huw , kolega Rees w Cambridge, wyraziła podobną ostrzeżenie, że ludzie mogą nie przetrwać, gdy inteligencja „ucieka ograniczenia biologii”. Te dwa profesorowie stworzył Centrum Badań egzystencjalnej Risk na Uniwersytecie Cambridge w nadziei uniknięcia tego zagrożenia dla ludzkiej egzystencji.

Jeśli chodzi o możliwości inteligentniejszego niż ludzkie systemy do zastosowania militarnie The Otwarte Filantropia projektu pisze, że te scenariusze „wydaje się potencjalnie równie ważny jak ryzyko związane z utratą kontroli”, ale to organizacje badawcze badające długofalowy wpływ społeczny AI mieć spędziłem stosunkowo mało czasu na te obawy: „ta klasa scenariuszy nie był głównym celem dla organizacji, które były najbardziej aktywne w tej przestrzeni, takich jak maszyny Intelligence Research Institute (Miri) i przyszłość ludzkości Institute (FHI) i wydaje się być mniej analiza i dyskusja na ich temat”.

etyka maszyn

Etyka maszyn (lub maszyna moralność) to dziedzina badań zajmuje się projektowaniem Sztuczne Moral Agents (AMA), roboty lub sztucznie inteligentne komputery, które zachowują się tak, jakby moralnie lub moralny. W celu uwzględnienia charakteru tych środków, sugerowano, aby rozważyć pewne idee filozoficzne, jak standardowy charakteryzowania agencji , racjonalnego agencji , moralnego i sztucznej agencji, które są związane z koncepcją AMA.

Isaac Asimov rozważyć tę kwestię w 1950 roku w jego I, Robot . Za namową swojego edytora John W. Campbell Jr. , zaproponował, że etyka robotów rządzić sztucznie inteligentnych systemów. Wiele z jego prac została następnie spędził testując granice swoich trzech ustaw, aby zobaczyć gdzie mogliby rozbić, lub gdy będą tworzyć paradoksalną lub nieoczekiwanych zachowań. Jego praca sugeruje, że żaden zestaw stałych przepisów mogą w wystarczającym stopniu przewidzieć wszystkich możliwych sytuacji.

W 2009 roku, w trakcie eksperymentu w laboratorium Inteligentnych Systemów w Ecole Polytechnique Fédérale w Lozannie w Szwajcarii , roboty, które zostały zaprogramowane, aby współpracować ze sobą (w wyszukiwaniu korzystny zasobów i uniknięcie trujący jeden) w końcu nauczył się kłamać każdy inny próbując gromadzić korzystny zasobu. Jednym z problemów w tym przypadku mogło, że cele były „Terminal” (czyli w przeciwieństwie do ostatecznych motywy ludzkie mają zazwyczaj jakość wymagających niekończącej uczenia się).

Niektórzy eksperci i naukowcy zakwestionowali wykorzystanie robotów do walki wojskowej, zwłaszcza gdy takie roboty podano pewien stopień funkcji autonomicznych. US Navy sfinansowała raport, który wskazuje, że roboty wojskowe stają się bardziej złożone, nie powinno być większej uwagi na konsekwencje ich zdolność do podejmowania autonomicznych decyzji. Prezes Stowarzyszenia na Rzecz Postępu Sztucznej Inteligencji zleciła badanie, aby spojrzeć na ten problem. Zwracają się do programów takich jak urządzenia Language Acquisition , które mogą naśladować działania człowieka.

Vernor Vinge zasugerował, że może przyjść chwila, gdy niektóre komputery są mądrzejsze niż ludzie. Nazywa to „ osobliwości ”. Sugeruje on, że może to być nieco lub ewentualnie bardzo niebezpieczne dla ludzi. Jest to omówione przez filozofii zwanej Singularitarianism . Maszyna Intelligence Research Institute sugerował potrzebę budowania „ Friendly AI ”, co oznacza, że zaliczki, które są już występujące z AI powinny obejmować również starań, aby AI natury przyjazny i humanitarny.

W 2009 roku, naukowcy i eksperci techniczni udział w konferencji zorganizowanej przez Association for Advancement of Artificial Intelligence w celu omówienia potencjalnego wpływu robotów i komputerów oraz wpływu hipotetycznej możliwości, że mogą one stać się samowystarczalny i zdolny do podejmowania własnych decyzji , Omówiono możliwości i zakresu, w których komputery i roboty mogą być w stanie nabyć dowolny poziom autonomii, iw jakim stopniu mogą korzystać z takich umiejętności może stanowić żadnego zagrożenia lub niebezpieczeństwa. Zauważyli oni, że niektóre maszyny nabyły różnych form pół-autonomii, w tym są w stanie znaleźć źródła energii na własną rękę i jest w stanie samodzielnie wybrać cele do ataku z użyciem broni. Zauważyli również, że niektóre wirusy komputerowe mogą uniknąć eliminacji i osiągnęli „karaluch inteligencji.” Zauważyli oni, że samoświadomość, jak to przedstawiono w science-fiction jest chyba mało prawdopodobne, ale to były inne potencjalne zagrożenia i pułapki.

Jednakże istnieje jedna technologia w szczególności, że może naprawdę przynieść możliwości robotów z kompetencji moralnej rzeczywistości. W artykule na nabycie wartości moralnych robotów, Nayef Al-Rodhan wspomina przypadek neuromorficznych chipów, które mają na celu przetwarzania informacji w sposób podobny do ludzi, nieliniowo i miliony połączonych sztucznymi neuronami. Roboty z wbudowanych neuromorficznych technologii mogłyby uczyć się i rozwijać wiedzę w wyjątkowo humanlike sposób. Nieuchronnie pojawia się pytanie o środowisko, w którym te roboty będą uczyć się o świecie i którego moralność będą dziedziczyć - czy też skończyć się rozwija, jak również przez ludzi „Słabości”: samolubstwo, postawę pro-przetrwanie, wahanie etc.

W Moral Machines: Teaching Robots dobro od zła , Wendell Wallach i Colin Allen stwierdzić, że próbuje nauczyć roboty dobro od zła prawdopodobnie awansuje rozumienie etyki człowieka poprzez motywowanie ludzi do zajęcia luk we współczesnej teorii normatywnej oraz zapewnienie platformy dla badań eksperymentalnych. Jako jeden z przykładów, że wprowadziła normatywnych etycy do kontrowersyjnej kwestii, których specyficzne algorytmy uczenia się do wykorzystania w maszynach. Nick Bostrom i Eliezer Yudkowsky argumentowali dla drzew decyzyjnych (takich jak ID3 ) ponad sieci neuronowych i algorytmów genetycznych na podstawie tego, że drzewa decyzyjne posłuszne nowoczesne normy społeczne przejrzystości i przewidywalności (np patrzą decisis ), natomiast Chris Santos-Lang argumentował w przeciwnym kierunek na tej podstawie, że normy w każdym wieku musi mieć możliwość zmiany tego naturalnego i braku pełnego zaspokojenia tych szczególnych norm ma zasadnicze znaczenie w podejmowaniu ludzie mniej podatne na karnych „ hakerów ”.

Niezamierzone konsekwencje

Wielu badaczy stwierdził, że w drodze „inteligencja przeciwwybuchowej” kiedyś w 21 wieku, self-poprawa AI może stać się tak znacznie bardziej wydajne niż ludzi, które nie byłyby w stanie powstrzymać go od osiągnięcia jego celów. W swoim artykule „Problemy etyczne w zaawansowanej sztucznej inteligencji,” filozof Nick Bostrom argumentuje, że sztuczna inteligencja jest w stanie doprowadzić człowieka wyginięciem. Twierdzi, że ogólnie super inteligencja byłaby zdolna do samodzielnej inicjatywy i podejmowania własnych planów, a zatem mogą być bardziej odpowiednio traktowane jako środka autonomicznego. Ponieważ sztuczne intelekty nie muszą udostępniać nasze ludzkie tendencje motywacyjne, byłoby aż do projektantów super-inteligencji , aby określić jej pierwotne motywacje. W teorii, super-inteligentny AI będzie w stanie doprowadzić do niemal wszelkich możliwych rezultatów i udaremnić wszelkie próby, aby zapobiec realizacji jego górnej bramki, wiele niekontrolowanych niezamierzone konsekwencje mogłyby powstać. To może zabić wszystkie inne środki, przekonać ich do zmiany zachowania lub blokować ich próbom ingerencji.

Jednak zamiast przytłaczająca ludzkiego i prowadzące do naszego zniszczenia, Bostrom również zapewnił, że super-inteligencja może pomóc nam rozwiązać wiele trudnych problemów, takich jak choroby, ubóstwa i niszczenia środowiska, a może pomóc nam „poprawić” siebie.

Sama złożoność systemów wartości ludzkich sprawia, że bardzo trudno jest dokonać motywacje ai Ludzki w obsłudze. Chyba że filozofia moralna daje nam bezbłędne teorii etycznej, funkcja użyteczności AI mogłyby pozwolić na wiele potencjalnie szkodliwych scenariuszy, które są zgodne z danym ram etycznych, ale nie „zdrowego rozsądku”. Według Eliezer Yudkowsky , nie ma powodu, aby przypuszczać, że sztucznie zaprojektowany umysł miałby taką adaptację.

Bill Hibbard proponuje projekt AI że unika kilka rodzajów niezamierzonego zachowania AI tym samooszukiwania, niezamierzonych działań instrumentalnych i korupcji generatora nagrody.

organizacje

Amazon , Google , Facebook , IBM i Microsoft podpisały umowę o współpracy non-profit do formułowania najlepszych praktyk w zakresie sztucznej inteligencji technologii Advance zrozumienie opinii publicznej, a także służyć jako platforma o sztucznej inteligencji. Stwierdzili oni: „To partnerstwo na AI będzie prowadzić badania, organizować dyskusje, zapewnienia przywództwa myślowego, skonsultować się z odpowiednimi stronami trzecimi, odpowiedzi na pytania od publiczności i mediów, a także tworzyć materiały edukacyjne, które wcześniej zrozumienie technologii AI tym postrzeganie maszynowy, uczenie oraz zautomatyzowane rozumowania.” Jabłko dołączył do innych firm technologicznych jako członek-założyciel Partnerstwa na AI w styczniu 2017. Członkowie korporacyjni będą wnoszenia wkładów finansowych i badawczych do grupy, przy jednoczesnym zaangażowaniu ze środowiskiem naukowym przynieść naukowców na pokładzie.

W fikcji

Film Trzynaste piętro sugeruje przyszłość, w której symulowane światy z czujących mieszkańców są tworzone przez komputer konsole do gier do celów rozrywkowych. Film Matrix sugeruje przyszłość, w której dominują gatunki na Ziemi są maszyny czujące i ludzkość jest traktowany z najwyższą gatunkowizmu . Krótka historia „ Planck Dive ” wskazują na przyszłość, w której ludzkość okazała się do oprogramowania, które może być powielana i zoptymalizowany i istotne rozróżnienie typów oprogramowania jest czującą i nie czująca. Ten sam pomysł można znaleźć w Ratownictwie Medycznym Hologram z Starship Voyagera , który jest najwyraźniej czująca kopię obniżonej podzbioru świadomości jego twórca, dr Zimmerman , którzy z najlepszych pobudek, stworzył system, aby dać medyczny pomoc w nagłych wypadkach. Filmy Człowiek przyszłości i AI do czynienia z możliwością czujących robotów, które mogłyby kochają. Ja, Robot zbadać niektóre aspekty trzech praw Asimova. Wszystkie te scenariusze spróbować przewidzieć ewentualnie nieetyczne konsekwencje powstania komputerów czujących.

Etyka sztucznej inteligencji jest jednym z kilku głównych tematów w BioWare Mass Effect serii gier. Bada ona scenariusz cywilizacji przypadkowo tworząc AI poprzez szybki wzrost mocy obliczeniowej poprzez globalną skalę sieci neuronowej . To wydarzenie spowodowało etyczny schizma między tymi, którzy uważali, nadając prawa organicznych na nowo czującej Geth było odpowiednie i tych, którzy wciąż widzą w nich maszyn jednorazowych i walczył, aby je zniszczyć. Poza początkowym konfliktu, złożoność relacji między maszyn i ich twórców jest inny motyw toku całej historii.

Z biegiem czasu, debaty skupiały się coraz mniej na możliwości i więcej na celowość , jak podkreślono w „Cosmist” i „ziemskich” debaty zainicjowanej przez Hugo de Garis i Kevin Warwick . Cosmist według Hugo de Garis, jest rzeczywiście stara się budować bardziej inteligentne następców do gatunku ludzkiego.

Literatura

Średnia bibliografia etyki AI jest PhilPapers . Niedawne zbiór VC Muller (red.) (2016).

Zobacz też

naukowcy
organizacje

Uwagi

Linki zewnętrzne