Etyka maszynowa - Machine ethics

Etyka maszyn (lub maszyna moralność , moralność obliczeniowe lub etyki obliczeniowe ) jest częścią etyki sztucznej inteligencji związanych z dodawaniem lub zapewnienie zachowania moralne człowieka maszyn wykorzystujących sztuczną inteligencję, który zwie sztucznych inteligentnych agentów . Etyka maszyn różni się od innych dziedzin etycznych związanych z inżynierią i technologią . Etyki maszynowej nie należy mylić z etyką komputerową , która skupia się na korzystaniu z komputerów przez człowieka. Należy ją również odróżnić od filozofii technologii , która zajmuje się większymi społecznymi skutkami technologii.

Historia

Przed XXI wiekiem etyka maszyn była w dużej mierze przedmiotem literatury science fiction, głównie ze względu na ograniczenia komputerów i sztucznej inteligencji (AI). Chociaż definicja „etyki maszynowej” ewoluowała od tego czasu, termin ten został ukuty przez Mitchella Waldropa w artykule „A Question of Responsibility” z 1987 roku w AI Magazine:

„Jednak jedną rzeczą, która wynika z powyższej dyskusji, jest to, że inteligentne maszyny będą ucieleśniać wartości, założenia i cele, niezależnie od tego, czy ich programiści świadomie tego chcą, czy nie. Tak więc, gdy komputery i roboty stają się coraz bardziej inteligentne, staje się to koniecznością że myślimy uważnie i wyraźnie o tym, jakie są te wbudowane wartości. Być może potrzebujemy w rzeczywistości teorii i praktyki etyki maszyn, w duchu trzech praw robotyki Asimova ”.

W 2004 r. na warsztatach AAAI poświęconych organizacjom agentów: teoria i praktyka została zaprezentowana książka Towards Machine Ethics, w której przedstawiono teoretyczne podstawy etyki maszyn.

Po raz pierwszy naukowcy spotkali się na sympozjum AAAI Fall 2005 poświęconym etyce maszyn, aby rozważyć wdrożenie wymiaru etycznego w systemach autonomicznych. Różne perspektywy tej rodzącej się dziedziny można znaleźć w zebranym wydaniu „Machine Ethics”, które wywodzi się z sympozjum AAAI Fall 2005 na temat etyki maszyn.

W 2007 roku AI Magazine opublikował artykuł Machine Ethics: Create an Ethical Intelligent Agent , w którym omówiono znaczenie etyki maszyn, potrzebę maszyn, które w sposób wyraźny reprezentują zasady etyczne, oraz wyzwania stojące przed osobami pracującymi nad etyką maszyn. Wykazał również, że jest możliwe, przynajmniej w ograniczonej dziedzinie, aby maszyna wyabstrahowała zasadę etyczną z przykładów osądów etycznych i wykorzystała tę zasadę do kierowania własnym zachowaniem.

W 2009 roku wydawnictwo Oxford University Press opublikowało Moral Machines, Teaching Robots Right from Wrong , które reklamowało jako „pierwszą książkę badającą wyzwanie, jakim jest budowanie sztucznych agentów moralnych, wnikając głęboko w naturę ludzkiego podejmowania decyzji i etyki”. Przytoczył około 450 źródeł, z których około 100 dotyczyło głównych kwestii etyki maszyn.

W 2011 r. Cambridge University Press opublikował zbiór esejów na temat etyki maszyn pod redakcją Michaela i Susan Leigh Anderson, którzy w 2006 r. zredagowali również specjalne wydanie IEEE Intelligent Systems na ten temat. Zbiór składa się z wyzwań związanych z dodaniem zasad etycznych do maszyn .

W 2014 roku US Office of Naval Research ogłosił, że rozpowszechnianie $ +7,5 mln dotacji w ciągu pięciu lat do naukowców uczelni studiować pytania etyki maszynowych w zastosowaniu do autonomicznych robotów, a Nick Bostrom „s superinteligencji: Ścieżki, niebezpieczeństw, Strategie , które podniósł etykę maszyn jako „najważniejszy... problem, przed jakim kiedykolwiek stanęła ludzkość”, osiągnął 17 miejsce na liście najlepiej sprzedających się książek naukowych New York Times.

W 2016 r. Parlament Europejski opublikował dokument (22-stronicowy PDF), aby zachęcić Komisję do zajęcia się kwestią statusu prawnego robotów, co zostało szerzej opisane w prasie. W artykule tym zawarto sekcje dotyczące odpowiedzialności prawnej robotów, w których odpowiedzialność była rozumiana jako proporcjonalna do poziomu autonomii robotów. W artykule zakwestionowano również liczbę miejsc pracy, które mogłyby zostać zastąpione przez roboty AI.

Definicje

James H. Moor , jeden z pionierskich teoretyków w dziedzinie etyki komputerowej , definiuje cztery rodzaje robotów etycznych. Jako szeroko zakrojony badacz studiów nad filozofią sztucznej inteligencji , filozofią umysłu , filozofią nauki i logiką , Moor definiuje maszyny jako czynniki wpływu etycznego, ukryte czynniki etyczne, jawne czynniki etyczne lub czynniki w pełni etyczne. Maszyna może być więcej niż jednym typem agenta.

  • Środki etyczne : są to systemy maszynowe, które mają wpływ etyczny, niezależnie od zamierzonego lub niezamierzonego. Jednocześnie środki te mogą działać nieetycznie. Moor podaje hipotetyczny przykład zwany „agentem Goodmana”, nazwanym na cześć filozofa Nelsona Goodmana . Agent Goodmana porównuje daty, ale ma błąd milenijny . Ten błąd został spowodowany przez programistów, którzy reprezentowali daty tylko dwoma ostatnimi cyframi roku. Tak więc wszelkie daty wykraczające poza rok 2000 byłyby mylnie traktowane jako wcześniejsze niż te z końca XX wieku. Tak więc agent Goodmana był etycznym czynnikiem wpływającym przed 2000 r., a następnie nieetycznym czynnikiem wpływającym.
  • Niejawni agenci etyczni : mając na uwadze bezpieczeństwo ludzi , agenci ci są zaprogramowani tak, aby mieć wbudowaną zaletę bezpieczeństwa lub wbudowaną cnotę. Nie są z natury całkowicie etyczne, ale raczej zaprogramowane, aby uniknąć nieetycznych wyników.
  • Jawni agenci etyczni : są to maszyny zdolne do przetwarzania scenariuszy i podejmowania decyzji etycznych. Maszyny, które mają algorytmy do etycznego działania.
  • Pełni agenci etyczni : maszyny te są podobne do jawnych agentów etycznych, ponieważ mogą podejmować etyczne decyzje. Zawierają jednak również cechy metafizyczne człowieka . (tj. mieć wolną wolę , świadomość i intencjonalność )

(Zobacz sztuczne systemy i odpowiedzialność moralna .)

Cele etyki maszynowej

Problem z kontrolą AI

Niektórzy uczeni, tacy jak filozof Nick Bostrom i badacz sztucznej inteligencji Stuart Russell , twierdzą, że jeśli sztuczna inteligencja przewyższy ludzkość pod względem ogólnej inteligencji i stanie się „ superinteligencją ”, wówczas ta nowa superinteligencja może stać się potężna i trudna do kontrolowania: tak jak los goryla górskiego zależy od ludzkiej dobrej woli, tak samo los ludzkości może zależeć od działań przyszłej superinteligencji maszynowej. W swoich książkach Superintelligence i Human Compatible obaj uczeni twierdzą, że chociaż istnieje duża niepewność co do przyszłości AI, ryzyko dla ludzkości jest na tyle duże, że zasługuje na znaczące działania w teraźniejszości.

To przedstawia problem kontroli AI : jak zbudować inteligentnego agenta, który pomoże jego twórcom, unikając nieumyślnego budowania superinteligencji, która zaszkodzi jej twórcom. Niebezpieczeństwo niewłaściwego zaprojektowania kontroli „za pierwszym razem” polega na tym, że superinteligencja może przejąć władzę nad swoim środowiskiem i uniemożliwić ludziom jego zamknięcie. Potencjalne strategie kontroli AI obejmują „kontrolę zdolności” (ograniczenie zdolności AI do wpływania na świat) i „kontrolę motywacyjną” (jeden sposób budowania sztucznej inteligencji, której cele są zgodne z ludzkimi lub optymalnymi wartościami ). Istnieje wiele organizacji badających problem kontroli AI, w tym Future of Humanity Institute , Machine Intelligence Research Institute , Center for Human-Compatible Artificial Intelligence , oraz Future of Life Institute .

Algorytmy i szkolenia

Paradygmaty AI były przedmiotem dyskusji, zwłaszcza w odniesieniu do ich skuteczności i stronniczości. Nick Bostrom i Eliezer Yudkowsky argumentowali za drzewami decyzyjnymi (takimi jak ID3 ) nad sieciami neuronowymi i algorytmami genetycznymi na tej podstawie, że drzewa decyzyjne przestrzegają współczesnych społecznych norm przejrzystości i przewidywalności (np. stare decisis ). W przeciwieństwie do tego, Chris Santos-Lang opowiadał się za sieciami neuronowymi i algorytmami genetycznymi na tej podstawie, że normy w każdym wieku muszą się zmieniać i że naturalne niepowodzenie w pełnym spełnieniu tych szczególnych norm jest niezbędne, aby ludzie byli mniej wrażliwi niż maszyny. do przestępczych „ hakerów ”.

W 2009 roku w eksperymencie przeprowadzonym w Laboratorium Inteligentnych Systemów w Ecole Polytechnique Fédérale w Lozannie w Szwajcarii roboty AI zostały zaprogramowane do współpracy ze sobą i miały za zadanie poszukiwanie korzystnego zasobu przy jednoczesnym unikaniu trującego zasobu. Podczas eksperymentu roboty zostały pogrupowane w klany, a cyfrowy kod genetyczny wybranych członków został wykorzystany dla następnej generacji, rodzaj algorytmu znanego jako algorytm genetyczny . Po 50 kolejnych pokoleniach w SI członkowie jednego klanu odkryli, jak odróżnić dobroczynny zasób od trującego. Roboty nauczyły się następnie okłamywać siebie nawzajem, próbując gromadzić pożyteczne zasoby od innych robotów. W tym samym eksperymencie te same roboty AI nauczyły się zachowywać bezinteresownie i sygnalizowały niebezpieczeństwo innym robotom, a także zginęły kosztem ratowania innych robotów. Konsekwencje tego eksperymentu zostały zakwestionowane przez etyków maszyn. W eksperymencie Ecole Polytechnique Fédérale cele robotów zostały zaprogramowane jako „terminalne”. W przeciwieństwie do tego, ludzkie motywy zazwyczaj wymagają niekończącej się nauki.

Autonomiczne systemy uzbrojenia

W 2009 r. naukowcy i eksperci techniczni wzięli udział w konferencji, aby omówić potencjalny wpływ robotów i komputerów oraz wpływ hipotetycznej możliwości, że mogą stać się samowystarczalne i zdolne do podejmowania własnych decyzji. Dyskutowali o możliwości i zakresie, w jakim komputery i roboty mogą być w stanie uzyskać dowolny poziom autonomii oraz w jakim stopniu mogą wykorzystać te zdolności do stwarzania zagrożenia lub zagrożenia. Zauważyli, że niektóre maszyny uzyskały różne formy półautonomii, w tym możliwość samodzielnego znajdowania źródeł zasilania i samodzielnego wybierania celów do ataku za pomocą broni. Zauważyli również, że niektóre wirusy komputerowe mogą uniknąć eliminacji i osiągnęły „inteligencję karaluchów”. Zauważyli, że samoświadomość przedstawiona w science-fiction jest prawdopodobnie mało prawdopodobna, ale istnieją inne potencjalne zagrożenia i pułapki.

Niektórzy eksperci i naukowcy kwestionują wykorzystanie robotów w walce wojskowej, zwłaszcza gdy takie roboty mają pewien stopień autonomicznych funkcji. Marynarka Wojenna Stanów Zjednoczonych sfinansowała raport, który wskazuje, że w miarę jak roboty wojskowe stają się coraz bardziej złożone, należy zwracać większą uwagę na implikacje ich zdolności do podejmowania autonomicznych decyzji. Prezes Stowarzyszenia na rzecz Rozwoju Sztucznej Inteligencji zlecił wykonanie badania, które ma na celu przyjrzenie się tej kwestii. Wskazują na programy takie jak Urządzenie Akwizycji Języka, które mogą naśladować ludzką interakcję.

Integracja sztucznej inteligencji ogólnej ze społeczeństwem

Przeprowadzono wstępne prace nad metodami integracji sztucznej inteligencji ogólnej (pełne czynniki etyczne, jak zdefiniowano powyżej) z istniejącymi ramami prawnymi i społecznymi. Podejścia koncentrowały się na rozważeniu ich sytuacji prawnej i praw.

Błąd uczenia maszynowego

Algorytmy Big Data i uczenia maszynowego stały się popularne w wielu branżach, w tym w reklamie online , ocenach kredytowych i wyrokach karnych, z obietnicą zapewnienia bardziej obiektywnych wyników opartych na danych, ale zostały zidentyfikowane jako potencjalne źródło utrwalania nierówności społecznych i dyskryminacji . Roku 2015 badania wykazały, że kobiety są mniej prawdopodobne, aby być pokazane wysokim dochodzie reklamy zadanie przez Google „s AdSense . Inne badanie wykazało, że usługa dostawy tego samego dnia Amazon została celowo niedostępna w czarnych dzielnicach. Zarówno Google, jak i Amazon nie były w stanie wyodrębnić tych wyników do jednego problemu, ale zamiast tego wyjaśniły, że wyniki były wynikiem zastosowanych algorytmów czarnej skrzynki .

System sądowniczy Stanów Zjednoczonych zaczął wykorzystywać oprogramowanie do ilościowej oceny ryzyka przy podejmowaniu decyzji związanych ze zwolnieniem osób za kaucją i skazaniem, aby być bardziej sprawiedliwym i zmniejszyć i tak już wysoką stopę pozbawienia wolności . Narzędzia te analizują między innymi historię kryminalną oskarżonego. W badaniu z udziałem 7000 osób aresztowanych w Broward County , Floryda , tylko 20% osób przewidywane do popełnienia przestępstwa przy użyciu powiatu oceny ryzyka system punktacji przystąpił do popełnienia przestępstwa. Raport ProPublica z 2016 r. przeanalizował oceny ryzyka recydywy obliczone za pomocą jednego z najczęściej używanych narzędzi, systemu Northpointe COMPAS , i przyjrzał się wynikom na przestrzeni dwóch lat. Raport wykazał, że tylko 61% osób uznanych za wysokiego ryzyka popełniało dodatkowe przestępstwa w trakcie. Raport zaznaczył również, że afroamerykańscy oskarżeni byli znacznie bardziej narażeni na otrzymanie wyników wysokiego ryzyka w porównaniu z białymi oskarżonymi.

W 2016 r. Grupa Robocza ds. Big Data Administracji Obamy – nadzorca różnych ram regulacyjnych dotyczących dużych zbiorów danych – opublikowała raporty argumentujące „potencjał kodowania dyskryminacji w zautomatyzowanych decyzjach” i wzywające do „równych szans w fazie projektowania” dla zastosowań takich jak kredyty. punktacja. Raporty zachęcają do dyskusji między decydentami politycznymi , obywatelami i naukowcami, ale uznają, że nie ma potencjalnego rozwiązania dla kodowania uprzedzeń i dyskryminacji w systemach algorytmicznych

Ramy i praktyki etyczne

Praktyki

W marcu 2018 r., starając się rozwiać rosnące obawy dotyczące wpływu uczenia maszynowego na prawa człowieka , Światowe Forum Ekonomiczne i Globalna Rada ds. Praw Człowieka opublikowały białą księgę ze szczegółowymi zaleceniami, jak najlepiej zapobiegać dyskryminacyjnym wynikom uczenia maszynowego. Światowe Forum Ekonomiczne opracowało cztery zalecenia oparte na Wytycznych ONZ dotyczących praw człowieka, które mają pomóc w rozwiązywaniu problemów związanych z dyskryminacją w uczeniu maszynowym i zapobieganiu im.

Rekomendacje Światowego Forum Ekonomicznego są następujące:

  1. Aktywna integracja: rozwój i projektowanie aplikacji uczenia maszynowego musi aktywnie poszukiwać różnorodności danych wejściowych, zwłaszcza norm i wartości określonych populacji, na które mają wpływ dane wyjściowe systemów sztucznej inteligencji
  2. Uczciwość: osoby zaangażowane w konceptualizowanie, opracowywanie i wdrażanie systemów uczenia maszynowego powinny rozważyć, która definicja uczciwości najlepiej pasuje do ich kontekstu i aplikacji, a także nadać jej priorytet w architekturze systemu uczenia maszynowego i jego metrykach oceny
  3. Prawo do zrozumienia: Zaangażowanie systemów uczenia maszynowego w podejmowanie decyzji, które ma wpływ na prawa jednostki, musi zostać ujawnione, a systemy muszą być w stanie przedstawić wyjaśnienie ich procesu decyzyjnego, które jest zrozumiałe dla użytkowników końcowych i możliwe do sprawdzenia przez kompetentny organ ludzki. Tam, gdzie jest to niemożliwe, a stawką są prawa, liderzy projektowania, wdrażania i regulacji technologii uczenia maszynowego muszą zakwestionować, czy należy z niej korzystać
  4. Dostęp do zadośćuczynienia: Liderzy, projektanci i programiści systemów uczenia maszynowego są odpowiedzialni za identyfikację potencjalnego negatywnego wpływu ich systemów na prawa człowieka. Muszą stworzyć widoczne możliwości zadośćuczynienia osobom dotkniętym rozbieżnymi skutkami oraz ustanowić procedury szybkiego dochodzenia roszczeń w przypadku wszelkich dyskryminujących wyników.

W styczniu 2020 r. Berkman Klein Center for Internet and Society Uniwersytetu Harvarda opublikował metabadanie 36 ważnych zestawów zasad dotyczących sztucznej inteligencji, określające osiem kluczowych tematów: prywatność, odpowiedzialność, bezpieczeństwo i ochrona, przejrzystość i możliwość wyjaśnienia, uczciwość i niedyskryminacja, ludzka kontrola technologii, odpowiedzialność zawodowa i promowanie wartości ludzkich. Podobne metabadanie przeprowadzili naukowcy ze Szwajcarskiego Federalnego Instytutu Technologii w Zurychu w 2019 roku.

Podejścia

Podjęto kilka prób uczynienia etyki obliczalnej, a przynajmniej formalnej . Natomiast Isaac Asimov „s etyka robotów zwykle nie są uważane za korzystne dla sztucznym środkiem moralnym, to badano czy Kanta imperatyw kategoryczny mogą być użyte. Zwrócono jednak uwagę, że wartość ludzka jest pod pewnymi względami bardzo złożona. Sposobem na jednoznaczne pokonanie tej trudności jest otrzymanie ludzkich wartości bezpośrednio od ludzi za pomocą jakiegoś mechanizmu, na przykład poprzez ich uczenie się.
Innym podejściem jest oparcie obecnych rozważań etycznych na wcześniejszych podobnych sytuacjach. Nazywa się to kazuistyką i może być wdrażane poprzez badania w Internecie. Konsensus z miliona wcześniejszych decyzji doprowadziłby do nowej decyzji, która jest zależna od demokracji. Może to jednak prowadzić do decyzji, które odzwierciedlają uprzedzenia i nieetyczne zachowania przejawiane w społeczeństwie. Negatywne skutki takiego podejścia można zaobserwować w Tay (bocie) Microsoftu , w którym czatbot nauczył się powtarzać rasistowskie i nacechowane seksualnie wiadomości wysyłane przez użytkowników Twittera.

Jeden z eksperymentów myślowych skupia się na dżinnym golemie z nieograniczonymi mocami prezentującym się czytelnikowi. Ten dżin deklaruje, że powróci za 50 lat i domaga się dostarczenia mu określonego zestawu moralności, zgodnie z którym natychmiast zacznie działać. Celem tego eksperymentu jest zainicjowanie dyskusji na temat tego, jak najlepiej poradzić sobie ze zdefiniowaniem pełnego zestawu etyki, który komputery mogą zrozumieć.

W fikcji

W science fiction filmy i powieści bawią się ideą świadomości w robotach i maszynach.

Chappie (2015) Neila Blomkampa odegrał scenariusz możliwości przeniesienia świadomości do komputera. Film Ex Machina (2014) Alexa Garlanda śledził androida ze sztuczną inteligencją przechodzącego odmianę testu Turinga , testu podawanego maszynie, aby sprawdzić, czy jej zachowanie można odróżnić od zachowania człowieka. Prace takie jak Terminator (1984) i Matryca (1999) zawierają koncepcję maszyn, które włączają swoich ludzkich mistrzów (patrz Sztuczna inteligencja ).

Isaac Asimov rozważał tę kwestię w latach pięćdziesiątych w I, Robot . Pod naciskiem swojego redaktora Johna W. Campbella Jr. zaproponował trzy prawa robotyki do zarządzania sztucznie inteligentnymi systemami. Znaczną część jego pracy poświęcił następnie na testowanie granic jego trzech praw, aby zobaczyć, gdzie się załamią lub gdzie wywołają paradoksalne lub nieoczekiwane zachowanie. Jego praca sugeruje, że żaden zestaw stałych praw nie jest w stanie wystarczająco przewidzieć wszystkich możliwych okoliczności. W powieści Philipa K. Dicka Czy androidy śnią o elektrycznych owcach? (1968) bada, co to znaczy być człowiekiem. W swoim postapokaliptycznym scenariuszu kwestionował, czy empatia jest cechą całkowicie ludzką. Jego historia jest podstawą filmu science fiction „ Łowca androidów” (1982).

Pola pokrewne

Zobacz też

Uwagi

Linki zewnętrzne

Bibliografia

  • Wallacha, Wendella; Allen, Colin (listopad 2008). Moralne maszyny: uczenie robotów od zła . USA: Oxford University Press .
  • Andersona, Michaela; Anderson, Susan Leigh, red. (lipiec 2011). Etyka maszynowa . Wydawnictwo Uniwersytetu Cambridge .
  • Storrs Hall, J. (30 maja 2007). Poza sztuczną inteligencją: tworzenie sumienia maszyny Księgi Prometeusza .
  • Moor, J. (2006). Natura, znaczenie i trudność etyki maszyn. Inteligentne systemy IEEE , 21(4), s. 18-21.
  • Anderson, M. i Anderson, S. (2007). Tworzenie etycznego inteligentnego agenta. Magazyn AI , tom 28(4).

Dalsza lektura