Superinteligencja: ścieżki, niebezpieczeństwa, strategieSuperintelligence: Paths, Dangers, Strategies

Superinteligencja:
ścieżki, niebezpieczeństwa, strategie
Superinteligencja.jpg
Pierwsza edycja
Autor Nick Bostrom
Kraj Zjednoczone Królestwo
Język język angielski
Podmiot Sztuczna inteligencja
Gatunek muzyczny Filozofia , popularnonaukowa
Wydawca Oxford University Press
Data publikacji
3 lipca 2014 (Wielka Brytania)
1 września 2014 (USA)
Typ mediów Druk, e-book, audiobook
Strony 352 s.
Numer ISBN 978-0199678112
Poprzedzony Globalne ryzyko katastroficzne 

Superintelligence: Paths, Dangers, Strategies to książka szwedzkiego filozofa Nicka Bostroma z Uniwersytetu Oksfordzkiego z 2014 roku. Twierdzi, że jeśli mózgi maszyn przewyższają ludzkie mózgi pod względem ogólnej inteligencji, ta nowa superinteligencja mogłaby zastąpić ludzi jako dominująca forma życia na Ziemi. Wystarczająco inteligentne maszyny mogłyby poprawić swoje własne możliwości szybciej niż naukowcy zajmujący się komputerami, a rezultatem może być egzystencjalna katastrofa dla ludzi.

Książka Bostroma została przetłumaczona na wiele języków.

Streszczenie

Nie wiadomo, czy sztuczna inteligencja na poziomie człowieka pojawi się w ciągu kilku lat, później w tym stuleciu, czy dopiero w przyszłych stuleciach. Bez względu na początkową skalę czasową, po opracowaniu inteligencji maszynowej na poziomie człowieka, „superinteligentny” system, który „znacznie przewyższa ludzkie zdolności poznawcze w praktycznie wszystkich dziedzinach zainteresowania”, najprawdopodobniej pojawi się zaskakująco szybko. Taka superinteligencja byłaby bardzo trudna do opanowania lub powstrzymania.

Podczas gdy ostateczne cele superinteligencji mogą się znacznie różnić, superinteligencja funkcjonalna będzie spontanicznie generować, jako naturalne cele podrzędne, „ cele instrumentalne ”, takie jak samozachowanie i integralność treści celu, wzmocnienie poznawcze i pozyskiwanie zasobów. Na przykład, agent, którego jedynym ostatecznym celem jest rozwiązanie hipotezy Riemanna (słynna nierozwiązana, matematyczna hipoteza ) może stworzyć i działać na podstawie podcelu przekształcenia całej Ziemi w jakąś formę komputronium (hipotetyczny materiał zoptymalizowany pod kątem obliczeń), aby pomóc w kalkulacja. Superinteligencja będzie aktywnie opierać się wszelkim zewnętrznym próbom wyłączenia superinteligencji lub w inny sposób uniemożliwienia jej realizacji. Aby zapobiec takiej egzystencjalnej katastrofie , konieczne jest skuteczne rozwiązanie „ problemu kontroli AI ” pierwszego superinteligencji. Rozwiązaniem może być zaszczepienie superinteligencji celów, które są zgodne z ludzkim przetrwaniem i dobrostanem. Rozwiązanie problemu sterowania jest zaskakująco trudne, ponieważ większość celów, po przełożeniu na kod możliwy do wdrożenia maszynowego, prowadzi do nieprzewidzianych i niepożądanych konsekwencji.

Sowa na okładce książki nawiązuje do analogii, którą Bostrom nazywa „Niedokończoną bajką o wróblach”. Grupa wróbli postanawia znaleźć pisklę sowy i wychować je jako sługę. Chętnie wyobrażają sobie „jak łatwe byłoby życie”, gdyby mieli sowę, która pomagała im budować gniazda, bronić wróbli i uwalniać je na spokojne życie. Wróble rozpoczynają trudne poszukiwania jaja sowy; tylko „Scronkfinkle”, „jednooki wróbel o niespokojnym temperamencie”, sugeruje zastanowienie się nad skomplikowanym pytaniem, jak oswoić sowę, zanim wprowadzi ją „do nas”. Inne wróble sprzeciwiają się; samo poszukiwanie jaja sowy będzie już wystarczająco trudne: „Dlaczego najpierw nie zdobyć sowy, a później dopracować drobnych szczegółów?” Bostrom stwierdza, że ​​„nie wiadomo, jak ta historia się kończy”, ale swoją książkę dedykuje Scronkfinkle.

Przyjęcie

Książka znalazła się na 17. miejscu listy najlepiej sprzedających się książek naukowych The New York Times w sierpniu 2014 r. W tym samym miesiącu magnat biznesowy Elon Musk trafił na pierwsze strony gazet, zgadzając się z książką, że sztuczna inteligencja jest potencjalnie bardziej niebezpieczna niż broń jądrowa. Prace Bostroma nad superinteligencją wpłynęły również na troskę Billa Gatesa o egzystencjalne ryzyko stojące przed ludzkością w nadchodzącym stuleciu. W wywiadzie udzielonym w marcu 2015 r. przez dyrektora generalnego Baidu , Robina Li , Gates powiedział, że „gorąco poleciłby” Superinteligencję . Według New Yorkera , filozofowie Peter Singer i Derek Parfit „przyjęli to jako ważne dzieło”.

Redaktor naukowy Financial Times odkrył, że pisarstwo Bostroma „czasami skręca w nieprzejrzysty język, który zdradza jego doświadczenie jako profesora filozofii”, ale przekonująco pokazuje, że ryzyko ze strony superinteligencji jest na tyle duże, że społeczeństwo powinno zacząć myśleć o sposobach wyposażenia przyszłości w inteligencję maszynową. z wartościami dodatnimi. Recenzja w The Guardian wskazała, że ​​„nawet najbardziej wyrafinowane maszyny stworzone do tej pory są inteligentne tylko w ograniczonym sensie” i że „oczekiwania, że ​​sztuczna inteligencja wkrótce przewyższy ludzką inteligencję, zostały po raz pierwszy rozwiane w latach 60.”, ale znajduje wspólny język z Bostromem. doradzając, że „nie radziłoby się całkowicie odrzucić tę możliwość”.

Niektórzy koledzy Bostroma sugerują, że wojna nuklearna stanowi większe zagrożenie dla ludzkości niż superinteligencja, podobnie jak przyszła perspektywa uzbrojenia nanotechnologii i biotechnologii . The Economist stwierdził, że „Bostrom jest zmuszony poświęcić większość książki na dyskutowanie spekulacji opartych na wiarygodnych przypuszczeniach… ale książka jest mimo wszystko cenna. nawet jeśli taka perspektywa wydaje się odległa”. Ronald Bailey napisał w libertarian Reason, że Bostrom mocno argumentuje, że rozwiązanie problemu kontroli sztucznej inteligencji jest „podstawowym zadaniem naszych czasów”. Według Toma Chiversa z The Daily Telegraph książka jest trudna do przeczytania, ale mimo to satysfakcjonująca. Recenzent w „ Journal of Experimental & Theoretical Artificial Intelligence” zerwał z innymi, stwierdzając, że „styl pisania jest jasny” i pochwalił książkę za unikanie „nadmiernie technicznego żargonu”. Recenzent w Philosophy uznał Superintelligence za „bardziej realistyczną” niż The Singularity Is Near Raya Kurzweila .

Zobacz też

Bibliografia