Instytut Przyszłości Ludzkości - Future of Humanity Institute

Instytut Przyszłości Ludzkości
Logo Instytutu Przyszłości Humanistyki
Logo Instytutu Przyszłości Humanistyki
Tworzenie 2005 ; 16 lat temu ( 2005 )
Cel, powód Zbadaj szeroko zakrojone pytania dotyczące ludzkości i jej perspektyw
Kwatera główna Oxford , Anglia
Dyrektor
Nick Bostrom
Organizacja nadrzędna
Wydział Filozofii , Uniwersytet Oksfordzki
Stronie internetowej fhi.ox.ac.uk

Future of Humanity Institute ( FHI ) to interdyscyplinarny ośrodek badawczy na Uniwersytecie Oksfordzkim bada duży obrazie pytań o ludzkości i jej perspektyw. Została założona w 2005 roku jako część Wydziału Filozoficznego i Oxford Martin School . Jej dyrektorem jest filozof Nick Bostrom , a jej personel badawczy i współpracownicy to futurysta Anders Sandberg , inżynier K. Eric Drexler , ekonomista Robin Hanson i założyciel Giving What We Can Toby Ord .

Dzielenie biura i ścisła współpraca z Centrum Skutecznego Altruizmu , deklarowanym celem Instytutu jest skoncentrowanie badań tam, gdzie mogą one w dłuższej perspektywie wywrzeć największe pozytywne zmiany dla ludzkości. Angażuje się w mieszankę działań akademickich i zewnętrznych, dążąc do promowania świadomej dyskusji i zaangażowania publicznego w rządzie, biznesie, uniwersytetach i innych organizacjach.

Historia

Nick Bostrom założył Instytut w listopadzie 2005 roku jako część Oxford Martin School, a następnie James Martin 21st Century School. W latach 2008-2010 FHI była gospodarzem konferencji Global Catastrophic Risks, napisała 22 artykuły w czasopismach naukowych i opublikowała 34 rozdziały w tomach akademickich. Badacze FHI byli wymieniani ponad 5000 razy w mediach i udzielali porad politycznych na Światowym Forum Ekonomicznym , sektorowi prywatnemu i non-profit (takim jak Fundacja Macarthur i Światowa Organizacja Zdrowia ), a także organom rządowym w Szwecji, Singapurze, Belgii, Wielkiej Brytanii i Stanach Zjednoczonych. Bostrom i bioetyk Julian Savulescu opublikowali również książkę Human Enhancement w marcu 2009 r. Ostatnio FHI skupiło się na zagrożeniach związanych z zaawansowaną sztuczną inteligencją (AI). W 2014 roku jego badacze opublikowali kilka książek na temat ryzyka AI, w tym Smarter Than Us Stuarta Armstronga i Superintelligence: Paths, Dangers, Strategies autorstwa Bostroma .

W 2018 r. Open Philanthropy Project zalecił FHI dotację w wysokości do około 13,4 miliona funtów w ciągu trzech lat, z dużą częścią uzależnioną od pomyślnego zatrudnienia.

Ryzyko egzystencjalne

Największym tematem, jaki FHI poświęcił czas na badanie, jest globalne ryzyko katastroficzne , aw szczególności ryzyko egzystencjalne. W artykule z 2002 r. Bostrom zdefiniował „ryzyko egzystencjalne” jako takie, „gdzie niekorzystny wynik albo unicestwia inteligentne życie pochodzące z Ziemi, albo trwale i drastycznie ogranicza jego potencjał”. Obejmuje to scenariusze, w których ludzkość nie jest bezpośrednio poszkodowana, ale nie kolonizuje przestrzeni kosmicznej i nie wykorzystuje dostępnych zasobów obserwowalnego wszechświata w projektach wartościowych dla człowieka, jak omówiono w artykule Bostroma z 2003 r. „Astronomical Waste: The Opportunity Cost of Delayed Technological Development”.

Książka Bostroma i Milana Ćirkovića z 2008 roku „ Globalne zagrożenia katastroficzne” zawiera eseje na temat różnych takich zagrożeń, zarówno naturalnych, jak i antropogenicznych. Możliwe katastrofalne zagrożenia ze strony natury obejmują superwulkanizm , uderzenia i energetyczne zdarzenia astronomiczne, takie jak rozbłyski gamma , promienie kosmiczne , rozbłyski słoneczne i supernowe . Zagrożenia te są charakteryzowane jako stosunkowo niewielkie i stosunkowo dobrze rozumiane, chociaż pandemie mogą stanowić wyjątek ze względu na ich częstsze występowanie i zazębianie się z trendami technologicznymi.

FHI zwraca większą uwagę na syntetyczne pandemie wywołane przez uzbrojone czynniki biologiczne . Wyniki technologiczne, którymi Instytut jest szczególnie zainteresowany, obejmują antropogeniczne zmiany klimatu , wojnę nuklearną i terroryzm nuklearny , nanotechnologię molekularną oraz sztuczną inteligencję ogólną . Spodziewając się, że największe zagrożenia będą wynikać z przyszłych technologii, a w szczególności z zaawansowanej sztucznej inteligencji, FHI zgadza się z innymi organizacjami ograniczającymi ryzyko egzystencjalne, takimi jak Centre for the Study of Existential Risk i Machine Intelligence Research Institute . Naukowcy z FHI zbadali również wpływ postępu technologicznego na zagrożenia społeczne i instytucjonalne, takie jak totalitaryzm , bezrobocie napędzane automatyzacją oraz zagrożenia informacyjne.

W 2020 roku starszy pracownik naukowy FHI, Toby Ord, opublikował książkę The Precipice: Existential Risk and the Future of Humanity , w której twierdzi, że ochrona przyszłości ludzkości jest jednym z najważniejszych problemów moralnych naszych czasów.

Rozumowanie antropiczne

FHI poświęca wiele uwagi egzotycznym zagrożeniom, które były słabo zbadane przez inne organizacje, oraz rozważaniom metodologicznym, które wpływają na ograniczanie i prognozowanie ryzyka egzystencjalnego. Instytut w swoich badaniach położył szczególny nacisk na rozumowanie antropiczne , jako obszar niedostatecznie zbadany o ogólnych implikacjach epistemologicznych.

Argumenty antropiczne badane przez FHI obejmują argument zagłady , który twierdzi, że ludzkość prawdopodobnie wkrótce wyginie, ponieważ jest mało prawdopodobne, aby ktoś zaobserwował bardzo wczesny moment w historii ludzkości. Zamiast tego dzisiejsi ludzie prawdopodobnie znajdą się w połowie rozmieszczenia ludzi, którzy kiedykolwiek będą żyć. Bostrom spopularyzował również argument dotyczący symulacji .

Powracającym tematem w badaniach FHI jest paradoks Fermiego , zaskakujący brak obserwowalnych obcych cywilizacji. Robin Hanson argumentował, że musi istnieć „ Wielki Filtr ” zapobiegający kolonizacji kosmosu, aby wyjaśnić ten paradoks. Ten filtr może leżeć w przeszłości, jeśli inteligencja jest znacznie rzadsza niż przewidywałaby współczesna biologia; lub może leżeć w przyszłości, jeśli ryzyko egzystencjalne jest nawet większe niż obecnie.

Wzmocnienie człowieka i racjonalność

Ściśle powiązana z pracą FHI nad oceną ryzyka, odpadami astronomicznymi i niebezpieczeństwami przyszłych technologii jest praca nad obietnicą i ryzykiem ulepszeń człowieka . Omawiane modyfikacje mogą być biologiczne, cyfrowe lub socjologiczne, a nacisk kładzie się na najbardziej radykalne, hipotetyczne zmiany, a nie na najbardziej prawdopodobne innowacje krótkoterminowe. FHI za bioetyka badania koncentrują się na potencjalnych skutkach terapii genowej , przedłużenie życia , implantów mózgowych i interfejsów mózg-komputer i transfer umysłu .

FHI koncentruje się na metodach oceny i wzmacniania ludzkiej inteligencji i racjonalności, jako sposobu kształtowania szybkości i kierunku postępu technologicznego i społecznego. Prace FHI nad ludzką irracjonalnością, których przykładem są heurystyki poznawcze i błędy systematyczne , obejmują stałą współpracę z Amlin w celu zbadania ryzyka systemowego wynikającego z błędów w modelowaniu.

Wybrane publikacje

  • Toby Ord : Przepaść: ryzyko egzystencjalne i przyszłość ludzkości , 2020. ISBN  1526600218
  • Nick Bostrom: Superinteligencja: ścieżki, zagrożenia, strategie , 2014. ISBN  0-415-93858-9
  • Nick Bostrom i Milan Cirkovic: Globalne zagrożenia katastroficzne , 2011. ISBN  978-0-19-857050-9
  • Nick Bostrom i Julian Savulescu: Human Enhancement , 2011. ISBN  0-19-929972-2
  • Nick Bostrom: Anthropic Bias: Efekty selekcji obserwacji w nauce i filozofii , 2010. ISBN  0-415-93858-9
  • Nick Bostrom i Anders Sandberg: Brain Emulation Roadmap , 2008.

Zobacz też

Bibliografia

Linki zewnętrzne