Instytut Badań Inteligencji Maszynowej - Machine Intelligence Research Institute

Instytut Badawczy Inteligencji Maszynowej
MIRI logo.png
Tworzenie 2000 ; 21 lat temu ( 2000 )
Rodzaj Instytut badawczy non-profit
Cel, powód Badania nad przyjazną sztuczną inteligencją i problemem kontroli AI
Lokalizacja
Kluczowi ludzie
Eliezer Judkowski
Strona internetowa inteligencja .org

Maszyna Intelligence Research Institute ( Miri ), dawniej Instytut Singularity Sztuczną Inteligencją ( Siai ) jest niedochodową instytut badawczy koncentruje się od 2005 roku na identyfikacji i zarządzania potencjalnych zagrożeń egzystencjalnych z silna sztuczna inteligencja . Prace MIRI koncentrowały się na przyjaznym podejściu AI do projektowania systemów i przewidywaniu tempa rozwoju technologii.

Historia

W 2000 roku Eliezer Yudkowsky założył Singularity Institute for Artificial Intelligence z funduszy Briana i Sabine Atkins w celu przyspieszenia rozwoju sztucznej inteligencji (AI). Yudkowsky zaczął się jednak obawiać, że opracowane w przyszłości systemy sztucznej inteligencji mogą stać się superinteligentne i stanowić zagrożenie dla ludzkości, a w 2005 roku instytut przeniósł się do Doliny Krzemowej i zaczął skupiać się na sposobach identyfikacji i zarządzania tymi zagrożeniami, które wówczas w dużej mierze ignorowane przez naukowców w tej dziedzinie.

Począwszy od 2006 r. Instytut zorganizował Singularity Summit, aby omówić przyszłość sztucznej inteligencji, w tym związane z nią zagrożenia, początkowo we współpracy z Uniwersytetem Stanforda i przy wsparciu finansowym Petera Thiela . The San Francisco Chronicle opisał pierwszą konferencję jako „imprezę wyjściową w Bay Area dla inspirowanej technologią filozofii zwanej transhumanizmem”. W 2011 roku jej biura składały się z czterech mieszkań w centrum Berkeley. W grudniu 2012 r. instytut sprzedał swoją nazwę, domenę internetową i Singularity Summit Singularity University , a w następnym miesiącu przyjął nazwę „Machine Intelligence Research Institute”.

W 2014 i 2015 r. wzrosło zainteresowanie opinii publicznej i naukowców zagrożeniami AI, zwiększając darowizny na finansowanie badań w MIRI i podobnych organizacjach.

W 2019 r. Open Philanthropy zarekomendowało MIRI ogólną dotację w wysokości około 2,1 miliona dolarów w ciągu dwóch lat. W kwietniu 2020 r. Open Philanthropy uzupełniło to grantem w wysokości 7,7 mln USD na okres dwóch lat.

W roku 2021 Vitalik Buterin zdobyłem kilka milionów dolarów warte Ethereum do Miri.

Badania i podejście

Nate Soares przedstawia przegląd problemu zestrojenia AI w Google .

Podejście MIRI do identyfikowania i zarządzania ryzykiem sztucznej inteligencji, kierowane przez Yudkowsky'ego, dotyczy przede wszystkim sposobu projektowania przyjaznej sztucznej inteligencji, obejmującego zarówno wstępny projekt systemów sztucznej inteligencji, jak i tworzenie mechanizmów zapewniających, że rozwijające się systemy sztucznej inteligencji pozostaną przyjazne.

Naukowcy MIRI opowiadają się za wczesną pracą w zakresie bezpieczeństwa jako środkiem zapobiegawczym. Jednak badacze MIRI wyrazili sceptycyzm wobec poglądów zwolenników osobliwości, takich jak Ray Kurzweil, że superinteligencja jest „tuż za rogiem”. MIRI sfinansowało prace prognostyczne w ramach inicjatywy o nazwie AI Impacts, która bada historyczne przypadki nieciągłych zmian technologicznych i opracowała nowe miary względnej mocy obliczeniowej ludzi i sprzętu komputerowego.

MIRI dostosowuje się do zasad i celów efektywnego ruchu altruistycznego .

Prace personelu MIRI

  • Groby, Mateusz (8 listopada 2017). „Dlaczego powinniśmy się martwić sztuczną superinteligencją” . Sceptyk . Towarzystwo Sceptyków . Źródło 28 lipca 2018 .
  • LaVictoire, Patrick; Fallenstein, Benja; Judkowski, Eliezer ; Barász, Mihály; Christiano, Paweł; Herreshoff, Marcello (2014). „Równowaga programowa w dylemacie więźnia poprzez twierdzenie Löba” . Interakcja wieloagentowa bez uprzedniej koordynacji: artykuły z warsztatów AAAI-14 . Publikacje AAAI.
  • Szybuje, Nate; Levinstein, Benjamin A. (2017). „Oszukiwanie śmierci w Damaszku” (PDF) . Formalne Warsztaty Epistemologiczne (FEW) . Źródło 28 lipca 2018 .
  • Szybuje, Nate; Fallenstein, Benja; Judkowski, Eliezer ; Armstrong, Stuart (2015). „Korytyfikowalność” . Warsztaty AAAI: Warsztaty na dwudziestej dziewiątej konferencji AAAI poświęconej sztucznej inteligencji, Austin, Teksas, 25–26 stycznia 2015 r . Publikacje AAAI.
  • Szybuje, Nate; Fallenstein, Benja (2015). „Wyrównywanie superinteligencji z ludzkich interesów: Agenda Badania techniczne” (PDF) . W Millerze, James; Jampolskiy, Roman; Armstronga, Stuarta; i in. (wyd.). Osobliwość technologiczna: zarządzanie podróżą . Skoczek.
  • Judkowski, Eliezer (2008). „Sztuczna inteligencja jako pozytywny i negatywny czynnik w globalnym ryzyku” (PDF) . W Bostrom, Nick ; Ćirković, Mediolan (red.). Globalne ryzyko katastroficzne . Oxford University Press. Numer ISBN 978-0199606504.
  • Taylor, Jessica (2016). „Kwantylizatory: bezpieczniejsza alternatywa dla maksymalizatorów dla ograniczonej optymalizacji” . Warsztaty na XXX Konferencji AAAI na temat Sztucznej Inteligencji .
  • Judkowski, Eliezer (2011). „Złożone systemy wartości w przyjaznej sztucznej inteligencji” (PDF) . Sztuczna inteligencja ogólna: 4. międzynarodowa konferencja, AGI 2011, Mountain View, CA, USA, 3–6 sierpnia 2011 r . Berlin: Springer.

Zobacz też

Bibliografia

Dalsza lektura

  • Russella, Stuarta; Deweya, Daniela; Tegmark, Max (zima 2015). „Priorytety badawcze dla solidnej i korzystnej sztucznej inteligencji”. Magazyn AI . 36 (4): 6. arXiv : 1602.03506 . Kod Bib : 2016arXiv160203506R .

Zewnętrzne linki