AI@50 - AI@50

AI@50 , formalnie znana jako „ Konferencja Dartmouth Artificial Intelligence: The Next Fifty Years ” (13-15 lipca 2006), była konferencją zorganizowaną przez Jamesa Moora , upamiętniającą 50. rocznicę warsztatów w Dartmouth, które skutecznie zainaugurowały historię sztuczna inteligencja . Pięciu z pierwotnych dziesięciu uczestników było obecnych: Marvin Minsky , Ray Solomonoff , Oliver Selfridge , Trenchard More i John McCarthy .

Sponsorowany przez Dartmouth College , General Electric i Frederick Whittemore Foundation , grant w wysokości 200 000 USD od Agencji Zaawansowanych Projektów Badawczych Obrony (DARPA) wymagał sporządzenia raportu z postępowania, który:

  • Przeanalizuj postępy w zakresie pierwotnych wyzwań związanych ze sztuczną inteligencją w ciągu pierwszych 50 lat i oceń, czy wyzwania były „łatwiejsze” lub „trudniejsze” niż pierwotnie sądzono i dlaczego
  • Dokumentuj, jakie zdaniem uczestników AI@50 są główne wyzwania badawczo-rozwojowe stojące przed tą dziedziną w ciągu najbliższych 50 lat i określ, jakie przełomy będą potrzebne, aby sprostać tym wyzwaniom
  • Powiąż te wyzwania i przełomy z rozwojem i trendami w innych dziedzinach, takich jak teoria sterowania, przetwarzanie sygnałów, teoria informacji, statystyka i teoria optymalizacji.

Sprawozdanie podsumowujące dyrektora konferencji, Jamesa Moora , zostało opublikowane w AI Magazine .

Program konferencji i linki do opublikowanych artykułów

AI: przeszłość, teraźniejszość, przyszłość

Przyszły model myślenia

Przyszłość modeli sieciowych

Przyszłość nauki i wyszukiwania

Przyszłość AI

Przyszłość wizji

  • Eric Grimson , Inteligentna analiza obrazu medycznego: chirurgia wspomagana komputerowo i monitorowanie chorób
  • Takeo Kanade , Wizja sztucznej inteligencji: postęp i brak postępu
  • Terry Sejnowski , Krytyka czystej wizji

Przyszłość rozumowania

  • Alan Bundy , Konstruowanie, wybieranie i naprawianie reprezentacji wiedzy
  • Edwina Rissland , Znakomita centralność przykładów
  • Bart Selman , Wyzwanie i obietnica zautomatyzowanego rozumowania

Przyszłość języka i poznania

  • Trenchard Więcej Narodziny teorii tablic i Nial
  • Eugene Charniak , Dlaczego przetwarzanie języka naturalnego jest obecnie przetwarzaniem języka naturalnego w statystyce
  • Pat Langley , Inteligentne zachowanie u ludzi i maszyn

Przyszłość przyszłości

AI i gry

Przyszłe interakcje z inteligentnymi maszynami

  • Daniela Rus , Czyniąc ciała inteligentnymi
  • Sherry Turkle , Od budowania inteligencji do pielęgnowania wrażliwości

Wybrane przesłane artykuły: Przyszłe strategie dla AI for

Wybrane zgłoszone artykuły: Przyszłe możliwości AI

Bibliografia

  1. ^ Nilsson, Nils J. (2009). W poszukiwaniu sztucznej inteligencji . Wydawnictwo Uniwersytetu Cambridge. Numer ISBN 978-0-521-12293-1. s. 80-81
  2. ^ Knapp, Susan (2006-07-06). "Dartmouth otrzymuje grant od DARPA na wsparcie konferencji AI@50" . Biuro Spraw Publicznych w Dartmouth College . Zarchiwizowane od oryginału w dniu 2010-06-07 . Źródło 2010-06-11 .
  3. ^ Moor, James (2006). „Konferencja na temat sztucznej inteligencji w Dartmouth College: następne pięćdziesiąt lat” (PDF) . Magazyn AI . 27 (4): 87–91. ISSN  0738-4602 .
  4. ^ Knapp, Susan (2006-07-24). „Sztuczna inteligencja: przeszłość, teraźniejszość i przyszłość” . Vox z Dartmouth . Źródło 2010-06-11 .
  5. ^ Russell, Stuart (2006-07-12). „Podejście nowoczesnej sztucznej inteligencji” . Zarchiwizowane z oryginału (PPT) dnia 2012-03-24 . Źródło 2010-06-11 .
  6. ^ Solomonoff, Ray J. (2006). „Uczenie maszynowe – przeszłość i przyszłość” (PDF) . Źródło 2008-07-25 .
  7. ^ Langley, Pat (2006). „Inteligentne zachowanie u ludzi i maszyn” (PDF) . Źródło 2008-07-25 .
  8. ^ Kurzweil, Ray (14 lipca 2006). „Dlaczego możemy być pewni możliwości testu Turinga w ciągu ćwierć wieku” . Zarchiwizowane z oryginału w dniu 10 sierpnia 2006 . Pobrano 25 lipca 2006 .
  9. ^ Hall, J. Stoors (2007). „Samodoskonalenie AI: analiza”. Umysły i maszyny . 17 (3): 249–259. doi : 10.1007/s11023-007-9065-3 . Samodoskonalenie było jednym z aspektów sztucznej inteligencji zaproponowanej do badania na konferencji w Dartmouth w 1956 roku. Turing zaproponował „maszynę dziecięcą”, której można by nauczyć na ludzki sposób, aby osiągnąć inteligencję na poziomie dorosłego człowieka. W ostatnich dniach twierdzenie, że system sztucznej inteligencji można zbudować, aby uczyć się i doskonalić w nieskończoność, zyskało etykietę błędu bootstrap. Próby wdrożenia takiego systemu w AI od pół wieku spotykają się z ciągłym niepowodzeniem. Optymiści technologiczni utrzymują jednak, że taki system jest możliwy, wytwarzając, jeśli zostanie wdrożony, pętlę sprzężenia zwrotnego, która doprowadziłaby do szybkiego wykładniczego wzrostu inteligencji. Badamy argumenty dla obu stanowisk i wyciągamy wnioski. Self-archiwum zarchiwizowanych 2010-02-15 w Wayback Maszynie
  10. ^ Bringsjord, Selmer (grudzień 2008). „Manifest Logisty: W końcu niech oparta na logice sztuczna inteligencja stanie się polem samym w sobie” . Dziennik Logiki Stosowanej . 6 (4): 502–525. doi : 10.1016/j.jal.2008.09.001 . Ten artykuł jest trwałym argumentem za poglądem, że sztuczna inteligencja oparta na logice powinna stać się samodzielną dziedziną, całkowicie oddzieloną od paradygmatów, które obecnie są nadal objęte „paradygmatem” AI – paradygmatów, takich jak koneksjonizm i podejście systemów ciągłych. Artykuł zawiera samodzielne podsumowanie sztucznej inteligencji opartej na logice, a także odrzucenie szeregu zarzutów, które nieuchronnie zostaną wniesione przeciwko wyrażonej tu deklaracji niezależności.Samoarchiwizacja
  11. ^ Müller, Vincent C. (marzec 2007). „Czy istnieje przyszłość dla AI bez reprezentacji?”. Umysły i maszyny . 17 (1): 101–115. doi : 10.1007/s11023-007-9067-1 . Niniejszy artykuł bada perspektywy propozycji Rodneya Brooksa dotyczącej sztucznej inteligencji bez reprezentacji. Okazuje się, że rzekomo charakterystyczne cechy „nowej sztucznej inteligencji” (ucieleśnienie, usytuowanie, brak rozumowania i brak reprezentacji) są obecne w konwencjonalnych systemach: „Nowa sztuczna inteligencja” jest jak stara sztuczna inteligencja. Propozycja Brooksa sprowadza się do architektonicznego odrzucenia centralnego sterowania inteligentnymi agentami, co jednak okazuje się kluczowe. Niektóre nowsze kognitywistyki sugerują, że dobrze byłoby pozbywać się obrazu inteligentnych agentów jako centralnych procesorów reprezentacji. Jeśli ta zmiana paradygmatu zostanie osiągnięta, propozycja Brooksa dotycząca poznania bez reprezentacji wydaje się obiecująca dla w pełni rozwiniętych inteligentnych agentów – choć nie dla świadomych agentów. Self-archiwum zarchiwizowanych 2009-11-17 w Wayback Maszynie
  12. ^ Thorisson, Kristinn R. (marzec 2007). „Zintegrowane systemy sztucznej inteligencji”. Umysły i maszyny . 17 (1): 11–25. doi : 10.1007/s11023-007-9055-5 . Szeroki zakres zdolności wykazywanych przez ludzi i zwierzęta jest osiągany dzięki szerokiemu zestawowi heterogenicznych, ściśle zintegrowanych mechanizmów poznawczych. Aby przybliżyć sztuczne systemy do takiej inteligencji ogólnego przeznaczenia, nie możemy uniknąć replikacji pewnego podzbioru — całkiem możliwego znacznej części — tego dużego zestawu. Postęp w tym kierunku wymaga, aby integracja systemów była traktowana poważniej jako podstawowy problem badawczy. W tym artykule przedstawiam argument, że inteligencję należy badać całościowo. Przedstawiam kluczowe kwestie, które należy rozwiązać w obszarze integracji i proponuję rozwiązania przyspieszające tempo postępu w kierunku bardziej wydajnych, zintegrowanych systemów AI, w tym (a) narzędzia do budowy dużych, złożonych architektur, (b) metodologię projektowania budynków systemy sztucznej inteligencji w czasie rzeczywistym oraz (c) metody ułatwiające współdzielenie kodu na poziomie społeczności.
  13. ^ Steinhart, Eric (październik 2007). „Przetrwanie jako cyfrowy duch”. Umysły i maszyny . 17 (3): 261–271. doi : 10.1007/s11023-007-9068-0 . Możesz przeżyć po śmierci w różnego rodzaju artefaktach. Możesz przetrwać w pamiętnikach, zdjęciach, nagraniach dźwiękowych i filmach. Ale te artefakty rejestrują tylko powierzchowne cechy ciebie. Jesteśmy już blisko budowy programów, które częściowo iw przybliżeniu replikują całe ludzkie życie (poprzez przechowywanie ich wspomnień i powielanie ich osobowości). Cyfrowy duch to sztucznie inteligentny program, który wie wszystko o Twoim życiu. To animowana autobiografia. Replikuje twoje wzorce wiary i pragnienia. Możesz przeżyć po śmierci w cyfrowym duchu. Omawiamy serię cyfrowych duchów w ciągu najbliższych 50 lat. W miarę upływu czasu i postępu technologicznego stają się one coraz doskonalszymi replikami życia swoich oryginalnych autorów.
  14. ^ Schmidt, Colin TA (październik 2007). „Dzieci, roboty i… rola rodzicielska”. Umysły i maszyny . 17 (3): 273–286. doi : 10.1007/s11023-007-9069-z . Racją bytu tego artykułu jest to, że wielu bystrych analityków prac nad inteligentnym przetwarzaniem i robotyką nie dostrzega sedna dotyczącego rozwoju aplikacji, czyli wyrażenia ich ostatecznego celu. Ewentualnie nie określają tego w sposób odpowiedni dla mniej poinformowanych opinii publicznej. Autor nie twierdzi, że jest w stanie temu zaradzić. Zamiast tego wizjonerskie badanie zaoferowało parom uczenie się i korzystanie z innych powiązanych dziedzin w ramach większego widma, aby w pełni symulować ludzi na ich ucieleśnionym obrazie. Po raz pierwszy kwestionowane są role społeczne przypisywane wytwarzanym obiektom technicznym, i to z humorystyczną ilustracją.
  15. ^ Anderson, Michael; Susan Leigh Anderson (marzec 2007). „Stan etyki maszynowej: relacja z Sympozjum AAAI”. Umysły i maszyny . 17 (1): 1–10. doi : 10.1007/s11023-007-9053-7 . Niniejszy artykuł jest podsumowaniem i oceną prac przedstawionych na jesiennym sympozjum AAAI 2005 poświęconym etyce maszyn, które zgromadziło uczestników z dziedzin informatyki i filozofii w celu wyjaśnienia natury tej nowo powstającej dziedziny i omówienia różnych podejść, które można zastosować. w kierunku realizacji ostatecznego celu, jakim jest stworzenie etycznej maszyny.
  16. ^ Guarini, Marcello (marzec 2007). „Obliczenia, spójność i rozumowanie etyczne”. Umysły i maszyny . 17 (1): 27–46. doi : 10.1007/s11023-007-9056-4 . Teorie rozumowania moralnego i ogólniej praktycznego czasami odwołują się do pojęcia koherencji. Co godne podziwu, Paul Thagard próbował przedstawić obliczeniowo szczegółowy opis rodzaju spójności występującej w praktycznym rozumowaniu, twierdząc, że pomoże ona przezwyciężyć problemy w fundamentalistycznych podejściach do etyki. Przedstawione tu argumenty obalają rzekomą rolę spójności w praktycznym rozumowaniu popieraną przez Thagarda. Chociaż z poprzedniego można wyciągnąć pewne ogólne wnioski, nie podejmuje się żadnej próby argumentowania przeciwko wszelkim formom spójności we wszystkich kontekstach. Nie kwestionuje się również użyteczności modelowania obliczeniowego. Chodzi o to, że spójność nie może być tak użyteczna w zrozumieniu rozumowania moralnego, jak mogą sądzić koherentniści. Wynik ten ma wyraźne implikacje dla przyszłości etyki maszyn, nowo powstającej poddziedziny sztucznej inteligencji.

Linki zewnętrzne

Uwagi i komentarze

Blogerka konferencyjna Meg Houston Maker zapewniła relację z konferencji, w tym wpisy na temat: