Nao (robot) - Nao (robot)

NAO
Robot Nao (Robocup 2016).jpg
Robocup, 2016
Producent SoftBank Robotics (wcześniej Aldebaran Robotics)
Kraj Francja
Rok powstania 2008 (pierwsza wersja publiczna)
Rodzaj Robot humanoidalny
Cel, powód Badania, edukacja i rozrywka
(wideo) Robot Nao w Fêtons Linux w Genewie , Szwajcaria , w październiku 2011 r.
Roboty Nao w symulacji piłki nożnej Webots RoboCup .

NAO (wymawiane teraz ) to autonomiczny, programowalny robot humanoidalny opracowany przez Aldebaran Robotics, francuską firmę robotyczną z siedzibą w Paryżu , która została przejęta przez SoftBank Group w 2015 roku i przemianowana na SoftBank Robotics . Prace nad robotem rozpoczęły się wraz z uruchomieniem projektu Nao w 2004 roku. 15 sierpnia 2007 roku Nao zastąpił robota psa Aibo firmy Sony jako robota używanego w RoboCup Standard Platform League (SPL) , międzynarodowych zawodach piłkarskich robotów . Nao został użyty w RoboCup 2008 i 2009, a NaoV3R został wybrany jako platforma dla SPL podczas RoboCup 2010.

Kilka wersji robota zostało wydanych od 2008 roku. Nao Academics Edition został opracowany dla uniwersytetów i laboratoriów w celach badawczych i edukacyjnych. Został wydany instytucjom w 2008 r. i został udostępniony publicznie do 2011 r. Od tego czasu wydano różne aktualizacje platformy Nao, w tym Nao Next Gen z 2011 r. i Nao Evolution z 2014 r.

Roboty Nao są wykorzystywane do celów badawczych i edukacyjnych w wielu instytucjach akademickich na całym świecie. Od 2015 roku ponad 5000 jednostek Nao jest używanych w ponad 50 krajach.

Historia rozwoju

Firma Aldebaran Robotics została założona w 2005 r. przez Bruno Maisonniera, który w 2004 r. rozpoczął prace nad robotem w ramach „Projektu Nao”. W latach 2005-2007 zaprojektowano sześć prototypów Nao. W marcu 2008 r. powstała pierwsza wersja produkcyjna robota, Nao RoboCup Edition został wydany uczestnikom tegorocznego RoboCup. Nao Academics Edition została udostępniona uniwersytetom, instytucjom edukacyjnym i laboratoriom badawczym pod koniec 2008 roku.

Latem 2010 roku Nao trafił na pierwsze strony gazet dzięki zsynchronizowanemu układowi tanecznemu na Shanghai Expo w Chinach . W październiku 2010 roku Uniwersytet Tokijski zakupił 30 robotów Nao do swojego laboratorium Nakamura, mając nadzieję na przekształcenie robotów w aktywnych asystentów laboratoryjnych. W grudniu 2010 r. zademonstrowano robota Nao wykonującego stand-up , a także wypuszczono nową wersję robota z wyrzeźbionymi ramionami i ulepszonymi silnikami. W maju 2011 roku Aldebaran ogłosił, że udostępni publicznie kontrolujący kod źródłowy Nao jako oprogramowanie open source . W czerwcu 2011 roku Aldebaran zebrał 13 milionów USD w ramach rundy finansowania venture prowadzonej przez Intel Capital. W 2013 roku Aldebaran został przejęty przez japoński SoftBank Mobile za 100 mln USD.

W grudniu 2011 r. Aldebaran wypuścił Nao Next Gen, wyposażony w ulepszenia sprzętowe i programowe, takie jak kamery o wysokiej gęstości, ulepszona wytrzymałość, systemy antykolizyjne i większa prędkość chodzenia. Nao Evolution, charakteryzujący się zwiększoną wytrzymałością, ulepszoną wielojęzyczną syntezą mowy, ulepszonym wykrywaniem kształtu i twarzy oraz rozpoznawaniem przy użyciu nowych algorytmów oraz ulepszoną lokalizacją źródła dźwięku za pomocą czterech mikrofonów kierunkowych, został wydany w czerwcu 2014 r.

Aldeberan Robotics został przejęty przez Grupę SoftBank w 2015 roku i przemianowany na SoftBank Robotics.

Zastosowanie akademickie i naukowe

Od 2011 roku z robota korzysta ponad 200 instytucji akademickich na całym świecie, w tym University of Hertfordshire i ich zespół Bold Hearts RoboCup , Indyjski Instytut Technologii Informacyjnych w Allahabad , Uniwersytet w Tokio , Indyjski Instytut Technologiczny Kanpur , Arabia Saudyjska „s Uniwersytet Przemysłu Naftowego i Minerałów , University of South Wales i Montana State University . W 2012 roku podarowane roboty Nao zostały wykorzystane do nauczania dzieci autystycznych w brytyjskiej szkole; niektóre dzieci uznały, że dziecięce, ekspresyjne roboty są bardziej zbliżone do ludzi niż ludzie. W szerszym kontekście, roboty Nao były wykorzystywane przez wiele brytyjskich szkół, aby zapoznać dzieci z robotami i branżą robotyczną.

Do końca 2014 r. ponad 5000 robotów Nao było używanych w instytucjach edukacyjnych i badawczych w 70 krajach. W 2015 roku Mitsubishi UFJ Financial Group rozpoczęła testy robotów Nao do obsługi klienta w oddziałach japońskich banków. W lipcu 2015 r. roboty Nao zademonstrowały podstawową formę samoświadomości w filozoficznym eksperymencie w Rensselaer Polytechnic Institute w Nowym Jorku, w którym ustawiono trzy roboty, wyciszając dwa z nich; Następnie powiedziano im, że dwoje z nich otrzymało „pigułkę ogłupiającą” i poproszono o ustalenie, który z nich nie. Po początkowej odpowiedzi, której nie wiedział, niewytłumiony robot zorientował się, że nie otrzymał pigułki ogłuszającej po usłyszeniu dźwięku własnego głosu. We wrześniu 2015 r. Francuski Instytut Zdrowia i Badań Medycznych wykorzystał roboty Nao do przetestowania systemu robotycznej „pamięci autobiograficznej” zaprojektowanej do pomocy w szkoleniu załóg Międzynarodowej Stacji Kosmicznej i pomocy starszym pacjentom.

Nao jest dostępny jako robot badawczy dla szkół, kolegiów i uniwersytetów, aby uczyć programowania i prowadzić badania interakcji człowiek-robot.

W sierpniu 2018 r. RobotLAB udostępnił internetową platformę edukacyjną dla szkół, która zwiększa wykorzystanie NAO w zakresie STEM, kodowania i inżynierii.

Korzystanie z opieki zdrowotnej

Od czasu wydania w 2004 r. Nao był testowany i wdrażany w wielu scenariuszach opieki zdrowotnej, w tym w domach opieki i szkołach.

Projekt

Różne wersje platformy robotycznej Nao mają 2, 14, 21 lub 25 stopni swobody (DoF). Specjalistyczny model z 21 DoF i bez aktywowanych rąk został stworzony na zawody Robocup. Wszystkie wersje Nao Academics są wyposażone w bezwładnościową jednostkę pomiarową z akcelerometrem , żyrometrem i czterema czujnikami ultradźwiękowymi, które zapewniają Nao stabilność i pozycjonowanie w przestrzeni. Wersje na nogach zawierały osiem rezystorów wykrywających siłę i dwa zderzaki. Model Nao Evolution z 2014 r. cechował się mocniejszymi metalowymi przegubami, lepszym uchwytem i ulepszonym systemem lokalizacji źródła dźwięku, który wykorzystuje cztery mikrofony kierunkowe. Najnowsza wersja, nazwana NAO6, została wprowadzona w czerwcu 2018 roku.

Oprogramowanie

Robot Nao jest kontrolowany przez wyspecjalizowany system operacyjny oparty na Linuksie , nazwany NAOqi. System operacyjny zasila system multimedialny robota, w skład którego wchodzą cztery mikrofony (do rozpoznawania głosu i lokalizacji dźwięku ), dwa głośniki (do wielojęzycznej syntezy tekstu na mowę ) oraz dwie kamery HD (do widzenia komputerowego , w tym rozpoznawania twarzy i kształtów). Robot jest również dostarczany z pakietem oprogramowania, który zawiera graficzne narzędzie programistyczne o nazwie Choregraphe , pakiet oprogramowania symulacyjnego oraz zestaw dla programistów . Nao jest ponadto kompatybilny z Microsoft Robotics Studio , Cyberbotics Webots i Gostai Studio ( URBI ).

W sierpniu 2018 r. RobotLAB wydało Engage! K12. Jest to internetowa platforma edukacyjna dla szkół, która zwiększa wykorzystanie NAO w zakresie przedmiotów ścisłych, kodowania i inżynierii. W lutym 2018 r. fińska firma Utelias Technologies wydała Elias Robot, aplikację edukacyjną, która pomaga uczyć się języków z NAO.


Specyfikacje

Wersja robota Nao V3+ (2008) Nao V3.2 (2009) Nao V3.3 (2010) Nao nowej generacji (V4) (2011) Ewolucja Nao (V5) (2014) Nao Power 6 (V6) (2018)
Wzrost 573,2 mm (22,57 cala) 573 milimetry (22,6 cala) 574 milimetry (22,6 cala)
Głębokość 290 milimetrów (11 cali) 311 milimetrów (12,2 cala)
Szerokość 273,3 milimetrów (10,76 cala) 275 milimetrów (10,8 cala)
Waga 4,836 kg (10,66 funta) 4,996 kg (11,01 funta) 5,1825 kg (11,425 funtów) 5305 kilogramów (11,70 funta) 5,48 kg (12,1 funta)
Zasilacz bateria litowa zapewniająca 27,6 Wh przy 21,6 V bateria litowa zapewniająca 48,6 Wh przy 21,6 V bateria litowa zapewniająca 62,5 Wh przy 21,6 V
Autonomia 60 minut (aktywne użytkowanie) 90 minut (aktywne użytkowanie)
Stopnie swobody 25
procesor x86 AMD GEODE 500 MHz Intel Atom Z530 @ 1,6 GHz Czterordzeniowy procesor Intel Atom E3845 @ 1,91 GHz
Baran 256 MB 1 GB 4 GB pamięci DDR3
Składowanie 2 GB pamięci Flash 2 GB pamięci Flash + 8 GB Micro SDHC Dysk SSD 32 GB
Wbudowany system operacyjny OpenNAO 1.6 (oparty na OpenEmbedded) OpenNAO 1.8 (oparty na OpenEmbedded) OpenNAO 1.10 (oparty na OpenEmbedded) OpenNAO 1.12 (oparty na gentoo) NAOqi 2.1 (oparty na gentoo) NAOqi 2.8 (oparty na openembedded)
Zgodny system operacyjny Windows , Mac OS , Linux
Języki programowania C++ , Python , Java , MATLAB , Urbi , C , .Net
Środowisko symulacyjne Weboty
Kamery Dwie kamery OV7670 58°DFOV Dwie kamery MT9M114 72,6°DFOV Dwie kamery HD OV5640 67,4°DFOV
Czujniki 36 MRE (Magnetic Rotary Encoders) wykorzystujące technologię czujników z efektem Halla. 12-bitowa precyzja, tj. 4096 wartości na obrót, co odpowiada około 0,1° precyzji

2 x żyrometr 1 oś

1 x akcelerometr 3 osi

8 x FSR Force (wrażliwe rezystory).

2 x zderzaki umieszczone na czubku każdej stopy. Są to proste przełączniki ON/OFF. Nie ma różnicy między pchnięciem na lewą czy prawą stopę.

Sonar: 2 nadajniki, 2 odbiorniki. Częstotliwość: 40kHz. Czułość: -86dB. Rozdzielczość: 10mm. Zasięg wykrywania: 0,25 - 2,55 m. Stożek efektywny: 60°.

2 x I/R. Długość fali = 940 nm. Kąt emisji = +/- 60°. Moc =8 mW/sr

4 mikrofony: Czułość: -40 +/- 3 dB Zakres częstotliwości: 20 Hz-20 kHz Stosunek sygnał/szum: 58 dBA

2 x kamera: OV7670 VGA (640x480), 30 kl./s. Zakres ostrości: 30 cm - nieskończoność. 58° przekątne pole widzenia (47,8° w poziomie FOV, 36,8° w pionie FOV)

Czujnik pojemnościowy

36 x MRE (Magnetic Rotary Encoders) wykorzystujące technologię czujnika Halla. 12-bitowa precyzja, tj. 4096 wartości na obrót, co odpowiada około 0,1° precyzji

2 x żyrometr 1 oś

1 x akcelerometr 3 osi

8 x FSR (rezystory wrażliwe na siłę).

2 x zderzaki umieszczone na czubku każdej stopy. Są to proste przełączniki ON/OFF. Nie ma różnicy między pchnięciem na lewą czy prawą stopę.

Sonar: 2 nadajniki, 2 odbiorniki. Częstotliwość: 40kHz. Czułość: -86dB. Rozdzielczość: 10mm. Zasięg wykrywania: 0,25 - 2,55 m. Stożek efektywny: 60°.

2 x I/R. Długość fali = 940 nm. Kąt emisji = +/- 60°. Moc =8 mW/sr

4 mikrofony: Czułość: -40 +/- 3 dB Zakres częstotliwości: 20 Hz-20 kHz Stosunek sygnał/szum: 58 dBA

2 x Aparat: MT9M114 960p(1280x960), 30fps Zakres ostrości: 30 cm - nieskończoność. Pole widzenia 72,6° po przekątnej (60,9° w poziomie FOV, 47,6° w pionie)

Czujnik pojemnościowy

36 x MRE (Magnetic Rotary Encoders) wykorzystujące technologię czujnika Halla. 12-bitowa precyzja, tj. 4096 wartości na obrót, co odpowiada około 0,1° precyzji

żyrometr 3-osiowy

akcelerometr 3-osiowy

8 x FSR (rezystory wrażliwe na siłę).

2 x zderzaki umieszczone na czubku każdej stopy. Są to proste przełączniki ON/OFF. Nie ma różnicy między pchnięciem na lewą czy prawą stopę.

Sonar: 2 nadajniki, 2 odbiorniki. Częstotliwość: 40kHz Rozdzielczość: 1cm-4cm (w zależności od odległości) Zasięg wykrywania: 0,20m - 3m Efektywny stożek: 60°

2 x I/R. Długość fali = 940 nm. Kąt emisji = +/- 60°. Moc =8 mW/sr

Mikrofony x4 na głowie Czułość 20mV/Pa +/-3dB przy 1KHz Zakres częstotliwości od 150Hz do 12kHz

2 x Aparat: MT9M114 960p(1280x960), 30fps Zakres ostrości: 30 cm - nieskończoność. Pole widzenia 72,6° po przekątnej (60,9° w poziomie FOV, 47,6° w pionie)

Czujnik pojemnościowy

36 x MRE (Magnetic Rotary Encoders) wykorzystujące technologię czujnika Halla. 12-bitowa precyzja, tj. 4096 wartości na obrót, co odpowiada około 0,1° precyzji

żyrometr 3-osiowy

akcelerometr 3-osiowy

8 x FSR (rezystory wrażliwe na siłę).

2 x zderzaki umieszczone na czubku każdej stopy. Są to proste przełączniki ON/OFF. Nie ma różnicy między pchnięciem na lewą czy prawą stopę.

Sonar: 2 nadajniki, 2 odbiorniki. Częstotliwość: 40kHz Rozdzielczość: 1cm-4cm (w zależności od odległości) Zasięg wykrywania: 0,20 m - 3 m Efektywny stożek: 60°

2 x I/R. Długość fali = 940 nm. Kąt emisji = +/- 60°. Moc =8 mW/sr

4 mikrofony dookólne. Specyfikacja. Czułość: 250mV/Pa +/-3dB przy 1kHz Częstotliwość: zakres 100Hz do 10kHz (-10dB w stosunku do 1kHz)

2 x kamera: Dane techniczne Model kamery OV5640 Typ System-on-a-chip (SoC) Czujnik obrazu CMOS Rozdzielczość matrycy obrazowania 5 Mp Format optyczny 1/4 cala Aktywne piksele (HxV) 2592x1944 Czułość Rozmiar piksela 1,4 µm*1,4 µm Zakres dynamiczny 68 dB@ Wzmocnienie 8x Stosunek sygnał/szum (maks.) 36dB (maks.) Czułość 600 mV/Lux-sec Wyjście Wyjście kamery 640*480@30fps lub 2560*1920@1fps Format danych YUV i RGB Typ migawki Roleta Widok Pole widzenia 67,4°DFOV (56,3°HFOV,43,7°VFOV) Typ ostrości Autofokus

Czujnik pojemnościowy

Łączność Ethernet , Wi-Fi IEEE 802.11 a/b/g Ethernet , Wi-Fi IEEE 802.11 a/b/g/n

Zobacz też

Powiązany rozwój

Roboty o porównywalnej roli, konfiguracji, wymiarach i epoce

Bibliografia

Zewnętrzne linki