Nao (robot) - Nao (robot)
Producent | SoftBank Robotics (wcześniej Aldebaran Robotics) |
---|---|
Kraj | Francja |
Rok powstania | 2008 (pierwsza wersja publiczna) |
Rodzaj | Robot humanoidalny |
Cel, powód | Badania, edukacja i rozrywka |
NAO (wymawiane teraz ) to autonomiczny, programowalny robot humanoidalny opracowany przez Aldebaran Robotics, francuską firmę robotyczną z siedzibą w Paryżu , która została przejęta przez SoftBank Group w 2015 roku i przemianowana na SoftBank Robotics . Prace nad robotem rozpoczęły się wraz z uruchomieniem projektu Nao w 2004 roku. 15 sierpnia 2007 roku Nao zastąpił robota psa Aibo firmy Sony jako robota używanego w RoboCup Standard Platform League (SPL) , międzynarodowych zawodach piłkarskich robotów . Nao został użyty w RoboCup 2008 i 2009, a NaoV3R został wybrany jako platforma dla SPL podczas RoboCup 2010.
Kilka wersji robota zostało wydanych od 2008 roku. Nao Academics Edition został opracowany dla uniwersytetów i laboratoriów w celach badawczych i edukacyjnych. Został wydany instytucjom w 2008 r. i został udostępniony publicznie do 2011 r. Od tego czasu wydano różne aktualizacje platformy Nao, w tym Nao Next Gen z 2011 r. i Nao Evolution z 2014 r.
Roboty Nao są wykorzystywane do celów badawczych i edukacyjnych w wielu instytucjach akademickich na całym świecie. Od 2015 roku ponad 5000 jednostek Nao jest używanych w ponad 50 krajach.
Historia rozwoju
Firma Aldebaran Robotics została założona w 2005 r. przez Bruno Maisonniera, który w 2004 r. rozpoczął prace nad robotem w ramach „Projektu Nao”. W latach 2005-2007 zaprojektowano sześć prototypów Nao. W marcu 2008 r. powstała pierwsza wersja produkcyjna robota, Nao RoboCup Edition został wydany uczestnikom tegorocznego RoboCup. Nao Academics Edition została udostępniona uniwersytetom, instytucjom edukacyjnym i laboratoriom badawczym pod koniec 2008 roku.
Latem 2010 roku Nao trafił na pierwsze strony gazet dzięki zsynchronizowanemu układowi tanecznemu na Shanghai Expo w Chinach . W październiku 2010 roku Uniwersytet Tokijski zakupił 30 robotów Nao do swojego laboratorium Nakamura, mając nadzieję na przekształcenie robotów w aktywnych asystentów laboratoryjnych. W grudniu 2010 r. zademonstrowano robota Nao wykonującego stand-up , a także wypuszczono nową wersję robota z wyrzeźbionymi ramionami i ulepszonymi silnikami. W maju 2011 roku Aldebaran ogłosił, że udostępni publicznie kontrolujący kod źródłowy Nao jako oprogramowanie open source . W czerwcu 2011 roku Aldebaran zebrał 13 milionów USD w ramach rundy finansowania venture prowadzonej przez Intel Capital. W 2013 roku Aldebaran został przejęty przez japoński SoftBank Mobile za 100 mln USD.
W grudniu 2011 r. Aldebaran wypuścił Nao Next Gen, wyposażony w ulepszenia sprzętowe i programowe, takie jak kamery o wysokiej gęstości, ulepszona wytrzymałość, systemy antykolizyjne i większa prędkość chodzenia. Nao Evolution, charakteryzujący się zwiększoną wytrzymałością, ulepszoną wielojęzyczną syntezą mowy, ulepszonym wykrywaniem kształtu i twarzy oraz rozpoznawaniem przy użyciu nowych algorytmów oraz ulepszoną lokalizacją źródła dźwięku za pomocą czterech mikrofonów kierunkowych, został wydany w czerwcu 2014 r.
Aldeberan Robotics został przejęty przez Grupę SoftBank w 2015 roku i przemianowany na SoftBank Robotics.
Zastosowanie akademickie i naukowe
Od 2011 roku z robota korzysta ponad 200 instytucji akademickich na całym świecie, w tym University of Hertfordshire i ich zespół Bold Hearts RoboCup , Indyjski Instytut Technologii Informacyjnych w Allahabad , Uniwersytet w Tokio , Indyjski Instytut Technologiczny Kanpur , Arabia Saudyjska „s Uniwersytet Przemysłu Naftowego i Minerałów , University of South Wales i Montana State University . W 2012 roku podarowane roboty Nao zostały wykorzystane do nauczania dzieci autystycznych w brytyjskiej szkole; niektóre dzieci uznały, że dziecięce, ekspresyjne roboty są bardziej zbliżone do ludzi niż ludzie. W szerszym kontekście, roboty Nao były wykorzystywane przez wiele brytyjskich szkół, aby zapoznać dzieci z robotami i branżą robotyczną.
Do końca 2014 r. ponad 5000 robotów Nao było używanych w instytucjach edukacyjnych i badawczych w 70 krajach. W 2015 roku Mitsubishi UFJ Financial Group rozpoczęła testy robotów Nao do obsługi klienta w oddziałach japońskich banków. W lipcu 2015 r. roboty Nao zademonstrowały podstawową formę samoświadomości w filozoficznym eksperymencie w Rensselaer Polytechnic Institute w Nowym Jorku, w którym ustawiono trzy roboty, wyciszając dwa z nich; Następnie powiedziano im, że dwoje z nich otrzymało „pigułkę ogłupiającą” i poproszono o ustalenie, który z nich nie. Po początkowej odpowiedzi, której nie wiedział, niewytłumiony robot zorientował się, że nie otrzymał pigułki ogłuszającej po usłyszeniu dźwięku własnego głosu. We wrześniu 2015 r. Francuski Instytut Zdrowia i Badań Medycznych wykorzystał roboty Nao do przetestowania systemu robotycznej „pamięci autobiograficznej” zaprojektowanej do pomocy w szkoleniu załóg Międzynarodowej Stacji Kosmicznej i pomocy starszym pacjentom.
Nao jest dostępny jako robot badawczy dla szkół, kolegiów i uniwersytetów, aby uczyć programowania i prowadzić badania interakcji człowiek-robot.
W sierpniu 2018 r. RobotLAB udostępnił internetową platformę edukacyjną dla szkół, która zwiększa wykorzystanie NAO w zakresie STEM, kodowania i inżynierii.
Korzystanie z opieki zdrowotnej
Od czasu wydania w 2004 r. Nao był testowany i wdrażany w wielu scenariuszach opieki zdrowotnej, w tym w domach opieki i szkołach.
Projekt
Różne wersje platformy robotycznej Nao mają 2, 14, 21 lub 25 stopni swobody (DoF). Specjalistyczny model z 21 DoF i bez aktywowanych rąk został stworzony na zawody Robocup. Wszystkie wersje Nao Academics są wyposażone w bezwładnościową jednostkę pomiarową z akcelerometrem , żyrometrem i czterema czujnikami ultradźwiękowymi, które zapewniają Nao stabilność i pozycjonowanie w przestrzeni. Wersje na nogach zawierały osiem rezystorów wykrywających siłę i dwa zderzaki. Model Nao Evolution z 2014 r. cechował się mocniejszymi metalowymi przegubami, lepszym uchwytem i ulepszonym systemem lokalizacji źródła dźwięku, który wykorzystuje cztery mikrofony kierunkowe. Najnowsza wersja, nazwana NAO6, została wprowadzona w czerwcu 2018 roku.
Oprogramowanie
Robot Nao jest kontrolowany przez wyspecjalizowany system operacyjny oparty na Linuksie , nazwany NAOqi. System operacyjny zasila system multimedialny robota, w skład którego wchodzą cztery mikrofony (do rozpoznawania głosu i lokalizacji dźwięku ), dwa głośniki (do wielojęzycznej syntezy tekstu na mowę ) oraz dwie kamery HD (do widzenia komputerowego , w tym rozpoznawania twarzy i kształtów). Robot jest również dostarczany z pakietem oprogramowania, który zawiera graficzne narzędzie programistyczne o nazwie Choregraphe , pakiet oprogramowania symulacyjnego oraz zestaw dla programistów . Nao jest ponadto kompatybilny z Microsoft Robotics Studio , Cyberbotics Webots i Gostai Studio ( URBI ).
W sierpniu 2018 r. RobotLAB wydało Engage! K12. Jest to internetowa platforma edukacyjna dla szkół, która zwiększa wykorzystanie NAO w zakresie przedmiotów ścisłych, kodowania i inżynierii. W lutym 2018 r. fińska firma Utelias Technologies wydała Elias Robot, aplikację edukacyjną, która pomaga uczyć się języków z NAO.
Specyfikacje
Wersja robota | Nao V3+ (2008) | Nao V3.2 (2009) | Nao V3.3 (2010) | Nao nowej generacji (V4) (2011) | Ewolucja Nao (V5) (2014) | Nao Power 6 (V6) (2018) |
---|---|---|---|---|---|---|
Wzrost | 573,2 mm (22,57 cala) | 573 milimetry (22,6 cala) | 574 milimetry (22,6 cala) | |||
Głębokość | 290 milimetrów (11 cali) | 311 milimetrów (12,2 cala) | ||||
Szerokość | 273,3 milimetrów (10,76 cala) | 275 milimetrów (10,8 cala) | ||||
Waga | 4,836 kg (10,66 funta) | 4,996 kg (11,01 funta) | 5,1825 kg (11,425 funtów) | 5305 kilogramów (11,70 funta) | 5,48 kg (12,1 funta) | |
Zasilacz | bateria litowa zapewniająca 27,6 Wh przy 21,6 V | bateria litowa zapewniająca 48,6 Wh przy 21,6 V | bateria litowa zapewniająca 62,5 Wh przy 21,6 V | |||
Autonomia | 60 minut (aktywne użytkowanie) | 90 minut (aktywne użytkowanie) | ||||
Stopnie swobody | 25 | |||||
procesor | x86 AMD GEODE 500 MHz | Intel Atom Z530 @ 1,6 GHz | Czterordzeniowy procesor Intel Atom E3845 @ 1,91 GHz | |||
Baran | 256 MB | 1 GB | 4 GB pamięci DDR3 | |||
Składowanie | 2 GB pamięci Flash | 2 GB pamięci Flash + 8 GB Micro SDHC | Dysk SSD 32 GB | |||
Wbudowany system operacyjny | OpenNAO 1.6 (oparty na OpenEmbedded) | OpenNAO 1.8 (oparty na OpenEmbedded) | OpenNAO 1.10 (oparty na OpenEmbedded) | OpenNAO 1.12 (oparty na gentoo) | NAOqi 2.1 (oparty na gentoo) | NAOqi 2.8 (oparty na openembedded) |
Zgodny system operacyjny | Windows , Mac OS , Linux | |||||
Języki programowania | C++ , Python , Java , MATLAB , Urbi , C , .Net | |||||
Środowisko symulacyjne | Weboty | |||||
Kamery | Dwie kamery OV7670 58°DFOV | Dwie kamery MT9M114 72,6°DFOV | Dwie kamery HD OV5640 67,4°DFOV | |||
Czujniki | 36 MRE (Magnetic Rotary Encoders) wykorzystujące technologię czujników z efektem Halla. 12-bitowa precyzja, tj. 4096 wartości na obrót, co odpowiada około 0,1° precyzji
2 x żyrometr 1 oś 1 x akcelerometr 3 osi 8 x FSR Force (wrażliwe rezystory). 2 x zderzaki umieszczone na czubku każdej stopy. Są to proste przełączniki ON/OFF. Nie ma różnicy między pchnięciem na lewą czy prawą stopę. Sonar: 2 nadajniki, 2 odbiorniki. Częstotliwość: 40kHz. Czułość: -86dB. Rozdzielczość: 10mm. Zasięg wykrywania: 0,25 - 2,55 m. Stożek efektywny: 60°. 2 x I/R. Długość fali = 940 nm. Kąt emisji = +/- 60°. Moc =8 mW/sr 4 mikrofony: Czułość: -40 +/- 3 dB Zakres częstotliwości: 20 Hz-20 kHz Stosunek sygnał/szum: 58 dBA 2 x kamera: OV7670 VGA (640x480), 30 kl./s. Zakres ostrości: 30 cm - nieskończoność. 58° przekątne pole widzenia (47,8° w poziomie FOV, 36,8° w pionie FOV) Czujnik pojemnościowy |
36 x MRE (Magnetic Rotary Encoders) wykorzystujące technologię czujnika Halla. 12-bitowa precyzja, tj. 4096 wartości na obrót, co odpowiada około 0,1° precyzji
2 x żyrometr 1 oś 1 x akcelerometr 3 osi 8 x FSR (rezystory wrażliwe na siłę). 2 x zderzaki umieszczone na czubku każdej stopy. Są to proste przełączniki ON/OFF. Nie ma różnicy między pchnięciem na lewą czy prawą stopę. Sonar: 2 nadajniki, 2 odbiorniki. Częstotliwość: 40kHz. Czułość: -86dB. Rozdzielczość: 10mm. Zasięg wykrywania: 0,25 - 2,55 m. Stożek efektywny: 60°. 2 x I/R. Długość fali = 940 nm. Kąt emisji = +/- 60°. Moc =8 mW/sr 4 mikrofony: Czułość: -40 +/- 3 dB Zakres częstotliwości: 20 Hz-20 kHz Stosunek sygnał/szum: 58 dBA 2 x Aparat: MT9M114 960p(1280x960), 30fps Zakres ostrości: 30 cm - nieskończoność. Pole widzenia 72,6° po przekątnej (60,9° w poziomie FOV, 47,6° w pionie) Czujnik pojemnościowy |
36 x MRE (Magnetic Rotary Encoders) wykorzystujące technologię czujnika Halla. 12-bitowa precyzja, tj. 4096 wartości na obrót, co odpowiada około 0,1° precyzji
żyrometr 3-osiowy akcelerometr 3-osiowy 8 x FSR (rezystory wrażliwe na siłę). 2 x zderzaki umieszczone na czubku każdej stopy. Są to proste przełączniki ON/OFF. Nie ma różnicy między pchnięciem na lewą czy prawą stopę. Sonar: 2 nadajniki, 2 odbiorniki. Częstotliwość: 40kHz Rozdzielczość: 1cm-4cm (w zależności od odległości) Zasięg wykrywania: 0,20m - 3m Efektywny stożek: 60° 2 x I/R. Długość fali = 940 nm. Kąt emisji = +/- 60°. Moc =8 mW/sr Mikrofony x4 na głowie Czułość 20mV/Pa +/-3dB przy 1KHz Zakres częstotliwości od 150Hz do 12kHz 2 x Aparat: MT9M114 960p(1280x960), 30fps Zakres ostrości: 30 cm - nieskończoność. Pole widzenia 72,6° po przekątnej (60,9° w poziomie FOV, 47,6° w pionie) Czujnik pojemnościowy |
36 x MRE (Magnetic Rotary Encoders) wykorzystujące technologię czujnika Halla. 12-bitowa precyzja, tj. 4096 wartości na obrót, co odpowiada około 0,1° precyzji
żyrometr 3-osiowy akcelerometr 3-osiowy 8 x FSR (rezystory wrażliwe na siłę). 2 x zderzaki umieszczone na czubku każdej stopy. Są to proste przełączniki ON/OFF. Nie ma różnicy między pchnięciem na lewą czy prawą stopę. Sonar: 2 nadajniki, 2 odbiorniki. Częstotliwość: 40kHz Rozdzielczość: 1cm-4cm (w zależności od odległości) Zasięg wykrywania: 0,20 m - 3 m Efektywny stożek: 60° 2 x I/R. Długość fali = 940 nm. Kąt emisji = +/- 60°. Moc =8 mW/sr 4 mikrofony dookólne. Specyfikacja. Czułość: 250mV/Pa +/-3dB przy 1kHz Częstotliwość: zakres 100Hz do 10kHz (-10dB w stosunku do 1kHz) 2 x kamera: Dane techniczne Model kamery OV5640 Typ System-on-a-chip (SoC) Czujnik obrazu CMOS Rozdzielczość matrycy obrazowania 5 Mp Format optyczny 1/4 cala Aktywne piksele (HxV) 2592x1944 Czułość Rozmiar piksela 1,4 µm*1,4 µm Zakres dynamiczny 68 dB@ Wzmocnienie 8x Stosunek sygnał/szum (maks.) 36dB (maks.) Czułość 600 mV/Lux-sec Wyjście Wyjście kamery 640*480@30fps lub 2560*1920@1fps Format danych YUV i RGB Typ migawki Roleta Widok Pole widzenia 67,4°DFOV (56,3°HFOV,43,7°VFOV) Typ ostrości Autofokus Czujnik pojemnościowy |
||
Łączność | Ethernet , Wi-Fi IEEE 802.11 a/b/g | Ethernet , Wi-Fi IEEE 802.11 a/b/g/n |
Zobacz też
Powiązany rozwój
Roboty o porównywalnej roli, konfiguracji, wymiarach i epoce
Bibliografia
Zewnętrzne linki
- Oficjalna strona internetowa ikanał na YouTube firmy Aldebaran Robotics
- „Mój dzień z robotem” . Wiadomości BBC . 15 września 2015 r.
- Pokaz taneczny Blanca Li z robotem Nao ( Światowy Festiwal Nauki )
- Centrum Kosmiczne Barboza (Projekty Occupy Mars Learning Adventures z Nao) www.BarbozaSpaceCenter.com