Naturalny interfejs użytkownika - Natural user interface

W obliczeniowej , ą naturalne interfejs lub NUI lub naturalne interfejsu jest interfejs użytkownika , który jest praktycznie niewidoczny i pozostaje niewidoczna, gdy użytkownik dowiaduje się w sposób ciągły coraz bardziej złożone interakcje. Słowo „naturalny” jest używane, ponieważ większość interfejsów komputerowych wykorzystuje sztuczne urządzenia sterujące, których działania trzeba się nauczyć. Przykładami są asystenci głosowi , tacy jak Alexa i Siri, interakcje dotykowe i wielodotykowe na dzisiejszych telefonach komórkowych i tabletach, ale także interfejsy dotykowe niewidocznie zintegrowane z meblami tekstylnymi.

NUI polega na tym, że użytkownik może szybko przejść od nowicjusza do eksperta. Podczas gdy interfejs wymaga nauki, uczenie się jest ułatwione dzięki projektowi, który daje użytkownikowi poczucie, że odnosi natychmiastowy i ciągły sukces. Tak więc „naturalny” odnosi się do celu w doświadczeniu użytkownika – że interakcja przychodzi naturalnie podczas interakcji z technologią, a nie że sam interfejs jest naturalny. Kontrastuje to z ideą intuicyjnego interfejsu , nawiązującego do takiego, z którego można korzystać bez wcześniejszej nauki.

Zaproponowano kilka strategii projektowania, które osiągnęły ten cel z różnym powodzeniem. Jedną ze strategii jest użycie „ interfejsu użytkownika rzeczywistości ” („ RUI ”), znanego również jako metody „ interfejsów opartych na rzeczywistości ” ( RBI ). Jednym z przykładów strategii RUI jest wykorzystanie komputera ubieralnego do renderowania obiektów ze świata rzeczywistego jako „klikalnych”, tj. tak, aby użytkownik mógł kliknąć dowolny przedmiot codziennego użytku, aby działał jako hiperłącze, łącząc w ten sposób cyberprzestrzeń ze światem rzeczywistym . Ponieważ termin „naturalny” nawiązuje do „świata naturalnego”, RBI są często mylone z NUI, podczas gdy w rzeczywistości są tylko jednym ze sposobów osiągnięcia tego celu.

Jednym z przykładów strategii projektowania NUI nieopartego na RBI jest ścisłe ograniczanie funkcjonalności i dostosowywania, tak aby użytkownicy mieli bardzo niewiele do nauczenia się w zakresie obsługi urządzenia. Interfejs jest łatwy w użyciu, pod warunkiem, że domyślne możliwości odpowiadają celom użytkownika. Jest to nadrzędna strategia projektowania w systemie iOS firmy Apple. Ponieważ ten projekt jest zbieżny z wyświetlaczem z bezpośrednim dotykiem, osoby nie będące projektantami często błędnie przypisują łatwość interakcji z urządzeniem temu wyświetlaczowi wielodotykowemu, a nie projektowi oprogramowania, w którym faktycznie się znajduje.

Historia

Ewolucja interfejsów użytkownika

W latach 90. Steve Mann opracował szereg strategii interfejsu użytkownika wykorzystujących naturalną interakcję ze światem rzeczywistym jako alternatywę dla interfejsu wiersza poleceń (CLI) lub graficznego interfejsu użytkownika (GUI). Mann określił tę pracę jako „naturalne interfejsy użytkownika”, „bezpośrednie interfejsy użytkownika” i „przetwarzanie wolne od metafor”. Technologia EyeTap firmy Mann zazwyczaj stanowi przykład naturalnego interfejsu użytkownika. Użycie przez Manna słowa „Naturalny” odnosi się zarówno do działania, które naturalnie przychodzi człowiekowi, jak i do korzystania z samej natury, tj. fizyki ( Filozofia Naturalna ), oraz środowiska naturalnego. Dobrym przykładem NUI w obu tych zmysłach jest hydraulofon , zwłaszcza gdy jest używany jako urządzenie wejściowe, w którym dotknięcie naturalnego elementu (wody) staje się sposobem wprowadzania danych. Bardziej ogólnie, klasa instrumentów muzycznych zwana „fizyfonami”, nazwana tak od greckich słów „physika”, „physikos” (natura) i „phone” (dźwięk) została również zaproponowana jako „interfejsy użytkownika oparte na naturze”.

W 2006 roku Christian Moore założył otwartą społeczność badawczą, której celem było rozszerzenie dyskusji i rozwoju związanych z technologiami NUI. W prezentacji konferencyjnej „Przewidywanie przeszłości” w 2008 r. August de los Reyes, główny dyrektor ds. doświadczeń użytkowników komputerów powierzchniowych w firmie Microsoft, opisał NUI jako kolejną fazę ewolucji po przejściu z CLI na GUI. Oczywiście jest to również nadmierne uproszczenie, ponieważ NUI z konieczności zawierają elementy wizualne – a tym samym graficzne interfejsy użytkownika. Bardziej dokładnym opisem tego pojęcia byłoby opisanie go jako przejścia z WIMP do NUI.

W CLI użytkownicy musieli nauczyć się sztucznego sposobu wprowadzania danych, klawiatury i szeregu skodyfikowanych danych wejściowych, które miały ograniczony zakres odpowiedzi, a składnia tych poleceń była ścisła.

Następnie, gdy mysz włączyła GUI, użytkownicy mogli łatwiej nauczyć się ruchów i działań myszy, a także mogli znacznie lepiej eksplorować interfejs. GUI opierało się na metaforach do interakcji z zawartością lub obiektami na ekranie. Na przykład „pulpit” i „przeciągnij”, będące metaforami interfejsu wizualnego, który ostatecznie został przetłumaczony z powrotem na ściśle skodyfikowany język komputera.

Przykład niezrozumienia terminu NUI został zademonstrowany na targach Consumer Electronics Show w 2010 roku. „Teraz nowa fala produktów jest przygotowana, aby udostępnić jeszcze szerszemu gronu naturalne interfejsy użytkownika, jak nazywa się te metody sterowania urządzeniami elektronicznymi. "

W 2010 roku Bill Buxton z Microsoftu powtórzył znaczenie NUI w korporacji Microsoft w filmie wideo omawiającym technologie, które mogą być wykorzystane w tworzeniu NUI, oraz jego przyszły potencjał.

W 2010 roku Daniel Wigdor i Dennis Wixon przedstawili w swojej książce operacjonalizację budowania naturalnych interfejsów użytkownika. W nim starannie rozróżniają naturalne interfejsy użytkownika, technologie wykorzystywane do ich osiągnięcia oraz interfejs użytkownika oparty na rzeczywistości.

Wczesne przykłady

Wielodotykowy

Kiedy Bill Buxton został zapytany o interfejs iPhone'a, odpowiedział: „Technologie wielodotykowe mają długą historię. Ujmując to z perspektywy, oryginalna praca podjęta przez mój zespół została wykonana w 1984 roku, w tym samym roku, w którym wypuszczono pierwszy komputer Macintosh i nie byliśmy pierwsi”.

Multi-Touch to technologia, która może zapewnić naturalny interfejs użytkownika. Jednak większość zestawów narzędzi interfejsu użytkownika używanych do konstruowania interfejsów wykonywanych za pomocą takiej technologii to tradycyjne interfejsy GUI.

Przykłady interfejsów powszechnie określanych jako NUI

Percepcyjny piksel

Jednym z przykładów jest praca wykonana przez Jeffersona Han nad interfejsami wielodotykowymi . Podczas demonstracji na TED w 2006 roku pokazał różne sposoby interakcji z treściami wyświetlanymi na ekranie za pomocą zarówno bezpośrednich manipulacji, jak i gestów. Na przykład, aby ukształtować kleistą masę na ekranie, Jeff dosłownie „szczypie”, szturcha i szturcha ją palcami. Na przykład w interfejsie GUI aplikacji do projektowania użytkownik użyłby w tym celu metafory „narzędzia”, na przykład wybierając narzędzie prod lub wybierając dwie części masy, które następnie chciałby zastosować „szczypta” działanie do. Han pokazał, że interakcja użytkownika może być znacznie bardziej intuicyjna, pomijając urządzenia do interakcji, do których jesteśmy przyzwyczajeni, i zastępując je ekranem, który był w stanie wykrywać znacznie szerszy zakres ludzkich działań i gestów. Oczywiście pozwala to tylko na bardzo ograniczony zestaw interakcji, które zgrabnie odwzorowują manipulację fizyczną (RBI). Rozszerzenie możliwości oprogramowania poza działania fizyczne wymaga znacznie więcej pracy projektowej.

Microsoft PixelSense

Microsoft PixelSense ma podobne pomysły dotyczące interakcji użytkowników z treścią, ale dodaje możliwość optycznego rozpoznawania obiektów umieszczonych na nim. W ten sposób użytkownicy mogą uruchamiać działania na komputerze za pomocą tych samych gestów i ruchów, na jakie pozwalał ekran dotykowy Jeffa Hana, ale również obiekty stają się częścią mechanizmów kontrolnych. Na przykład, gdy postawisz kieliszek do wina na stole, komputer rozpozna go jako taki i wyświetli treść powiązaną z tym kieliszkiem do wina. Umieszczenie kieliszka na stole dobrze odwzorowuje działania podejmowane przy użyciu kieliszków do wina i innych stołów, a tym samym dobrze odwzorowuje interfejsy oparte na rzeczywistości. W związku z tym można go postrzegać jako wstęp do doświadczenia NUI.

Wciągający dotyk 3D

„3D Immersive Touch” definiuje się jako bezpośrednią manipulację obiektami środowiska wirtualnego 3D przy użyciu sprzętu z powierzchnią jednodotykową lub wielodotykową w środowiskach wirtualnych 3D wielu użytkowników. Stworzony po raz pierwszy w 2007 roku, aby opisać i zdefiniować zasady uczenia się naturalnego interfejsu użytkownika 3D związane z Edusim. Naturalny interfejs użytkownika Immersive Touch wydaje się teraz nabierać większego znaczenia i znaczenia dzięki szerszej adaptacji sprzętu opartego na powierzchni i dotyku, takiego jak iPhone, iPod touch, iPad i coraz więcej innych urządzeń. Apple wydaje się również interesować w ciągu ostatnich kilku lat naturalnymi interfejsami użytkownika 3D „Immersive Touch”. Ta praca opiera się na szerokiej bazie akademickiej, która badała manipulacje 3D w środowiskach wirtualnej rzeczywistości.

Kinect dla konsoli Xbox

Kinect to wykrywające ruch urządzenie wejściowe firmy Microsoft przeznaczone dla konsoli do gier wideo Xbox 360 i komputerów z systemem Windows, które wykorzystuje do interakcji gesty przestrzenne zamiast kontrolera gier . Według strony Microsoftu , Kinect został zaprojektowany z myślą o „rewolucyjnym nowym sposobie gry: nie wymaga kontrolera”. Ponownie, ponieważ Kinect umożliwia wyczuwanie świata fizycznego, wykazuje potencjał dla projektów RBI, a zatem potencjalnie również dla NUI.

Zobacz też

Uwagi

Bibliografia