Grafika komputerowa -Computer graphics

Zrzut ekranu Blendera 2.45 przedstawiający model testowy 3D Suzanne

Grafika komputerowa zajmuje się generowaniem obrazów za pomocą komputerów . Obecnie grafika komputerowa jest podstawową technologią w fotografii cyfrowej, filmach, grach wideo, wyświetlaczach telefonów komórkowych i komputerów oraz wielu specjalistycznych zastosowaniach. Opracowano wiele specjalistycznego sprzętu i oprogramowania, a wyświetlacze większości urządzeń są sterowane przez komputerowy sprzęt graficzny . Jest to rozległa i niedawno rozwinięta dziedzina informatyki. Fraza została wymyślona w 1960 roku przez badaczy grafiki komputerowej Verne'a Hudsona i Williama Fettera z Boeinga. Jest często określany skrótem CG lub zazwyczaj w kontekście filmu jako obrazy generowane komputerowo (CGI). Przedmiotem pozaartystycznych aspektów grafiki komputerowej są m.inbadania informatyczne .

Niektóre tematy w grafice komputerowej obejmują projektowanie interfejsu użytkownika , grafikę sprite , renderowanie , ray tracing , przetwarzanie geometrii , animację komputerową , grafikę wektorową , modelowanie 3D , shadery , projektowanie GPU , powierzchnie niejawne , wizualizację , obliczenia naukowe , przetwarzanie obrazu , fotografię obliczeniową , badania naukowe wizualizacja , geometria obliczeniowa i wizja komputerowa , między innymi. Ogólna metodologia zależy w dużej mierze od podstawowych nauk , takich jak geometria , optyka , fizyka i percepcja .

Symulowany lot nad doliną Trydentu w Alpach Julijskich

Grafika komputerowa jest odpowiedzialna za skuteczne i zrozumiałe wyświetlanie grafiki i danych graficznych dla konsumenta. Jest również używany do przetwarzania danych obrazu otrzymanych ze świata fizycznego, takich jak zdjęcia i treści wideo. Rozwój grafiki komputerowej wywarł znaczący wpływ na wiele rodzajów mediów i ogólnie zrewolucjonizował animację , filmy , reklamę , gry wideo .

Przegląd

Termin grafika komputerowa był używany w szerokim znaczeniu do opisania „prawie wszystkiego na komputerach, co nie jest tekstem ani dźwiękiem”. Zazwyczaj termin grafika komputerowa odnosi się do kilku różnych rzeczy:

  • reprezentacja i manipulacja danymi obrazu przez komputer
  • różne technologie wykorzystywane do tworzenia i manipulowania obrazami
  • metody cyfrowej syntezy i manipulowania treściami wizualnymi, patrz nauka o grafice komputerowej

Obecnie grafika komputerowa jest szeroko rozpowszechniona. Takie obrazy można znaleźć w telewizji, gazetach, prognozach pogody oraz w różnych badaniach medycznych i zabiegach chirurgicznych. Dobrze skonstruowany wykres może przedstawiać złożone statystyki w formie łatwiejszej do zrozumienia i interpretacji. W mediach „takich wykresów używa się do ilustrowania artykułów, raportów, tez” i innych materiałów prezentacyjnych.

Opracowano wiele narzędzi do wizualizacji danych. Obrazy generowane komputerowo można podzielić na kilka różnych typów: grafiki dwuwymiarowe (2D), trójwymiarowe (3D) i animowane. Wraz z rozwojem technologii grafika komputerowa 3D stała się bardziej powszechna, ale grafika komputerowa 2D jest nadal szeroko stosowana. Grafika komputerowa pojawiła się jako poddziedzina informatyki, która bada metody cyfrowej syntezy i manipulowania treściami wizualnymi. W ciągu ostatniej dekady rozwinęły się inne wyspecjalizowane dziedziny, takie jak wizualizacja informacji i wizualizacja naukowa , bardziej zajmująca się „wizualizacjami trójwymiarowych zjawisk (architektonicznych, meteorologicznych, medycznych, biologicznych itp.), W których nacisk kładzie się na realistyczne renderowanie objętości , powierzchnie, źródła oświetlenia i tak dalej, być może z elementem dynamicznym (czasowym).

Historia

Naukami prekursorskimi rozwoju współczesnej grafiki komputerowej były postępy w elektrotechnice , elektronice i telewizji , które miały miejsce w pierwszej połowie XX wieku. Ekrany mogły wyświetlać sztukę od czasu użycia mat przez braci Lumiere do tworzenia efektów specjalnych w najwcześniejszych filmach z 1895 roku, ale takie pokazy były ograniczone i nie były interaktywne. Pierwsza lampa elektronopromieniowa , lampa Brauna , została wynaleziona w 1897 roku – to z kolei pozwoliłoby oscyloskopowi i wojskowemu panelowi kontrolnemu – bardziej bezpośrednim prekursorom pola, ponieważ dostarczyły one pierwszych dwuwymiarowych wyświetlaczy elektronicznych, które reagowały na programowe lub dane wprowadzone przez użytkownika. Niemniej jednak grafika komputerowa pozostawała względnie nieznaną dyscypliną do lat 50 . dalszy rozwój technologii, takich jak radar , zaawansowane lotnictwo i rakiety opracowane w czasie wojny. Potrzebne były nowe rodzaje wyświetlaczy do przetwarzania bogactwa informacji wynikających z takich projektów, co doprowadziło do rozwoju grafiki komputerowej jako dyscypliny.

1950

Pokój kontrolny sektora SAGE .

Wczesne projekty, takie jak Whirlwind i SAGE Projects , wprowadziły CRT jako realny wyświetlacz i interfejs interakcji oraz wprowadziły pióro świetlne jako urządzenie wejściowe . Douglas T. Ross z systemu Whirlwind SAGE przeprowadził osobisty eksperyment, w którym napisał mały program, który przechwytywał ruch jego palca i wyświetlał jego wektor (jego śledzone imię) na wyświetlaczu. Jedna z pierwszych interaktywnych gier wideo z rozpoznawalną, interaktywną grafiką – Tennis for Two – została stworzona dla oscyloskopu przez Williama Higinbothama , aby zabawiać gości w 1958 roku w Brookhaven National Laboratory i symulować mecz tenisowy. W 1959 roku Douglas T. Ross ponownie wprowadził innowacje, pracując w MIT nad przekształcaniem stwierdzeń matematycznych w generowane komputerowo wektory obrabiarek 3D, korzystając z okazji do stworzenia obrazu postaci z kreskówek Disneya .

Pionier elektroniki, Hewlett-Packard, wszedł na giełdę w 1957 roku po włączeniu dekady wcześniej i nawiązał silne więzi z Uniwersytetem Stanforda poprzez jego założycieli, którzy byli absolwentami . To zapoczątkowało trwającą od dziesięcioleci transformację południowego obszaru Zatoki San Francisco w wiodące na świecie centrum technologii komputerowej – znane obecnie jako Dolina Krzemowa . Dziedzina grafiki komputerowej rozwinęła się wraz z pojawieniem się sprzętu do grafiki komputerowej.

Dalszy postęp w informatyce doprowadził do większego postępu w interaktywnej grafice komputerowej . W 1959 roku w Lincoln Laboratory na MIT opracowano komputer TX-2 . TX-2 zintegrował szereg nowych interfejsów człowiek-maszyna. Lekkiego pióra można było używać do rysowania szkiców na komputerze przy użyciu rewolucyjnego oprogramowania Sketchpad Ivana Sutherlanda . Za pomocą pióra świetlnego Sketchpad pozwalał rysować proste kształty na ekranie komputera, zapisywać je, a nawet przywoływać później. Samo pióro świetlne miało na czubku małe ogniwo fotoelektryczne . Ta komórka emitowała impuls elektroniczny za każdym razem, gdy była umieszczana przed ekranem komputera, a działo elektronowe ekranu strzelało bezpośrednio w nią. Po prostu synchronizując impuls elektroniczny z bieżącą lokalizacją działa elektronowego, łatwo było dokładnie określić, gdzie w danym momencie znajdował się pióro na ekranie. Po ustaleniu tego komputer mógł narysować kursor w tym miejscu. Wydawało się, że Sutherland znalazł idealne rozwiązanie wielu problemów graficznych, z jakimi się borykał. Nawet dzisiaj wiele standardów interfejsów grafiki komputerowej ma swój początek w tym wczesnym programie Sketchpad. Jednym z przykładów jest ograniczenie rysowania. Jeśli ktoś chce na przykład narysować kwadrat, nie musi się martwić o idealne narysowanie czterech linii, które uformują krawędzie pudełka. Można po prostu określić, że chcą narysować pudełko, a następnie określić lokalizację i rozmiar pudełka. Następnie oprogramowanie skonstruuje idealne pudełko o odpowiednich wymiarach i we właściwym miejscu. Innym przykładem jest to, że oprogramowanie Sutherlanda modelowało obiekty – a nie tylko obraz obiektów. Innymi słowy, mając model samochodu, można zmienić rozmiar opon bez wpływu na resztę samochodu. Może rozciągnąć nadwozie samochodu bez deformacji opon.

1960

Wyrażenie „grafika komputerowa” zostało przypisane Williamowi Fetterowi , grafikowi Boeinga w 1960 roku. Z kolei Fetter przypisał je Verne'owi Hudsonowi, również pracującemu w Boeingu.

W 1961 roku inny student MIT, Steve Russell , stworzył kolejny ważny tytuł w historii gier wideo , Spacewar! Napisany dla DEC PDP-1 Spacewar odniósł natychmiastowy sukces i kopie zaczęły napływać do innych właścicieli PDP-1 i ostatecznie DEC otrzymał kopię. Inżynierowie z DEC używali go jako programu diagnostycznego w każdym nowym PDP-1 przed wysyłką. Dział sprzedaży dość szybko to zauważył i podczas instalowania nowych urządzeń uruchamiał „pierwszą na świecie grę wideo” dla swoich nowych klientów. ( Tenis For Two Higginbothama pokonał Spacewar o prawie trzy lata, ale był prawie nieznany poza środowiskiem badawczym lub akademickim).

Mniej więcej w tym samym czasie (1961–1962) na Uniwersytecie w Cambridge Elizabeth Waldram napisała kod do wyświetlania map radioastronomicznych na lampie katodowej.

EE Zając, naukowiec z Bell Telephone Laboratory (BTL), stworzył w 1963 roku film zatytułowany „Symulacja systemu kontroli położenia grawitacyjnego z dwoma giro”. W tym wygenerowanym komputerowo filmie Zając pokazał, jak można zmienić położenie satelity jak okrąża Ziemię. Stworzył animację na komputerze mainframe IBM 7090 . Również w BTL Ken Knowlton , Frank Sinden, Ruth A. Weiss i Michael Noll rozpoczęli pracę w dziedzinie grafiki komputerowej. Sinden stworzył film zatytułowany Siła, masa i ruch, ilustrujący działające prawa ruchu Newtona . Mniej więcej w tym samym czasie inni naukowcy tworzyli grafikę komputerową, aby zilustrować swoje badania. W Lawrence Radiation Laboratory Nelson Max stworzył filmy Flow of a Viscous Fluid i Propagation of Shock Waves in a Solid Form . Boeing Aircraft stworzył film zatytułowany Vibration of an Aircraft .

Również we wczesnych latach 60. samochody byłyby również impulsem dzięki wczesnej pracy Pierre'a Béziera w Renault , który wykorzystał krzywe Paula de Casteljau - obecnie nazywane krzywymi Béziera po pracy Béziera w terenie - do opracowania technik modelowania 3D dla Renault karoserie samochodowe. Krzywe te stanowiłyby podstawę wielu prac związanych z modelowaniem krzywych w terenie, ponieważ krzywe – w przeciwieństwie do wielokątów – są matematycznie złożonymi bytami, które dobrze rysuje się i modeluje.

Wersja zręcznościowa Ponga

Nie trzeba było długo czekać, by grafiką komputerową zainteresowały się wielkie korporacje. TRW , Lockheed-Georgia , General Electric i Sperry Rand należą do wielu firm, które w połowie lat 60. rozpoczynały działalność w grafice komputerowej. IBM szybko zareagował na to zainteresowanie, wypuszczając terminal graficzny IBM 2250 , pierwszy dostępny na rynku komputer graficzny. Ralph Baer , ​​nadzorujący inżynier w firmie Sanders Associates , wymyślił domową grę wideo w 1966 roku, która została później licencjonowana firmie Magnavox i nazwana Odyssey . Choć bardzo uproszczony i wymagający dość niedrogich części elektronicznych, pozwalał graczowi przesuwać punkty świetlne po ekranie. Był to pierwszy konsumencki produkt do grafiki komputerowej. David C. Evans był dyrektorem inżynierii w dziale komputerowym Bendix Corporation od 1953 do 1962, po czym przez następne pięć lat pracował jako profesor wizytujący w Berkeley. Tam kontynuował swoje zainteresowanie komputerami i tym, jak komunikują się z ludźmi. W 1966 roku Uniwersytet Utah zwerbował Evansa do stworzenia programu informatycznego, a grafika komputerowa szybko stała się jego głównym zainteresowaniem. Ten nowy wydział stał się głównym światowym ośrodkiem badawczym grafiki komputerowej w latach siedemdziesiątych.

Również w 1966 roku Ivan Sutherland kontynuował innowacje w MIT, kiedy wynalazł pierwszy sterowany komputerowo wyświetlacz montowany na głowie (HMD). Wyświetlał dwa oddzielne obrazy szkieletowe, po jednym dla każdego oka. Pozwoliło to widzowi zobaczyć scenę komputerową w stereoskopowym 3D . Ciężki sprzęt wymagany do podtrzymania wyświetlacza i trackera został nazwany Mieczem Damoklesa ze względu na potencjalne niebezpieczeństwo, gdyby spadł na użytkownika. Po otrzymaniu doktoratu z MIT Sutherland został dyrektorem ds. przetwarzania informacji w ARPA (Advanced Research Projects Agency), a później został profesorem na Harvardzie. W 1967 Sutherland został zwerbowany przez Evansa do udziału w programie informatyki na Uniwersytecie Utah – rozwój, który zmienił ten wydział w jeden z najważniejszych ośrodków badawczych w grafice przez prawie dekadę później, ostatecznie produkując niektórych z najważniejszych pionierów na polu. Tam Sutherland udoskonalił swój HMD; dwadzieścia lat później NASA ponownie odkryła jego techniki w swoich badaniach nad wirtualną rzeczywistością . W Utah Sutherland i Evans byli bardzo poszukiwanymi konsultantami przez duże firmy, ale byli sfrustrowani brakiem dostępnego wówczas sprzętu graficznego, więc zaczęli formułować plan założenia własnej firmy.

W 1968 roku Dave Evans i Ivan Sutherland założyli pierwszą firmę produkującą sprzęt do grafiki komputerowej, Evans & Sutherland . Podczas gdy Sutherland pierwotnie chciał, aby firma znajdowała się w Cambridge w stanie Massachusetts, zamiast tego wybrano Salt Lake City ze względu na bliskość grupy badawczej profesorów na Uniwersytecie Utah.

Również w 1968 roku Arthur Appel opisał pierwszy algorytm rzucania promieni , pierwszy z klasy algorytmów renderowania opartych na ray tracingu , które od tego czasu stały się fundamentalne w osiąganiu fotorealizmu w grafice poprzez modelowanie ścieżek, po których promienie światła pokonują ze źródła światła na powierzchnie w scenie i do aparatu.

W 1969 roku ACM zainicjowała Specjalną Grupę Zainteresowania Grafiką ( SIGGRAPH ), która organizuje konferencje , standardy graficzne i publikacje z dziedziny grafiki komputerowej. W 1973 roku odbyła się pierwsza doroczna konferencja SIGGRAPH, która stała się jednym z głównych celów organizacji. SIGGRAPH zyskał na znaczeniu i rozmiarze wraz z rozwojem dziedziny grafiki komputerowej w czasie.


lata 70

Czajnik Utah autorstwa Martina Newella i jego statyczne rendery stały się symbolem rozwoju CGI w latach 70.

Następnie wiele przełomów w tej dziedzinie - szczególnie ważnych wczesnych przełomów w przekształcaniu grafiki z użytkowej w realistyczną - miało miejsce na Uniwersytecie Utah w latach 70. XX wieku, który zatrudnił Ivana Sutherlanda . Wraz z Davidem C. Evansem prowadził zajęcia z zaawansowanej grafiki komputerowej, co wniosło wiele wkładu w badania założycielskie w tej dziedzinie i nauczyło kilku studentów, którzy rozwinęli się i założyli kilka najważniejszych firm w branży – a mianowicie Pixar , Silicon Graphics , i Adobe Systems . Tom Stockham kierował grupą przetwarzania obrazu na UU, która ściśle współpracowała z laboratorium grafiki komputerowej.

Jednym z tych uczniów był Edwin Catmull . Catmull właśnie przyszedł z Boeing Company i pracował nad swoim dyplomem z fizyki. Dorastając w Disneyu , Catmull kochał animacje, ale szybko odkrył, że nie ma talentu do rysowania. Teraz Catmull (wraz z wieloma innymi) postrzegał komputery jako naturalny postęp animacji i chciał być częścią rewolucji. Pierwsza animacja komputerowa, którą zobaczył Catmull, była jego własną. Stworzył animację otwierania i zamykania dłoni. Był także pionierem mapowania tekstur w celu malowania tekstur na modelach trójwymiarowych w 1974 roku, obecnie uważanej za jedną z podstawowych technik modelowania 3D . Jednym z jego celów stało się wyprodukowanie pełnometrażowego filmu przy użyciu grafiki komputerowej - cel, który osiągnął dwie dekady później, po roli założyciela w Pixar . W tej samej klasie Fred Parke stworzył animację twarzy swojej żony. Te dwie animacje znalazły się w filmie fabularnym Futureworld z 1976 roku .

Ponieważ laboratorium grafiki komputerowej UU przyciągało ludzi z całego świata, John Warnock był kolejnym z tych wczesnych pionierów; później założył firmę Adobe Systems i stworzył rewolucję w świecie wydawniczym dzięki swojemu językowi opisu strony PostScript , a firma Adobe stworzyła później standardowe w branży oprogramowanie do edycji zdjęć w programie Adobe Photoshop oraz wybitny program do efektów specjalnych w branży filmowej w programie Adobe After Effects .

Był tam także James Clark ; później założył Silicon Graphics , twórcę zaawansowanych systemów renderowania, które dominowały w dziedzinie wysokiej klasy grafiki aż do wczesnych lat 90.

Ci pierwsi pionierzy dokonali na UU dużego postępu w grafice komputerowej 3D — oznaczanie powierzchni ukrytych . Aby narysować reprezentację obiektu 3D na ekranie, komputer musi określić, które powierzchnie znajdują się „za” obiektem z perspektywy widza, a zatem powinny być „ukryte”, gdy komputer tworzy (lub renderuje) obraz. 3D Core Graphics System ( lub Core ) był pierwszym opracowanym standardem graficznym. Grupa 25 ekspertów ACM Special Interest Group SIGGRAPH opracowała te „ramy koncepcyjne”. Specyfikacje zostały opublikowane w 1977 roku i stały się podstawą wielu przyszłych zmian w tej dziedzinie.

Również w latach 70. Henri Gouraud , Jim Blinn i Bui Tuong Phong przyczynili się do stworzenia podstaw cieniowania w CGI poprzez opracowanie modeli cieniowania Gourauda i cieniowania Blinna-Phonga , umożliwiając grafice wyjście poza „płaski” wygląd do wyglądu bardziej wiernie odwzorowując głębię. Jim Blinn wprowadził również dalsze innowacje w 1978 roku, wprowadzając mapowanie wypukłości , technikę symulowania nierównych powierzchni, która była poprzednikiem wielu bardziej zaawansowanych rodzajów mapowania używanych obecnie.

Nowoczesne automaty do gier wideo , jakie znamy dzisiaj, narodziły się w latach 70. XX wieku, kiedy to pierwsze gry zręcznościowe wykorzystywały grafikę sprite 2D w czasie rzeczywistym. Pong w 1972 roku był jednym z pierwszych hitów gier arkadowych. Speed ​​Race z 1974 roku przedstawiał skrzaty poruszające się po pionowo przewijanej drodze. Gun Fight w 1975 roku przedstawiał animowane postacie wyglądające jak ludzie, podczas gdy Space Invaders w 1978 zawierał dużą liczbę animowanych postaci na ekranie; obaj używali wyspecjalizowanego obwodu przesuwnika baryłkowego wykonanego z dyskretnych układów scalonych, aby pomóc mikroprocesorowi Intel 8080 animować grafikę bufora ramki .

lata 80

Donkey Kong był jedną z gier wideo, która pomogła spopularyzować grafikę komputerową wśród masowego odbiorcy w latach 80.

W latach 80. zaczęła się modernizacja i komercjalizacja grafiki komputerowej. Wraz z rozpowszechnieniem się komputerów domowych temat, który wcześniej był dyscypliną wyłącznie dla naukowców, został przyjęty przez znacznie większą publiczność, a liczba twórców grafiki komputerowej znacznie wzrosła.

We wczesnych latach 80 -tych technologia integracji na bardzo dużą skalę (VLSI) typu metal-tlenek-półprzewodnik (MOS) doprowadziła do dostępności 16-bitowych mikroprocesorów jednostek centralnych (CPU) i pierwszych układów graficznych (GPU), które zaczęła rewolucjonizować grafikę komputerową, udostępniając grafikę w wysokiej rozdzielczości dla terminali grafiki komputerowej oraz systemów komputerów osobistych (PC). μPD7220 firmy NEC był pierwszym procesorem graficznym wyprodukowanym na w pełni zintegrowanym układzie NMOS VLSI . Obsługuje rozdzielczość do 1024x1024 i położył podwaliny pod wschodzący rynek grafiki komputerowej. Był używany w wielu kartach graficznych i był licencjonowany dla klonów, takich jak Intel 82720, pierwszy z procesorów graficznych Intela . Pamięć MOS również stała się tańsza we wczesnych latach 80-tych, umożliwiając rozwój przystępnej cenowo pamięci bufora ramki , w szczególności pamięci RAM wideo (VRAM) wprowadzonej przez firmę Texas Instruments (TI) w połowie lat 80-tych. W 1984 roku firma Hitachi wypuściła ARTC HD63484, pierwszy uzupełniający procesor graficzny MOS (CMOS). Był zdolny do wyświetlania w wysokiej rozdzielczości w trybie kolorowym i do rozdzielczości 4K w trybie monochromatycznym i był używany w wielu kartach graficznych i terminalach pod koniec lat 80. W 1986 roku firma TI wprowadziła TMS34010 , pierwszy w pełni programowalny procesor graficzny MOS .

Komputerowe terminale graficzne w tej dekadzie stawały się coraz bardziej inteligentnymi, częściowo autonomicznymi i samodzielnymi stacjami roboczymi. Przetwarzanie grafiki i aplikacji było w coraz większym stopniu przenoszone do inteligentnych stacji roboczych, zamiast nadal polegać na centralnych komputerach typu mainframe i minikomputerach . Typowe dla wczesnego przejścia na inteligentne stacje robocze z grafiką komputerową o wysokiej rozdzielczości dla rynku inżynierii wspomaganej komputerowo były stacje robocze Orca 1000, 2000 i 3000, opracowane przez Orcatech z Ottawy, wydzielenie z Bell-Northern Research i kierowane przez Davida Pearson, pionier wczesnych stacji roboczych. Orca 3000 był oparty na 16-bitowym mikroprocesorze Motorola 68000 i procesorach bit-slice AMD , a jego systemem operacyjnym był Unix. Był skierowany wprost do wyrafinowanego końca sektora inżynierii projektowej. Artyści i graficy zaczęli postrzegać komputer osobisty, zwłaszcza Commodore Amiga i Macintosh , jako poważne narzędzie projektowe, które może zaoszczędzić czas i rysować dokładniej niż inne metody. Macintosh pozostaje bardzo popularnym narzędziem do grafiki komputerowej wśród studiów graficznych i firm. Nowoczesne komputery, pochodzące z lat 80., często używają graficznych interfejsów użytkownika (GUI) do prezentowania danych i informacji za pomocą symboli, ikon i obrazów, a nie tekstu. Grafika jest jednym z pięciu kluczowych elementów technologii multimedialnej .

W dziedzinie realistycznego renderowania japoński Uniwersytet w Osace opracował system grafiki komputerowej LINKS-1 , superkomputer , który wykorzystywał do 257 mikroprocesorów Zilog Z8001 w 1982 r. w celu renderowania realistycznej trójwymiarowej grafiki komputerowej . Według Information Processing Society of Japan: „Podstawą renderowania obrazów 3D jest obliczanie luminancji każdego piksela tworzącego renderowaną powierzchnię z danego punktu widzenia, źródła światła i położenia obiektu. System LINKS-1 został opracowany w celu realizacji metodologia renderowania obrazu, w której każdy piksel może być przetwarzany równolegle niezależnie za pomocą ray tracingu . Dzięki opracowaniu nowej metodologii oprogramowania przeznaczonej specjalnie do szybkiego renderowania obrazów, LINKS-1 był w stanie szybko renderować wysoce realistyczne obrazy. Wykorzystano go do stworzenia pierwszego na świecie Film przypominający planetarium 3D przedstawiający całe niebo , który został wykonany w całości za pomocą grafiki komputerowej. Wideo zostało zaprezentowane w pawilonie Fujitsu na Międzynarodowej Wystawie w Tsukuba w 1985 roku . Od 1984 r. LINKS -1 był najpotężniejszym komputerem na świecie . Również w dziedzinie renderowania realistycznego w 1986 r . dążyć do fotorealizmu w grafice komputerowej.

Utrzymująca się popularność Gwiezdnych Wojen i innych franczyz science fiction była w tamtym czasie istotna w kinowym CGI, ponieważ Lucasfilm i Industrial Light & Magic stały się znane jako dom „go to” przez wiele innych studiów oferujących najwyższej klasy grafikę komputerową w filmach. W późniejszych filmach z oryginalnej trylogii dokonano ważnych postępów w kluczowaniu kolorem („bluescreening” itp.). Dwa inne fragmenty wideo również przetrwałyby epokę jako historycznie istotne: kultowy, prawie w pełni CGI teledysk Dire Straits do ich piosenki „ Money for Nothing ” z 1985 roku, która spopularyzowała CGI wśród fanów muzyki tamtej epoki, oraz scena z Młody Sherlock Holmes w tym samym roku z pierwszą w pełni CGI postacią w filmie fabularnym (animowany rycerz z witrażu ). W 1988 roku pierwsze shadery – małe programy zaprojektowane specjalnie do cieniowania jako oddzielnego algorytmu – zostały opracowane przez firmę Pixar , która już wcześniej wyodrębniła się z Industrial Light & Magic jako odrębna jednostka – chociaż opinia publiczna nie chciała zobaczyć wyników takich technologicznych postęp aż do następnej dekady. Pod koniec lat 80. komputery Silicon Graphics (SGI) były używane do tworzenia niektórych z pierwszych w pełni generowanych komputerowo filmów krótkometrażowych w Pixar , a maszyny Silicon Graphics były uważane za znak rozpoznawczy w tej dziedzinie w ciągu dekady.

Lata 80. nazywane są również złotą erą gier wideo ; sprzedające się w milionach egzemplarzy systemy , między innymi Atari , Nintendo i Sega , po raz pierwszy pokazały grafikę komputerową nowej, młodej i podatnej na wpływy publiczności – podobnie jak komputery osobiste z systemem MS-DOS , Apple II , komputery Mac i Amigi , z których wszystkie pozwalały również użytkownikom programować własne gry, jeśli mieli wystarczające umiejętności. W przypadku salonów gier poczyniono postępy w komercyjnej grafice 3D w czasie rzeczywistym. W 1988 roku wprowadzono pierwsze dedykowane karty graficzne 3D działające w czasie rzeczywistym do salonów gier, wraz z Namco System 21 i Taito Air System. Jeśli chodzi o profesjonalistów, Evans & Sutherland i SGI opracowali sprzęt do grafiki rastrowej 3D, który bezpośrednio wpłynął na późniejszy jednoukładowy procesor graficzny (GPU), technologię, w której oddzielny i bardzo wydajny układ jest używany w przetwarzaniu równoległym z procesorem w celu optymalizacji grafiki .

W tej dekadzie grafika komputerowa została również zastosowana na wielu dodatkowych rynkach profesjonalnych, w tym w rozrywce i edukacji opartej na lokalizacji dzięki E&S Digistar, projektowaniu pojazdów, symulacji pojazdów i chemii.

lata 90

Quarxs , plakat serialu, Maurice Benayoun , François Schuiten , 1992

Przytłaczającą nutą lat 90. było pojawienie się modelowania 3D na masową skalę i ogólnie imponujący wzrost jakości CGI. Komputery domowe stały się w stanie podejmować zadania renderowania, które wcześniej były ograniczone do stacji roboczych kosztujących tysiące dolarów; gdy modele 3D stały się dostępne dla systemów domowych, popularność stacji roboczych Silicon Graphics spadła, a na znaczeniu zyskały potężne maszyny z systemem Microsoft Windows i Apple Macintosh , na których działają produkty Autodesk , takie jak 3D Studio lub inne oprogramowanie do renderowania w domu. Pod koniec dekady GPU zacznie zyskiwać na znaczeniu, którym cieszy się do dziś.

W polu zaczęły pojawiać się pierwsze renderowane grafiki, które dla niewprawnego oka mogły naprawdę uchodzić za fotorealistyczne (chociaż nie mogło to jeszcze zrobić z wyszkolonym artystą CGI), a grafika 3D stała się znacznie bardziej popularna w grach , multimediach i animacjach . Na przełomie lat 80. i 90. powstały we Francji pierwsze seriale telewizyjne z grafiką komputerową: La Vie des bêtes studia Mac Guff Ligne (1988), Les Fables Géométriques (1989–1991) studia Fantôme oraz Quarxs , pierwsza seria grafiki komputerowej HDTV autorstwa Maurice'a Benayouna i François Schuitena (produkcja w studiu ZA, 1990–1993).

W filmie Pixar rozpoczął swój poważny wzrost komercyjny w tej epoce pod rządami Edwina Catmulla , wraz ze swoim pierwszym dużym filmem w 1995 r. – Toy Story – krytycznym i komercyjnym sukcesem o dziewięciocyfrowej wielkości. Studio, które wynalazło programowalny moduł cieniujący , miałoby wiele animowanych hitów, a jego praca nad prerenderowanymi animacjami wideo jest nadal uważana za lidera w branży i przełom w badaniach.

W grach wideo, w 1992 roku, Virtua Racing , działająca na płycie systemowej Sega Model 1 , położyła podwaliny pod gry wyścigowe w pełni 3D i spopularyzowała wielokątną grafikę 3D w czasie rzeczywistym wśród szerszej publiczności w branży gier wideo . Sega Model 2 w 1993 i Sega Model 3 w 1996 następnie przesunęły granice komercyjnej grafiki 3D w czasie rzeczywistym. Po powrocie na PC Wolfenstein 3D , Doom i Quake , trzy z pierwszych masowo popularnych strzelanek 3D z perspektywy pierwszej osoby , zostały wydane przez id Software i spotkały się z uznaniem krytyków i fanów w tej dekadzie dzięki silnikowi renderującemu opracowanemu przede wszystkim przez Johna Carmacka . Sony PlayStation , Sega Saturn i Nintendo 64 , między innymi konsole, sprzedały się w milionach i spopularyzowały grafikę 3D dla domowych graczy. Niektóre tytuły 3D pierwszej generacji z późnych lat 90. stały się postrzegane jako wpływowe w popularyzacji grafiki 3D wśród użytkowników konsol, takie jak gry platformowe Super Mario 64 i The Legend of Zelda: Ocarina of Time oraz wczesne bijatyki 3D, takie jak Virtua Fighter , Battle Arena Toshinden i Tekkena .

Technologia i algorytmy renderowania nadal znacznie się poprawiały. W 1996 roku Krishnamurty i Levoy wynaleźli mapowanie normalnych - ulepszenie mapowania wypukłości Jima Blinna . W 1999 roku Nvidia wypuściła przełomową kartę GeForce 256 , pierwszą domową kartę graficzną rozliczaną jako jednostka przetwarzania grafiki lub GPU, która, jak sama mówi, zawierała „zintegrowaną transformację , oświetlenie , konfigurację / obcinanie trójkątów i silniki renderujące ”. Pod koniec dekady komputery przyjęły wspólne ramy przetwarzania grafiki, takie jak DirectX i OpenGL . Od tego czasu grafika komputerowa stała się bardziej szczegółowa i realistyczna dzięki mocniejszemu sprzętowi graficznemu i oprogramowaniu do modelowania 3D . AMD stało się również czołowym producentem kart graficznych w tej dekadzie, tworząc „duopol” w tej dziedzinie, który istnieje do dziś.

2000s

Zrzut ekranu z gry wideo Killing Floor , zbudowanej na silniku Unreal Engine 2 . Komputery osobiste i gry wideo na konsole wykonały wielki graficzny skok naprzód w 2000 roku, stając się w stanie wyświetlać grafikę w czasie rzeczywistym , co wcześniej było możliwe tylko na wstępnym renderowaniu i / lub sprzęcie biznesowym.

CGI stało się wszechobecne na poważnie w tej epoce. Gry wideo i kino CGI rozszerzyły zasięg grafiki komputerowej do głównego nurtu pod koniec lat 90. i nadal czyniły to w przyspieszonym tempie w 2000 roku. CGI było również masowo stosowane w reklamach telewizyjnych pod koniec lat 90. i 2000., dzięki czemu stało się znane ogromnej publiczności.

Ciągły rozwój i coraz większe wyrafinowanie procesorów graficznych były kluczowe dla tej dekady, a możliwości renderowania 3D stały się standardową funkcją, ponieważ procesory graficzne 3D stały się koniecznością dla producentów komputerów stacjonarnych . Linia kart graficznych Nvidia GeForce zdominowała rynek we wczesnej dekadzie, z okazjonalną znaczącą konkurencją ze strony ATI . W miarę upływu dekady nawet maszyny z niższej półki zwykle zawierały jakiś procesor graficzny obsługujący 3D, ponieważ Nvidia i AMD wprowadziły tanie chipsety i nadal dominowały na rynku. Moduły cieniujące , które zostały wprowadzone w latach 80. XX wieku w celu wykonywania wyspecjalizowanego przetwarzania na GPU, pod koniec dekady stałyby się obsługiwane na większości sprzętu konsumenckiego, znacznie przyspieszając grafikę i umożliwiając znacznie ulepszoną teksturę i cieniowanie w grafice komputerowej poprzez powszechne przyjęcie normalnego mapowanie , mapowanie wypukłości i wiele innych technik umożliwiających symulację dużej ilości szczegółów.

Grafika komputerowa wykorzystywana w filmach i grach wideo stopniowo zaczęła być realistyczna, aż wkraczając w dolinę niesamowitości . Mnożyły się filmy CGI , a tradycyjne animowane filmy animowane , takie jak Epoka lodowcowa i Madagaskar , a także liczne oferty Pixara , takie jak Finding Nemo , zdominowały kasę w tej dziedzinie. The Final Fantasy: The Spirits Within , wydany w 2001 roku, był pierwszym w pełni wygenerowanym komputerowo filmem fabularnym, w którym wykorzystano fotorealistyczne postacie CGI i został w pełni zrealizowany za pomocą motion capture. Film nie odniósł jednak sukcesu kasowego. Niektórzy komentatorzy sugerowali, że może to być częściowo spowodowane tym, że główne postacie CGI miały rysy twarzy, które wpadały w „ niesamowitą dolinę ”. Inne filmy animowane, takie jak Ekspres polarny , również zwróciły uwagę w tym czasie. Gwiezdne wojny również powróciły wraz z prequelową trylogią, a efekty nadal wyznaczały poprzeczkę dla CGI w filmie.

W grach wideo Sony PlayStation 2 i 3 , linia konsol Microsoft Xbox oraz oferty Nintendo , takie jak GameCube , cieszyły się dużym zainteresowaniem, podobnie jak komputery z systemem Windows . Tytuły z dużymi nakładami CGI, takie jak seria Grand Theft Auto , Assassin's Creed , Final Fantasy , BioShock , Kingdom Hearts , Mirror's Edge i dziesiątki innych, nadal zbliżały się do fotorealizmu , rozwijały branżę gier wideo i imponowały, dopóki przychody tej branży nie stały się porównywalne z te z filmów. Microsoft podjął decyzję o łatwiejszym ujawnieniu DirectX niezależnemu światu programistów za pomocą programu XNA , ale nie był to sukces. Jednak sam DirectX odniósł komercyjny sukces. OpenGL również nadal dojrzewał, a on i DirectX znacznie się poprawiły; języki shaderów drugiej generacji HLSL i GLSL zaczęły być popularne w tej dekadzie.

W obliczeniach naukowych wynaleziono technikę GPGPU umożliwiającą dwukierunkowe przesyłanie dużych ilości danych między procesorem graficznym a procesorem; przyspieszenie analizy wielu rodzajów eksperymentów bioinformatycznych i biologii molekularnej . Technika ta została również wykorzystana do wydobywania bitcoinów i ma zastosowanie w wizji komputerowej .

2010s

Tekstura płyty diamentowej renderowana z bliska przy użyciu zasad renderowania opartego na fizyce - coraz bardziej aktywny obszar badań grafiki komputerowej w 2010 roku.

W 2010 roku CGI było prawie wszechobecne w wideo, wstępnie renderowana grafika jest niemal naukowo fotorealistyczna , a grafika w czasie rzeczywistym na odpowiednio zaawansowanym systemie może symulować fotorealizm dla niewprawnego oka.

Mapowanie tekstur stało się procesem wieloetapowym z wieloma warstwami; Ogólnie rzecz biorąc, często zdarza się, że implementuje się mapowanie tekstur, mapowanie wypukłości lub izopowierzchni lub mapowanie normalnych , mapy oświetlenia, w tym techniki odbłysków i odbić , oraz objętości cieni w jednym silniku renderującym przy użyciu shaderów , które znacznie dojrzewają. Shadery są obecnie prawie koniecznością dla zaawansowanej pracy w terenie, zapewniając znaczną złożoność manipulowania pikselami , wierzchołkami i teksturami dla poszczególnych elementów oraz niezliczone możliwe efekty. Ich języki shaderów HLSL i GLSL są aktywnymi obszarami badań i rozwoju. Rendering oparty na fizyce lub PBR, który implementuje wiele map i wykonuje zaawansowane obliczenia w celu symulacji rzeczywistego przepływu światła optycznego , jest również aktywnym obszarem badań, wraz z zaawansowanymi obszarami, takimi jak okluzja otoczenia , rozpraszanie podpowierzchniowe , rozpraszanie Rayleigha , mapowanie fotonów i wiele innych. Rozpoczynają się eksperymenty z mocą obliczeniową wymaganą do dostarczania grafiki w czasie rzeczywistym w trybach ultrawysokiej rozdzielczości, takich jak 4K Ultra HD , choć poza zasięgiem sprzętu z wyjątkiem najwyższej klasy.

W kinie większość filmów animowanych to teraz CGI; rocznie powstaje bardzo wiele animowanych filmów CGI , ale niewiele, jeśli w ogóle, podejmuje próbę fotorealizmu z powodu ciągłych obaw przed doliną niesamowitości . Większość to bajki 3D .

W grach wideo Microsoft Xbox One , Sony PlayStation 4 i Nintendo Switch dominują obecnie w przestrzeni domowej i wszystkie są zdolne do wysoce zaawansowanej grafiki 3D; komputer z systemem Windows jest nadal jedną z najbardziej aktywnych platform do gier.

Typy obrazów

Dwuwymiarowy

Sprite'y grafiki rastrowej (po lewej) i maski (po prawej)

Grafika komputerowa 2D to komputerowe generowanie obrazów cyfrowych — głównie na podstawie modeli, takich jak obraz cyfrowy, oraz za pomocą specyficznych dla nich technik.

Grafika komputerowa 2D jest używana głównie w aplikacjach, które zostały pierwotnie opracowane w oparciu o tradycyjne technologie drukowania i rysowania , takie jak typografia. W tych zastosowaniach dwuwymiarowy obraz jest nie tylko reprezentacją rzeczywistego obiektu, ale niezależnym artefaktem z dodaną wartością semantyczną; dlatego preferowane są modele dwuwymiarowe, ponieważ dają bardziej bezpośrednią kontrolę nad obrazem niż grafika komputerowa 3D , której podejście bardziej przypomina fotografię niż typografię .

Pikselowa sztuka

Duża forma sztuki cyfrowej, sztuka pikselowa, jest tworzona za pomocą oprogramowania do grafiki rastrowej , w którym obrazy są edytowane na poziomie pikseli . Grafika w większości starych (lub stosunkowo ograniczonych) grach komputerowych i wideo, grach z kalkulatorem graficznym i wielu grach na telefony komórkowe to głównie grafika pikselowa.

Grafika Sprite'a

Sprite to dwuwymiarowy obraz lub animacja zintegrowana z większą sceną. Początkowo obejmował tylko obiekty graficzne obsługiwane oddzielnie od mapy bitowej pamięci wyświetlacza wideo, teraz obejmuje to różne sposoby nakładek graficznych.

Pierwotnie sprite'y były metodą integracji niezwiązanych map bitowych, tak aby wydawały się być częścią normalnej mapy bitowej na ekranie , na przykład tworząc animowaną postać, którą można przesuwać po ekranie bez zmiany danych definiujących cały ekran. Takie sprite'y mogą być tworzone za pomocą obwodów elektronicznych lub oprogramowania . W obwodach sprzętowych sprite to konstrukcja sprzętowa , która wykorzystuje niestandardowe kanały DMA do integracji elementów wizualnych z głównym ekranem, nakładając na siebie dwa dyskretne źródła wideo. Oprogramowanie może to symulować za pomocą wyspecjalizowanych metod renderowania.

Grafika wektorowa

Przykład pokazujący efekt grafiki wektorowej w porównaniu z grafiką rastrową (bitmapową).


Formaty grafiki wektorowej są uzupełnieniem grafiki rastrowej . Grafika rastrowa to reprezentacja obrazów jako tablica pikseli i jest zwykle używana do reprezentacji obrazów fotograficznych. Grafika wektorowa polega na kodowaniu informacji o kształtach i kolorach składających się na obraz, co pozwala na większą elastyczność renderowania. Istnieją przypadki, gdy najlepszą praktyką jest praca z narzędziami i formatami wektorowymi, a także przypadki, gdy praca z narzędziami i formatami rastrowymi jest najlepszą praktyką. Są chwile, kiedy oba formaty łączą się. Zrozumienie zalet i ograniczeń każdej technologii oraz relacji między nimi najprawdopodobniej zaowocuje wydajnym i efektywnym wykorzystaniem narzędzi.

Generatywne modele uczenia maszynowego

Wyjście stabilnej dyfuzji dla monitu „astronauta jadący na koniu, autor: Hiroshige ”, 2022

Od połowy 2010 roku, w wyniku postępu w głębokich sieciach neuronowych , stworzono modele, które przyjmują na wejściu opis w języku naturalnym i produkują na wyjściu obraz pasujący do tego opisu. Modele zamiany tekstu na obraz zazwyczaj łączą model językowy , który przekształca tekst wejściowy w ukrytą reprezentację, oraz generatywny model obrazu, który tworzy obraz uwarunkowany tą reprezentacją. Najskuteczniejsze modele były generalnie szkolone na ogromnych ilościach danych graficznych i tekstowych zebranych z sieci. Do 2022 roku najlepsze z tych modeli, na przykład Dall-E 2 i Stable Diffusion , będą w stanie w ciągu kilku sekund tworzyć obrazy w różnych stylach, od imitacji żyjących artystów po niemal fotorealistyczne sprzęt komputerowy.

Trójwymiarowy

Grafika 3D, w porównaniu do grafiki 2D, to grafika wykorzystująca trójwymiarową reprezentację danych geometrycznych. W celu wykonania są one przechowywane na komputerze. Obejmuje to obrazy, które mogą być przeznaczone do późniejszego wyświetlenia lub oglądania w czasie rzeczywistym.

Pomimo tych różnic, grafika komputerowa 3D opiera się na podobnych algorytmach, jak grafika komputerowa 2D w ramce i grafice rastrowej (jak w 2D) w ostatecznym renderowanym wyświetlaczu. W oprogramowaniu do grafiki komputerowej rozróżnienie między 2D i 3D jest czasami zacierane; Aplikacje 2D mogą wykorzystywać techniki 3D w celu uzyskania efektów, takich jak oświetlenie, a przede wszystkim 3D mogą wykorzystywać techniki renderowania 2D.

Grafika komputerowa 3D to to samo, co modele 3D. Model jest zawarty w graficznym pliku danych, oprócz renderowania. Istnieją jednak różnice, które obejmują model 3D, który jest reprezentacją dowolnego obiektu 3D. Do momentu wizualnego wyświetlenia model nie jest graficzny. Dzięki drukowaniu modele 3D nie ograniczają się tylko do przestrzeni wirtualnej. Renderowanie 3D to sposób wyświetlania modelu. Może być również używany w niegraficznych symulacjach komputerowych i obliczeniach.

Animacja komputerowa

Przykład animacji komputerowej wykonanej przy użyciu przechwytywania ruchu

Animacja komputerowa to sztuka tworzenia ruchomych obrazów za pomocą komputerów . Jest to poddziedzina grafiki komputerowej i animacji . Coraz częściej jest tworzona za pomocą grafiki komputerowej 3D , chociaż grafika komputerowa 2D jest nadal szeroko stosowana do potrzeb stylistycznych, o niskiej przepustowości i szybszego renderowania w czasie rzeczywistym . Czasami celem animacji jest sam komputer, ale czasami celem jest inne medium , takie jak film . Jest również określany jako CGI ( Obrazowanie generowane komputerowo lub obrazowanie generowane komputerowo), zwłaszcza gdy jest używane w filmach.

Podmioty wirtualne mogą zawierać różne atrybuty, takie jak wartości przekształcenia (lokalizacja, orientacja i skala) przechowywane w macierzy przekształceń obiektu, i mogą być przez nie kontrolowane . Animacja to zmiana atrybutu w czasie. Istnieje wiele metod osiągania animacji; podstawowa forma opiera się na tworzeniu i edytowaniu klatek kluczowych , z których każda przechowuje wartość w określonym czasie, dla animowanego atrybutu. Oprogramowanie graficzne 2D/3D będzie zmieniać się z każdą klatką kluczową, tworząc edytowalną krzywą wartości odwzorowanej w czasie, co skutkuje animacją. Inne metody animacji obejmują techniki proceduralne i oparte na ekspresji : pierwsza konsoliduje powiązane elementy animowanych jednostek w zestawy atrybutów, przydatne do tworzenia efektów cząsteczkowych i symulacji tłumu ; ta ostatnia pozwala ocenianemu wynikowi zwróconemu ze zdefiniowanego przez użytkownika wyrażenia logicznego, w połączeniu z matematyką, w celu zautomatyzowania animacji w przewidywalny sposób (wygodny do kontrolowania zachowania kości poza tym, co oferuje hierarchia w konfiguracji układu szkieletowego ).

Aby stworzyć iluzję ruchu, obraz jest wyświetlany na ekranie komputera, a następnie szybko zastępowany nowym obrazem, który jest podobny do poprzedniego, ale nieznacznie przesunięty. Ta technika jest identyczna z iluzją ruchu w telewizji i filmach .

Pojęcia i zasady

Obrazy są zwykle tworzone przez urządzenia takie jak aparaty fotograficzne , lustra , obiektywy , teleskopy , mikroskopy itp.

Obrazy cyfrowe obejmują zarówno obrazy wektorowe , jak i obrazy rastrowe , ale częściej używane są obrazy rastrowe.

Piksel

W powiększonej części obrazu poszczególne piksele są renderowane jako kwadraty i można je łatwo zobaczyć.

W obrazowaniu cyfrowym piksel (lub element obrazu) to pojedynczy punkt na obrazie rastrowym . Piksele są umieszczane na zwykłej dwuwymiarowej siatce i często są przedstawiane za pomocą kropek lub kwadratów. Każdy piksel jest próbką oryginalnego obrazu, przy czym więcej próbek zwykle zapewnia dokładniejsze odwzorowanie oryginału. Intensywność każdego piksela jest zmienna ; w systemach kolorów każdy piksel ma zazwyczaj trzy składniki, takie jak czerwony, zielony i niebieski .

Grafika to wizualna prezentacja na powierzchni, takiej jak ekran komputera. Przykładami są fotografie, rysunki, projekty graficzne, mapy , rysunki techniczne lub inne obrazy. Grafika często łączy tekst i ilustrację. Projekt graficzny może polegać na celowym wyborze, stworzeniu lub ułożeniu samej typografii, jak w broszurze, ulotce, plakacie, stronie internetowej lub książce bez żadnego innego elementu. Celem może być przejrzystość lub skuteczna komunikacja, można dążyć do powiązania z innymi elementami kulturowymi lub po prostu stworzyć charakterystyczny styl.

prymitywy

Prymitywy to podstawowe jednostki, które system graficzny może łączyć w celu tworzenia bardziej złożonych obrazów lub modeli. Przykładami mogą być sprite'y i mapy postaci w grach wideo 2D, prymitywy geometryczne w CAD lub wielokąty lub trójkąty w renderowaniu 3D. Prymitywy mogą być obsługiwane sprzętowo w celu wydajnego renderowania lub w blokach konstrukcyjnych dostarczanych przez aplikację graficzną .

Wykonanie

Rendering to generowanie obrazu 2D z modelu 3D za pomocą programów komputerowych. Plik sceny zawiera obiekty w ściśle określonym języku lub strukturze danych; zawierałby informacje o geometrii, punkcie widzenia, teksturze , oświetleniu i cieniowaniu jako opis wirtualnej sceny. Dane zawarte w pliku sceny są następnie przekazywane do programu renderującego w celu przetworzenia i wysłania do pliku obrazu cyfrowego lub obrazu grafiki rastrowej . Program renderujący jest zwykle wbudowany w oprogramowanie do grafiki komputerowej, chociaż inne są dostępne jako wtyczki lub całkowicie oddzielne programy. Termin „renderowanie” może być przez analogię do „renderowania sceny przez artystę”. Chociaż szczegóły techniczne metod renderowania są różne, ogólne wyzwania, które należy pokonać podczas tworzenia obrazu 2D z reprezentacji 3D zapisanej w pliku sceny, są przedstawione jako potok graficzny wzdłuż urządzenia renderującego, takiego jak GPU . GPU to urządzenie, które może wspomagać procesor w obliczeniach. Jeśli scena ma wyglądać względnie realistycznie i przewidywalnie w wirtualnym oświetleniu, oprogramowanie do renderowania powinno rozwiązać równanie renderowania . Równanie renderowania nie uwzględnia wszystkich zjawisk oświetleniowych, ale jest ogólnym modelem oświetlenia dla obrazów generowanych komputerowo. „Renderowanie” jest również używane do opisania procesu obliczania efektów w pliku edycji wideo w celu uzyskania ostatecznego wyjścia wideo.

projekcja 3D
Projekcja 3D to metoda odwzorowania trójwymiarowych punktów na dwuwymiarową płaszczyznę. Ponieważ większość obecnych metod wyświetlania danych graficznych opiera się na płaskich nośnikach dwuwymiarowych, użycie tego typu projekcji jest szeroko rozpowszechnione. Ta metoda jest używana w większości aplikacji 3D działających w czasie rzeczywistym i zwykle wykorzystuje rasteryzację do uzyskania ostatecznego obrazu.
Śledzenie promienia
Ray tracing to technika z rodziny algorytmów kolejności obrazów służąca do generowania obrazu poprzez śledzenie drogi światła przez piksele w płaszczyźnie obrazu . Technika ta jest w stanie wytworzyć wysoki stopień fotorealizmu ; zwykle wyższy niż w przypadku typowych metod renderowania linii skanowania , ale przy większym koszcie obliczeniowym .
Zacienienie
Przykład cieniowania
Cieniowanie odnosi się do przedstawiania głębi w modelach 3D lub ilustracjach za pomocą różnych poziomów ciemności . Jest to proces stosowany w rysowaniu do przedstawiania poziomów ciemności na papierze poprzez nakładanie mediów gęściej lub ciemniejszym odcieniem na ciemniejsze obszary i mniej gęsto lub jaśniejszym odcieniem na jaśniejszych obszarach. Istnieją różne techniki cieniowania, w tym kreskowanie krzyżowe , w których prostopadłe linie o różnej bliskości są rysowane we wzór siatki w celu zacienienia obszaru. Im bliżej siebie są linie, tym ciemniejszy wydaje się obszar. Podobnie, im dalej od siebie są linie, tym jaśniejszy wydaje się obszar. Termin ten został ostatnio uogólniony i oznacza, że ​​stosowane są shadery .
Mapowanie tekstur
Odwzorowanie tekstury to metoda dodawania szczegółów, tekstury powierzchni lub koloru do generowanej komputerowo grafiki lub modelu 3D . Jego zastosowanie w grafice 3D zostało zapoczątkowane przez dr Edwina Catmulla w 1974 roku. Mapa tekstury jest nakładana (mapowana) na powierzchnię kształtu lub wielokąta. Ten proces jest podobny do nakładania wzorzystego papieru na zwykłe białe pudełko. Multiteksturowanie to użycie więcej niż jednej tekstury na raz na wielokącie. Tekstury proceduralne (utworzone w wyniku dostosowania parametrów podstawowego algorytmu, który tworzy teksturę wyjściową) oraz tekstury bitmapowe (utworzone w aplikacji do edycji obrazu lub zaimportowane z aparatu cyfrowego ) są, ogólnie rzecz biorąc, powszechnymi metodami implementacji definicji tekstury w modelach 3D w oprogramowania do grafiki komputerowej, podczas gdy zamierzone umieszczanie tekstur na powierzchni modelu często wymaga techniki znanej jako mapowanie UV (dowolne, ręczne rozplanowanie współrzędnych tekstury) dla powierzchni wielokątnych , podczas gdy powierzchnie niejednolite racjonalne B-splajn (NURB) mają swoje własne wewnętrzne parametryzacja używana jako współrzędne tekstury. Mapowanie tekstur jako dyscyplina obejmuje również techniki tworzenia map normalnych i map wypukłości , które odpowiadają teksturze w celu symulacji wysokości i map zwierciadlanych, które pomagają symulować połysk i odbicia światła, a także mapowanie środowiska w celu symulacji odbicia lustrzanego, zwanego również połyskiem.
Wygładzanie krawędzi
Renderowanie obiektów niezależnych od rozdzielczości (takich jak modele 3D) do oglądania na urządzeniu rastrowym (opartym na pikselach), takim jak wyświetlacz ciekłokrystaliczny lub telewizor CRT, nieuchronnie powoduje artefakty aliasingu , głównie wzdłuż krawędzi geometrycznych i granic szczegółów tekstury; te artefakty są nieformalnie nazywane „ postrzępionymi ”. Metody antyaliasingu rozwiązują takie problemy, dzięki czemu obrazy są przyjemniejsze dla widza, ale mogą być nieco kosztowne obliczeniowo. Można zastosować różne algorytmy antyaliasingu (takie jak supersampling ), a następnie dostosować je w celu uzyskania najbardziej wydajnej wydajności renderowania w stosunku do jakości wynikowego obrazu; grafik powinien rozważyć ten kompromis, jeśli mają być stosowane metody antyaliasingu. Tekstura mapy bitowej z pre-antyaliasingiem wyświetlana na ekranie (lub w lokalizacji ekranu) w rozdzielczości innej niż rozdzielczość samej tekstury (na przykład teksturowany model w pewnej odległości od kamery wirtualnej) będzie wykazywać artefakty aliasingu, podczas gdy wszelkie tekstura zdefiniowana proceduralnie zawsze będzie pokazywać artefakty aliasingu, ponieważ są one niezależne od rozdzielczości; techniki takie jak mipmapping i filtrowanie tekstur pomagają rozwiązać problemy związane z aliasingiem tekstur.

Renderowanie objętościowe

Renderowany tomograf komputerowy przedramienia z różnymi schematami kolorów dla mięśni, tłuszczu, kości i krwi

Renderowanie objętościowe to technika używana do wyświetlania projekcji 2D dyskretnie próbkowanego zestawu danych 3D . Typowy zestaw danych 3D to grupa obrazów warstw 2D uzyskanych przez skaner CT lub MRI .

Zwykle są one uzyskiwane w regularnym układzie (np. jeden plaster na milimetr) i zwykle mają regularną liczbę pikseli obrazu w regularnym układzie. To jest przykład regularnej siatki wolumetrycznej, w której każdy element objętości lub woksel jest reprezentowany przez pojedynczą wartość, która jest uzyskiwana przez próbkowanie bezpośredniego obszaru otaczającego woksel.

modelowanie 3d

Modelowanie 3D to proces opracowywania matematycznej, szkieletowej reprezentacji dowolnego trójwymiarowego obiektu, zwanego „modelem 3D”, za pomocą specjalistycznego oprogramowania. Modele mogą być tworzone automatycznie lub ręcznie; ręczny proces modelowania polegający na przygotowaniu danych geometrycznych do grafiki komputerowej 3D jest podobny do sztuk plastycznych, takich jak rzeźbienie . Modele 3D można tworzyć przy użyciu wielu podejść: wykorzystanie NURB do generowania dokładnych i gładkich łat powierzchni, modelowanie siatek wielokątnych (manipulacja geometrią fasetową) lub podział siatek wielokątnych (zaawansowana teselacja wielokątów, dająca gładkie powierzchnie podobne do modeli NURB). Model 3D można wyświetlić jako dwuwymiarowy obraz w procesie zwanym renderowaniem 3D , używanym w komputerowej symulacji zjawisk fizycznych lub animowanym bezpośrednio do innych celów. Model można również fizycznie stworzyć za pomocą urządzeń do drukowania 3D .

Pionierzy grafiki komputerowej

Karol Csuri
Charles Csuri jest pionierem animacji komputerowej i cyfrowych dzieł sztuki, a pierwszą sztukę komputerową stworzył w 1964 roku. Csuri został uznany przez Smithsonian za ojca sztuki cyfrowej i animacji komputerowej oraz pioniera animacji komputerowej przez Muzeum Sztuki Nowoczesnej ( MoMA) i Association for Computing MachinerySIGGRAPH .
Donalda P. Greenberga
Donald P. Greenberg jest czołowym innowatorem w dziedzinie grafiki komputerowej. Greenberg jest autorem setek artykułów i służył jako nauczyciel i mentor wielu wybitnych grafików komputerowych, animatorów i badaczy, takich jak Robert L. Cook , Marc Levoy , Brian A. Barsky i Wayne Lytle . Wielu jego byłych uczniów zdobyło Oscary za osiągnięcia techniczne, a kilku zdobyło nagrodę SIGGRAPH Achievement Award. Greenberg był założycielem i dyrektorem NSF Center for Computer Graphics and Scientific Visualization.
A. Michael Noll
Noll był jednym z pierwszych badaczy, którzy wykorzystali komputer cyfrowy do tworzenia wzorów artystycznych i sformalizowali użycie przypadkowych procesów w tworzeniu sztuk wizualnych . Zaczął tworzyć sztukę cyfrową w 1962 roku, co czyni go jednym z pierwszych artystów cyfrowych. W 1965 roku Noll wraz z Friederem Nake i Georgiem Neesem jako pierwsi publicznie zaprezentowali swoją sztukę komputerową. W kwietniu 1965 roku Howard Wise Gallery wystawiała grafikę komputerową Nolla wraz z losowymi wzorami kropek autorstwa Beli Julesza .

Inni pionierzy

Nowoczesne renderowanie czajnika z Utah , kultowego modelu w grafice komputerowej 3D stworzonej przez Martina Newella , 1975

Organizacje

Studium grafiki komputerowej

Badanie grafiki komputerowej to poddziedzina informatyki, która bada metody cyfrowej syntezy i manipulowania treściami wizualnymi. Chociaż termin ten często odnosi się do trójwymiarowej grafiki komputerowej, obejmuje również grafikę dwuwymiarową i przetwarzanie obrazu .

Jako dyscyplina akademicka grafika komputerowa bada manipulację informacjami wizualnymi i geometrycznymi przy użyciu technik obliczeniowych. Koncentruje się na matematycznych i obliczeniowych podstawach generowania i przetwarzania obrazu, a nie na kwestiach czysto estetycznych . Grafika komputerowa jest często odróżniana od dziedziny wizualizacji , chociaż te dwie dziedziny mają wiele podobieństw.

Aplikacje

Grafika komputerowa może być wykorzystywana w następujących obszarach:

Zobacz też

Notatki

Bibliografia

Dalsza lektura

  • L. Ammeraal i K. Zhang (2007). Grafika komputerowa dla programistów Java , wydanie drugie, John-Wiley & Sons, ISBN  978-0-470-03160-5 .
  • Davida Rogersa (1998). Elementy proceduralne grafiki komputerowej . McGraw-Hill.
  • James D. Foley , Andries Van Dam, Steven K. Feiner i John F. Hughes (1995). Grafika komputerowa: zasady i praktyka . Addison-Wesley.
  • Donald Hearn i M. Pauline Baker (1994). Grafika komputerowa . Prentice Hall.
  • Francis S. Hill (2001). Grafika komputerowa . Sala Prentice'a.
  • Johna Lewella (1985). Grafika komputerowa: przegląd aktualnych technik i zastosowań . Van Nostranda Reinholda.
  • Jeffrey J. McConnell (2006). Grafika komputerowa: teoria w praktyce . Wydawcy Jones & Bartlett.
  • RD Parslow, RW Prowse, Richard Elliot Green (1969). Grafika komputerowa: techniki i zastosowania .
  • Petera Shirleya i innych. (2005). Podstawy grafiki komputerowej . AK Peters, Ltd.
  • M. Slater, A. Steed, Y. Chrysantho (2002). Grafika komputerowa i środowiska wirtualne: od realizmu do czasu rzeczywistego . Addison-Wesley.
  • Wolfgang Höhl (2008): Interaktywne środowiska z oprogramowaniem open source , Springer Wien New York, ISBN  3-211-79169-8

Zewnętrzne linki