CIFAR-10 - CIFAR-10

CIFAR-10 zestaw danych ( Canadian Institute for Advanced Badawcze ) to zbiór obrazów, które są powszechnie używane do szkolenia uczenia maszynowego i komputerowego rozpoznawania algorytmów. Jest to jeden z najczęściej używanych zbiorów danych do badań nad uczeniem maszynowym. Zbiór danych CIFAR-10 zawiera 60 000 kolorowych obrazów 32x32 w 10 różnych klasach. Dziesięć różnych klas reprezentuje samoloty, samochody, ptaki, koty, jelenie, psy, żaby, konie, statki i ciężarówki. Każda klasa zawiera 6000 zdjęć.

Komputerowe algorytmy rozpoznawania obiektów na zdjęciach często uczą się na przykładach. CIFAR-10 to zestaw obrazów, które można wykorzystać do nauczenia komputera rozpoznawania obiektów. Ponieważ obrazy w CIFAR-10 mają niską rozdzielczość (32x32), ten zestaw danych może umożliwić naukowcom szybkie wypróbowanie różnych algorytmów, aby zobaczyć, co działa. Różne rodzaje konwolucyjnych sieci neuronowych zwykle najlepiej rozpoznają obrazy w CIFAR-10.

CIFAR-10 to oznaczony podzbiór zbioru danych 80 milionów malutkich obrazów . Po utworzeniu zbioru danych uczniowie otrzymywali wynagrodzenie za oznaczanie wszystkich obrazów etykietami.

Artykuły naukowe potwierdzające najnowocześniejsze wyniki na CIFAR-10

To jest tabela niektórych prac badawczych, które twierdzą, że osiągnęły najnowocześniejsze wyniki w zbiorze danych CIFAR-10. Nie wszystkie papiery są znormalizowane w zakresie tych samych technik przetwarzania wstępnego, takich jak odwracanie lub przesuwanie obrazu. Z tego powodu możliwe jest, że twierdzenie jednego z artykułów dotyczących stanu wiedzy może mieć wyższy poziom błędu niż starsze twierdzenie dotyczące stanu wiedzy, ale nadal będzie ważne.

Tytuł artykułu Poziom błędu (%) Data publikacji
Konwolucyjne sieci głębokich przekonań na CIFAR-10 21.1 Sierpień 2010
Maxout Networks 9.38 13 lutego 2013
Szerokie sieci resztkowe 4.0 23 maja 2016 r
Wyszukiwanie architektury neuronowej z uczeniem się ze wzmocnieniem 3.65 4 listopada 2016 r
Ułamkowe maksymalne pule 3.47 18 grudnia 2014
Gęsto połączone sieci konwolucyjne 3.46 24 sierpnia 2016 r
Regularyzacja Shake-Shake 2.86 21 maja 2017 r
Połączone zespoły sieci neuronowych 2.68 18 września 2017 r
Regularyzacja ShakeDrop 2.67 7 lutego 2018 r
Ulepszona regularyzacja konwolucyjnych sieci neuronowych z wycięciem 2.56 15 sierpnia 2017
Uregulowana ewolucja wyszukiwania architektury klasyfikatora obrazów 2.13 6 lutego 2018 r
Ponowne przemyślenie powtarzających się sieci neuronowych i inne ulepszenia klasyfikacji obrazów 1.64 31 lipca 2020 r
AutoAugment: uczenie się zasad rozszerzania na podstawie danych 1.48 24 maja 2018 r
Ankieta dotycząca wyszukiwania architektury neuronowej 1.33 4 maja 2019 r
GPipe: efektywne szkolenie gigantycznych sieci neuronowych przy użyciu równoległości potoków 1,00 16 listopada 2018 r

Zobacz też

Bibliografia

Linki zewnętrzne

Podobne zbiory danych