Prostownik (sieci neuronowe) - Rectifier (neural networks)

Wykres funkcji prostownika ReLU (niebieski) i GELU (zielony) w pobliżu x = 0

W kontekście sztucznych sieci neuronowych , prostownika lub Relu funkcji aktywacji (wyprostowanego liniowa katalogowa) jest aktywacja funkcji zdefiniowano jako dodatnią część jej argumentu

gdzie x jest wejściem do neuronu. Jest to również znane jako funkcja rampy i jest analogiczne do prostowania półfalowego w elektrotechnice .

Ta funkcja aktywacji zaczęła pojawiać się w kontekście ekstrakcji cech wizualnych w hierarchicznych sieciach neuronowych od końca lat sześćdziesiątych. Później argumentowano, że ma silne motywacje biologiczne i uzasadnienie matematyczne. W 2011 r. stwierdzono, że umożliwia lepsze wytrenowanie głębszych sieci, w porównaniu do powszechnie stosowanych funkcji aktywacji sprzed 2011 r., np. esicy logistycznej (inspirowanej teorią prawdopodobieństwa ; patrz regresja logistyczna ) i jej bardziej praktycznego odpowiednika, tangensa hiperbolicznego . Prostownik jest od 2017 roku najpopularniejszą funkcją aktywacji głębokich sieci neuronowych .

Wyprostowane jednostki liniowe znajdują zastosowanie w widzeniu komputerowym i rozpoznawaniu mowy przy użyciu głębokich sieci neuronowych i neuronauki obliczeniowej .

Zalety

  • Rzadka aktywacja: Na przykład w losowo zainicjowanej sieci tylko około 50% ukrytych jednostek jest aktywowanych (mają niezerowe wyjście).
  • Lepsza propagacja gradientu: mniej problemów z zanikającym gradientem w porównaniu z sigmoidalnymi funkcjami aktywacji, które nasycają się w obu kierunkach.
  • Wydajne obliczenia: tylko porównywanie, dodawanie i mnożenie.
  • Niezmiennicze skali: .

Do oddzielenia specyficznego wzbudzenia i nieswoistego hamowania w neuronowej piramidzie abstrakcji, która została wytrenowana w nadzorowany sposób, aby nauczyć się kilku zadań widzenia komputerowego, użyto korygujących funkcji aktywacji. W 2011 roku wykazano, że zastosowanie prostownika jako nieliniowości umożliwia trenowanie głęboko nadzorowanych sieci neuronowych bez konieczności nienadzorowanego treningu wstępnego. Zrektyfikowane jednostki liniowe, w porównaniu z funkcją sigmoidalną lub podobnymi funkcjami aktywacji, umożliwiają szybsze i efektywne trenowanie głębokich architektur neuronowych na dużych i złożonych zbiorach danych.

Potencjalne problemy

  • Nieróżnicowalne na zero; jednak jest różniczkowalny gdziekolwiek indziej, a wartość pochodnej na zero może być arbitralnie wybrana jako 0 lub 1.
  • Nie zorientowany na zero.
  • Bezgraniczny.
  • Problem z umierającym ReLU: Neurony ReLU (Rectified Linear Unit) mogą czasami być wprowadzane w stany, w których stają się nieaktywne dla zasadniczo wszystkich sygnałów wejściowych. W tym stanie przez neuron nie płyną żadne gradienty, przez co neuron utknie w stanie wiecznie nieaktywnym i „umiera”. Jest to forma problemu znikającego gradientu . W niektórych przypadkach duża liczba neuronów w sieci może utknąć w stanach martwych, skutecznie zmniejszając pojemność modelu. Ten problem pojawia się zwykle, gdy szybkość uczenia się jest ustawiona na zbyt wysoką. Można to złagodzić, stosując zamiast tego nieszczelne jednostki ReLU, które przypisują małe dodatnie nachylenie dla x  < 0, jednak wydajność jest zmniejszona.

Warianty

Warianty liniowe

Nieszczelny ReLU

Nieszczelne jednostki ReLU pozwalają na niewielki, dodatni gradient, gdy jednostka nie jest aktywna.

Parametryczne ReLU

Parametric ReLUs (PReLUs) rozwijają tę ideę, przekształcając współczynnik wycieku w parametr, którego można się nauczyć wraz z innymi parametrami sieci neuronowej.

Zauważ, że dla a ≤ 1 jest to równoważne

a zatem ma związek z sieciami „maxout”.

Warianty nieliniowe

Jednostka liniowa błędu Gaussa (GELU)

GELU to płynne przybliżenie prostownika. Ma niemonotoniczny „bump”, gdy x < 0 i służy jako domyślna aktywacja dla modeli takich jak BERT .

,

gdzie Φ( x ) jest funkcją skumulowanego rozkładu standardowego rozkładu normalnego .

Ta funkcja aktywacji została zilustrowana na rysunku na początku tego artykułu.

SiLU

SiLU (Sigmoid Linear Unit) to kolejne gładkie przybliżenie wprowadzone po raz pierwszy w artykule GELU.

Softplus

Gładkie przybliżenie prostownika to funkcja analityczna

który nazywa się softplus lub SmoothReLU funkcja. Dla dużego negatywu chodzi o to nieco powyżej 0, a dla dużego pozytywu o tak tuż powyżej .

Można uwzględnić parametr ostrości :

Pochodną softplus jest funkcja logistyczna . Począwszy od wersji parametrycznej,

Logistyczna funkcja sigmoidalna jest gładkim przybliżeniem pochodnej prostownika, funkcji skokowej Heaviside'a .

Wielowymiarowe uogólnienie softplus jednej zmiennej to LogSumExp z pierwszym argumentem ustawionym na zero:

Funkcja LogSumExp to

a jego gradientem jest softmax ; softmax z pierwszym argumentem ustawionym na zero jest wielowymiarowym uogólnieniem funkcji logistycznej. Zarówno LogSumExp, jak i softmax są używane w uczeniu maszynowym.

ELU

Wykładnicze jednostki liniowe starają się zbliżyć średnie aktywacje do zera, co przyspiesza uczenie się. Wykazano, że jednostki ELU mogą uzyskać wyższą dokładność klasyfikacji niż jednostki ReLU.

gdzie jest hiperparametrem do dostrojenia i jest ograniczeniem.

Jednostka ELU może być postrzegana jako wygładzona wersja przesuniętej jednostki ReLU (SReLU), która ma postać o tej samej interpretacji .

Zobacz też

Bibliografia

</ref>