Sieć głębokich przekonań - Deep belief network

Schematyczny przegląd sieci głębokich przekonań. Strzałki reprezentują skierowane połączenia w modelu graficznym, który reprezentuje sieć.

W uczeniu maszynowym , sieć głębokich przekonań ( DBN ) jest generatywnym modelem graficznym lub alternatywnie klasą głębokich sieci neuronowych , złożoną z wielu warstw ukrytych zmiennych („ukrytych jednostek”), z połączeniami między warstwami, ale nie między jednostkami w każda warstwa.

Po przeszkoleniu na zestawie przykładów bez nadzoru DBN może nauczyć się probabilistycznej rekonstrukcji swoich danych wejściowych. Warstwy działają następnie jako detektory cech . Po tym etapie uczenia DBN może być dalej szkolony pod nadzorem w zakresie przeprowadzania klasyfikacji .

Sieci DBN można postrzegać jako zbiór prostych, nienadzorowanych sieci, takich jak ograniczone maszyny Boltzmanna (RBM) lub autoenkodery , w których ukryta warstwa każdej podsieci służy jako warstwa widoczna dla następnej. RBM to nieukierunkowany , generujący model oparty na energii z „widoczną” warstwą wejściową i warstwą ukrytą oraz połączeniami między warstwami, ale nie wewnątrz nich. Ta kompozycja prowadzi do szybkiej, nienadzorowanej procedury uczenia warstwa po warstwie, w której rozbieżność kontrastująca jest stosowana po kolei do każdej podsieci, zaczynając od „najniższej” pary warstw (najniższa widoczna warstwa to zbiór uczący ).

Spostrzeżenie, że DBN można chciwie trenować , warstwa po warstwie, doprowadziło do powstania jednego z pierwszych skutecznych algorytmów głębokiego uczenia się . Ogólnie rzecz biorąc, istnieje wiele atrakcyjnych implementacji i zastosowań DBN w rzeczywistych zastosowaniach i scenariuszach (np. Elektroencefalografia , odkrywanie leków ).

Trening

Ograniczony maszyny Boltzmanna (KMS) w pełni widzialne i związanych jednostek ukrytych. Zauważ, że nie ma żadnych ukrytych-ukrytych ani widocznych-widocznych połączeń.

Metoda szkolenia KMS zaproponowana przez Geoffreya Hintona do wykorzystania w modelach treningowych „Produkt eksperta” nazywa się dywergencją kontrastową (CD). CD zapewnia przybliżenie metody największej wiarygodności , która idealnie byłaby zastosowana do uczenia się wag. Podczas treningu z pojedynczym RBM aktualizacje masy są wykonywane z opadaniem gradientu za pomocą następującego równania:

gdzie jest prawdopodobieństwem widocznego wektora, które jest podane przez . to funkcja podziału (używana do normalizacji) i funkcja energii przypisana do stanu sieci. Niższa energia wskazuje, że sieć jest w bardziej „pożądanej” konfiguracji. Gradient ma prostą postać, w której przedstawia średnie w odniesieniu do rozkładu . Problem pojawia się przy próbkowaniu, ponieważ wymaga to rozszerzonego próbkowania naprzemiennego Gibbsa . CD zastępuje ten krok, uruchamiając naprzemienne próbkowanie Gibbsa dla kroków (wartości wykonania dobrze). Po krokach dane są próbkowane i ta próbka jest używana zamiast . Procedura CD działa w następujący sposób:

  1. Zainicjuj widoczne jednostki do wektora szkoleniowego.
  2. Zaktualizować ukrytych jednostek równolegle podane widoczne jednostki: . jest funkcją sigmoidalną i jest odchyleniem .
  3. Aktualizować widocznych jednostek równolegle podane te ukryte jednostki: . jest stronniczością . Nazywa się to krokiem „rekonstrukcji”.
  4. Ponownie zaktualizuj ukryte jednostki równolegle, biorąc pod uwagę zrekonstruowane widoczne jednostki, używając tego samego równania, co w kroku 2.
  5. Wykonać aktualizację waga: .

Po wytrenowaniu RBM, na nim „układa się” inny RBM, pobierając dane wejściowe z ostatniej wytrenowanej warstwy. Nowa widoczna warstwa jest inicjowana w wektorze szkoleniowym, a wartości jednostek w już wytrenowanych warstwach są przypisywane przy użyciu bieżących wag i odchyleń. Nowy KMS jest następnie szkolony zgodnie z powyższą procedurą. Cały proces powtarza się, aż do spełnienia żądanego kryterium zatrzymania.

Chociaż przybliżenie CD do maksymalnego prawdopodobieństwa jest surowe (nie jest zgodne z gradientem żadnej funkcji), jest empirycznie skuteczne.

Zobacz też

Bibliografia

Zewnętrzne linki