Metoda podgradientowa - Subgradient method

Metody subgradientowe to iteracyjne metody rozwiązywania problemów minimalizacji wypukłości . Pierwotnie opracowane przez Nauma Z. Shora i innych w latach sześćdziesiątych i siedemdziesiątych XX wieku metody subgradientowe są zbieżne, gdy są stosowane nawet do nieróżniczkowalnej funkcji celu. Gdy funkcja celu jest różniczkowalna, metody podgradientowe dla problemów nieograniczonych wykorzystują ten sam kierunek poszukiwań, co metoda najbardziej stromego spadku .

Metody subgradientowe są wolniejsze niż metoda Newtona, gdy są stosowane w celu zminimalizowania dwukrotnie różniczkowalnych wypukłych funkcji w sposób ciągły. Jednak metoda Newtona nie jest zbieżna w przypadku problemów, które mają nierozróżnialne załamania.

W ostatnich latach zaproponowano pewne metody punktu wewnętrznego w celu rozwiązania problemów z minimalizacją wypukłości, ale metody projekcji subgradientowej i powiązane metody opadania wiązek pozostają konkurencyjne. W przypadku problemów z minimalizacją wypukłości przy bardzo dużej liczbie wymiarów odpowiednie są metody rzutowania subgradientowego, ponieważ wymagają one niewielkiego przechowywania.

Metody rzutowania subgradientowego są często stosowane w przypadku wielkoskalowych problemów z technikami dekompozycji. Takie metody dekompozycji często pozwalają na prostą metodę rozproszoną dla problemu.

Klasyczne reguły subgradientowe

Niech będzie funkcją wypukłą z dziedziną . Klasyczna metoda subgradientowa iteruje

gdzie oznacza dowolny subgradient się na i jest iteracyjne z . Jeśli jest różniczkowalna, to jej jedynym subgradientem jest sam wektor gradientu . Może się zdarzyć, że nie jest to kierunek zejścia o godz . Dlatego prowadzimy listę, która śledzi najniższą znalezioną dotychczas wartość funkcji celu, tj

Zasady dotyczące wielkości stopni

Metody subgradientowe wykorzystują wiele różnych typów reguł wielkości kroku. W tym artykule opisano pięć klasycznych reguł wielkości kroku, dla których znane są dowody zbieżności :

  • Stały rozmiar kroku,
  • Stała długość kroku , co daje
  • Kwadratowy, ale nie dający się zsumować rozmiar kroku, tj. Zadowalające rozmiary stopni
  • Niemożliwe zmniejszanie, tj. Zadowalające rozmiary stopni
  • Niemożliwe do zwiększenia malejące długości kroku, tj. Gdzie

Dla wszystkich pięciu reguł rozmiary kroków są określane „off-line”, przed iteracją metody; rozmiary stopni nie zależą od poprzedzających iteracji. Ta właściwość „off-line” metod subgradientowych różni się od reguł wielkości kroku „on-line” stosowanych w metodach zejścia dla funkcji różniczkowalnych: Wiele metod minimalizacji funkcji różniczkowalnych spełnia warunki dostateczne dla zbieżności Wolfe'a, gdzie rozmiary kroku zwykle zależą od aktualny punkt i aktualny kierunek wyszukiwania. Obszerne omówienie reguł stopniowania dla metod subgradientowych, w tym wersji przyrostowych, znajduje się w książkach Bertsekasa oraz Bertsekasa, Nedica i Ozdaglara.

Wyniki konwergencji

Dla stałej długości kroku i skalowanych subgradientów o normie euklidesowej równej jeden, metoda subgradientów jest zbieżna do arbitralnie bliskiego przybliżenia do wartości minimalnej, to znaczy

przez wynik Shor .

Te klasyczne metody subgradientowe mają słabą wydajność i nie są już zalecane do ogólnego użytku. Jednak nadal są szeroko stosowane w wyspecjalizowanych aplikacjach, ponieważ są proste i można je łatwo dostosować, aby wykorzystać specjalną strukturę danego problemu.

Metody rzutowania subgradientowego i pakietów

W latach siedemdziesiątych Claude Lemaréchal i Phil Wolfe zaproponowali „wiązkowe metody” zejścia dla problemów minimalizacji wypukłości. Od tego czasu znaczenie terminu „metody pakietowe” uległo znaczącej zmianie. Nowoczesne wersje i pełną analizę zbieżności dostarczył Kiwiel. Współczesne metody wiązek często wykorzystują reguły „kontroli poziomu ” do wybierania wielkości stopni, rozwijając techniki z metody „subgradient-projection” Borisa T. Polyaka (1969). Istnieją jednak problemy, w przypadku których metody wiązkowe mają niewielką przewagę nad metodami rzutowania subgradientowego.

Ograniczona optymalizacja

Przewidywany subgradient

Jednym z rozszerzeń metody subgradientowej jest metoda subgradientów rzutowanych , która rozwiązuje problem optymalizacji z ograniczeniami

zminimalizować temat

gdzie jest wypukły zbiór . Metoda prognozowanych podgradientów wykorzystuje iterację

gdzie jest projekcja na i jest dowolnym podgradientem at

Ogólne ograniczenia

Metodę subgradientową można rozszerzyć w celu rozwiązania problemu ograniczonego nierównościami

zminimalizować temat

gdzie są wypukłe. Algorytm ma taką samą postać jak przypadek nieograniczony

gdzie jest wielkością kroku i jest subgradientem celu lub jednej z funkcji ograniczających w Take

gdzie oznacza subdifferential się . Jeśli aktualny punkt jest wykonalny, algorytm używa obiektywnego podgradienta; jeśli bieżący punkt jest niewykonalny, algorytm wybiera podgradient dowolnego naruszonego ograniczenia.

Bibliografia

Dalsza lektura

Linki zewnętrzne