Undergradientmetoder

Subgradientmetoder  er iterative metoder til at løse konvekse minimeringsproblemer . Subgradientmetoder udviklet af Naum Zuselevich Shor konvergerer, selv når de anvendes på ikke -differentierbare objektive funktioner . Når funktionen er differentierbar, bruger subgradientmetoder til ubegrænsede problemer den samme søgeretning som den stejleste nedstigningsmetode .

Subgradientmetoder er langsommere end Newtons metoder , hvor der bruges dobbelt kontinuerligt differentierbare konvekse funktioner til minimering. Newtons metoder holder dog op med at konvergere til problemer, der har ikke-differentierbare kinks.

I de senere år er nogle indre punktmetoder blevet foreslået til konvekse minimeringsproblemer, men både subgradientprojektionsmetoder og relaterede strålenedstigningsmetoder forbliver konkurrencedygtige. Til konvekse minimeringsproblemer med et stort antal dimensioner er subgradientprojektionsmetoder acceptable, fordi de kræver en lille mængde hukommelse.

Subgradientprojektionsmetoder anvendes ofte til problemer med store størrelser ved hjælp af nedbrydningsteknikker. Sådanne nedbrydningsmetoder giver ofte mulighed for en simpel distribueret opgavemetode.

Regler for den klassiske undergradient

Lade være en konveks funktion med domæne . Den klassiske subgradient-metode gentager sig

hvor er enhver subdifferentiel af funktionen i punktet , og  er den kth iteration af variablen . Hvis den kan differentieres, er dens eneste undergradient gradienten på . Det kan ske, at det ikke er en faldende retning for på punktet . Derfor indeholder vi en liste , som gemmer de fundne mindste værdier af den objektive funktion, dvs

Trinstørrelsesregler

Undergradientmetoder bruger et stort antal forskellige regler for valg af trinstørrelse. Her bemærker vi fem klassiske regler, for hvilke konvergensbeviser er kendt:

For alle fem regler er trinstørrelsen bestemt "på forhånd", inden metoden starter. Trinstørrelsen er uafhængig af tidligere iterationer. Egenskaben "på forhånd" trinudvælgelse for subgradientmetoder adskiller sig fra de "igangværende" trinudvælgelsesregler, der bruges i metoder til differentierbare funktioner - mange metoder til at minimere differentiable funktioner opfylder Wolf-betingelserne for konvergens, hvor trinstørrelserne afhænger af den aktuelle punktets position og den aktuelle søgeretning. En omfattende diskussion af trinudvælgelsesreglerne for subgradientmetoder, herunder inkrementerende versioner, er givet i bogen af ​​Bertsekas [1] og også i bogen af ​​Bertsekas, Nedić og Ozdağlar [2] .

Konvergens

For en konstant trinlængde og skalerbare subgradienter med en euklidisk norm lig med én, nærmer subgradientmetoden sig vilkårligt tæt på minimumsværdien, dvs.

ifølge Shore [3] .

Klassiske subgradientmetoder har dårlig konvergens og anbefales ikke længere til brug [4] [5] . De bruges dog stadig i specialiserede applikationer, fordi de er enkle og lette at tilpasse til specielle strukturer for at drage fordel af deres funktioner.

Subgradientprojektioner og strålemetoder

I løbet af 1970'erne foreslog Claude Lemérachel og Phil Wolf "skæremetoder" til nedstigning for konvekse minimeringsproblemer [6] . Betydningen af ​​udtrykket "strålemetoder" har ændret sig meget siden da. Moderne versioner og en komplet konvergensanalyse blev givet af Kiel [7] . Moderne strålemetoder bruger ofte " niveaukontrol "-regler for valg af trinstørrelse, som udvikler teknikker fra "subgradientprojektion"-metoden af ​​Boris T. Polyak (1969). Der er dog problemer, på grund af hvilke strålemetoder ofte giver ringe fordel i forhold til subgradientprojektionsmetoder [4] [5] .

Begrænset optimering

Subgradientprojektionsmetode

En udvidelse af subgradientmetoder er subgradientprojektionsmetoden , som løser det begrænsede optimeringsproblem

minimere under betingelsen

hvor er et konveks sæt . Subgradient-projektionsmetode bruger iterationer

hvor er projektionen på , og er enhver undergradient ved .

Generelle begrænsninger

Subgradientmetoden kan udvides til at løse problemet med begrænsninger i form af uligheder

minimere under betingelsen

hvor funktionerne er konvekse. Algoritmen tager den samme form af sagen uden begrænsninger

hvor er trinstørrelsen, og er undergradienten af ​​målfunktionen eller en af ​​begrænsningsfunktionerne i punktet . Her

hvor betyder funktionens subdifferentiale . Hvis det aktuelle punkt er gyldigt, bruger algoritmen objektivfunktionen subgradient. Hvis punktet er ugyldigt, vælger algoritmen en undergradient af enhver begrænsning, der er overtrådt.

Noter

  1. Bertsekas, 2015 .
  2. Bertsekas, Nedic, Ozdaglar, 2003 .
  3. Konvergens af subgradientmetoder med konstant (skaleret) trin er angivet i øvelse 6.3.14(a) i Bertsekas ' bog (side 636) ( Bertsekas 1999 ), og han tilskriver dette resultat til Shor ( Shor 1985 )
  4. 1 2 Lemarechal, 2001 , s. 112-156.
  5. 1 2 Kiwiel, Larsson, Lindberg, 2007 , s. 669-686.
  6. Bertsekas, 1999 .
  7. Kiwiel, 1985 , s. 362.

Litteratur

Yderligere læsning

Links