Subgradientmetoder er iterative metoder til at løse konvekse minimeringsproblemer . Subgradientmetoder udviklet af Naum Zuselevich Shor konvergerer, selv når de anvendes på ikke -differentierbare objektive funktioner . Når funktionen er differentierbar, bruger subgradientmetoder til ubegrænsede problemer den samme søgeretning som den stejleste nedstigningsmetode .
Subgradientmetoder er langsommere end Newtons metoder , hvor der bruges dobbelt kontinuerligt differentierbare konvekse funktioner til minimering. Newtons metoder holder dog op med at konvergere til problemer, der har ikke-differentierbare kinks.
I de senere år er nogle indre punktmetoder blevet foreslået til konvekse minimeringsproblemer, men både subgradientprojektionsmetoder og relaterede strålenedstigningsmetoder forbliver konkurrencedygtige. Til konvekse minimeringsproblemer med et stort antal dimensioner er subgradientprojektionsmetoder acceptable, fordi de kræver en lille mængde hukommelse.
Subgradientprojektionsmetoder anvendes ofte til problemer med store størrelser ved hjælp af nedbrydningsteknikker. Sådanne nedbrydningsmetoder giver ofte mulighed for en simpel distribueret opgavemetode.
Lade være en konveks funktion med domæne . Den klassiske subgradient-metode gentager sig
hvor er enhver subdifferentiel af funktionen i punktet , og er den kth iteration af variablen . Hvis den kan differentieres, er dens eneste undergradient gradienten på . Det kan ske, at det ikke er en faldende retning for på punktet . Derfor indeholder vi en liste , som gemmer de fundne mindste værdier af den objektive funktion, dvs
Undergradientmetoder bruger et stort antal forskellige regler for valg af trinstørrelse. Her bemærker vi fem klassiske regler, for hvilke konvergensbeviser er kendt:
For alle fem regler er trinstørrelsen bestemt "på forhånd", inden metoden starter. Trinstørrelsen er uafhængig af tidligere iterationer. Egenskaben "på forhånd" trinudvælgelse for subgradientmetoder adskiller sig fra de "igangværende" trinudvælgelsesregler, der bruges i metoder til differentierbare funktioner - mange metoder til at minimere differentiable funktioner opfylder Wolf-betingelserne for konvergens, hvor trinstørrelserne afhænger af den aktuelle punktets position og den aktuelle søgeretning. En omfattende diskussion af trinudvælgelsesreglerne for subgradientmetoder, herunder inkrementerende versioner, er givet i bogen af Bertsekas [1] og også i bogen af Bertsekas, Nedić og Ozdağlar [2] .
For en konstant trinlængde og skalerbare subgradienter med en euklidisk norm lig med én, nærmer subgradientmetoden sig vilkårligt tæt på minimumsværdien, dvs.
ifølge Shore [3] .Klassiske subgradientmetoder har dårlig konvergens og anbefales ikke længere til brug [4] [5] . De bruges dog stadig i specialiserede applikationer, fordi de er enkle og lette at tilpasse til specielle strukturer for at drage fordel af deres funktioner.
I løbet af 1970'erne foreslog Claude Lemérachel og Phil Wolf "skæremetoder" til nedstigning for konvekse minimeringsproblemer [6] . Betydningen af udtrykket "strålemetoder" har ændret sig meget siden da. Moderne versioner og en komplet konvergensanalyse blev givet af Kiel [7] . Moderne strålemetoder bruger ofte " niveaukontrol "-regler for valg af trinstørrelse, som udvikler teknikker fra "subgradientprojektion"-metoden af Boris T. Polyak (1969). Der er dog problemer, på grund af hvilke strålemetoder ofte giver ringe fordel i forhold til subgradientprojektionsmetoder [4] [5] .
En udvidelse af subgradientmetoder er subgradientprojektionsmetoden , som løser det begrænsede optimeringsproblem
minimere under betingelsenhvor er et konveks sæt . Subgradient-projektionsmetode bruger iterationer
hvor er projektionen på , og er enhver undergradient ved .
Subgradientmetoden kan udvides til at løse problemet med begrænsninger i form af uligheder
minimere under betingelsenhvor funktionerne er konvekse. Algoritmen tager den samme form af sagen uden begrænsninger
hvor er trinstørrelsen, og er undergradienten af målfunktionen eller en af begrænsningsfunktionerne i punktet . Her
hvor betyder funktionens subdifferentiale . Hvis det aktuelle punkt er gyldigt, bruger algoritmen objektivfunktionen subgradient. Hvis punktet er ugyldigt, vælger algoritmen en undergradient af enhver begrænsning, der er overtrådt.
Optimeringsmetoder _ | |
---|---|
Endimensionel |
|
Nul orden | |
Første ordre | |
anden orden | |
Stokastisk | |
Lineære programmeringsmetoder _ | |
Ikke-lineære programmeringsmetoder |