Optimal kontrol

Den aktuelle version af siden er endnu ikke blevet gennemgået af erfarne bidragydere og kan afvige væsentligt fra den version , der blev gennemgået den 21. september 2020; checks kræver 3 redigeringer .
Optimal kontrol

Optimal kontrol  er opgaven med at designe et system, der sørger for et givet kontrolobjekt eller proces en kontrollov eller en kontrolsekvens af handlinger, der giver maksimum eller minimum af et givet sæt systemkvalitetskriterier [1] .

Definition

Det optimale styringsproblem omfatter beregningen af ​​det optimale styringsprogram og syntesen af ​​det optimale styringssystem. Optimale styringsprogrammer beregnes som regel ved hjælp af numeriske metoder til at finde yderpunktet af en funktionel eller løse et grænseværdiproblem for et system af differentialligninger [2] . Fra et matematisk synspunkt er syntesen af ​​optimale styresystemer et ikke-lineært programmeringsproblem i funktionelle rum [3] .

For at løse problemet med at bestemme det optimale kontrolprogram, konstrueres en matematisk model af et kontrolleret objekt eller proces, der beskriver dets adfærd over tid under indflydelse af kontrolhandlinger og dets egen nuværende tilstand [4] .

Hvis den matematiske model af det kontrollerede objekt eller proces ikke er kendt på forhånd, så for at bestemme det, er det nødvendigt at udføre proceduren til at identificere det kontrollerede objekt eller proces [5]

Den matematiske model for det optimale kontrolproblem omfatter: formuleringen af ​​kontrolmålet, udtrykt gennem kontrolkvalitetskriteriet; definition af differential- eller differensligninger [6] , der beskriver mulige måder at bevæge kontrolobjektet på; definition af restriktioner på de anvendte ressourcer i form af ligninger eller uligheder [7] .

Alle optimale kontrolproblemer kan betragtes som matematiske programmeringsproblemer og kan løses i denne form ved numeriske metoder. [8] [9]

Med optimal styring af hierarkiske multilevel-systemer, for eksempel, anvendes store kemiske industrier, metallurgiske og energikomplekser, multifunktionelle og multi-level hierarkiske systemer med optimal kontrol. Den matematiske model introducerer kriterier for kvaliteten af ​​ledelsen for hvert ledelsesniveau og for hele systemet som helhed, samt koordinering af handlinger mellem ledelsesniveauer [10] [11] .

Hvis et kontrolleret objekt eller en proces er deterministisk, bruges differentialligninger til at beskrive det. De mest almindeligt anvendte almindelige differentialligninger er af formen . I mere komplekse matematiske modeller (for systemer med distribuerede parametre) bruges partielle differentialligninger til at beskrive et objekt . Hvis det kontrollerede objekt er stokastisk, bruges stokastiske differentialligninger til at beskrive det .

Teorien om differentiale spil bruges til at løse optimale kontrolproblemer under forhold med konflikt eller usikkerhed . [12]

Hvis løsningen af ​​det givne problem med optimal kontrol ikke kontinuerligt er afhængig af de indledende data ( il- posed problem ), så løses et sådant problem ved hjælp af specielle numeriske metoder. [13]

For at løse optimale kontrolproblemer med ufuldstændig indledende information og ved tilstedeværelse af målefejl, anvendes maksimumsandsynlighedsmetoden [14] .

Et optimalt styringssystem, der er i stand til at akkumulere erfaring og forbedre sit arbejde på dette grundlag, kaldes et læringsoptimalt styringssystem [15] .

Et objekts eller systems faktiske adfærd adskiller sig altid fra programmet på grund af unøjagtigheder i startforholdene, ufuldstændig information om eksterne forstyrrelser, der virker på objektet, unøjagtigheder i implementeringen af ​​programstyring osv. For derfor at minimere afvigelsen af ​​objektets adfærd fra den optimale, anvendes normalt et automatisk styresystem . [16]

Nogle gange (f.eks. ved håndtering af komplekse objekter, såsom en højovn i metallurgi eller ved analyse af økonomisk information), indeholder de indledende data og viden om det kontrollerede objekt ved indstilling af det optimale kontrolproblem usikker eller uklar information, som ikke kan behandles af traditionelle kvantitative metoder. I sådanne tilfælde kan optimale kontrolalgoritmer baseret på den matematiske teori om fuzzy-sæt ( fuzzy control ) bruges. De anvendte begreber og viden konverteres til en fuzzy form, fuzzy regler for at udlede beslutninger bestemmes, og derefter udføres den omvendte transformation af fuzzy beslutninger til fysiske kontrolvariable. [17] [11]

For optimal styring af økonomiske processer anvendes metoder til økonomisk kybernetik , spilteori , grafteori [18]

Optimal kontrol af deterministiske systemer

Klumpede systemer

Mest udbredt i udformningen af ​​styresystemer til deterministiske objekter med klumpede parametre beskrevet af almindelige differentialligninger, anvendes følgende metoder: calculus of variations , Pontryagins maksimumprincip og Bellmans dynamiske programmering [1] .

Optimalt kontrolproblem

Vi formulerer det optimale kontrolproblem:

  • Tilstandsligninger: (1).
  • Grænsebetingelser , (2).
  • Minimeret funktionel: .

her  — tilstandsvektor  — kontrol,  — indledende og sidste tidspunkter.

Det optimale kontrolproblem er at finde tilstanden og kontrolfunktionerne for tid , hvilket minimerer det funktionelle.

Variationsberegning

Betragt dette optimale kontrolproblem som et Lagrange-problem med variationsregningen [19] . For at finde de nødvendige betingelser for et ekstremum anvender vi Euler-Lagrange-sætningen [19] . Lagrange-funktionen har formen: , hvor  er grænsebetingelserne. Lagrangen har formen: , hvor , ,  er n-dimensionelle vektorer af Lagrange-multiplikatorer .

De nødvendige betingelser for et ekstremum ifølge denne teorem er:

  • stationaritet i u: , (3)
  • stationaritet i x, Euler-ligning: (4)
  • transversalitet i x: , (5)

De nødvendige betingelser (3-5) danner grundlag for fastlæggelse af de optimale baner. Efter at have skrevet disse ligninger får vi et to-punkts grænseproblem, hvor en del af grænsebetingelserne er sat i det indledende tidspunkt, og resten i det sidste øjeblik. Metoder til at løse sådanne problemer er beskrevet detaljeret i bogen [20]

Pontryagins maksimale princip

Principielt behov for Pontryagin-maksimum opstår, når det ikke er nogen steder i det tilladte område af kontrolvariablen, at det er umuligt at opfylde den nødvendige betingelse (3), nemlig .

I dette tilfælde erstattes betingelse (3) med betingelse (6):

(6)

I dette tilfælde er værdien af ​​den optimale kontrol ifølge Pontryagin-maksimumsprincippet lig med værdien af ​​kontrollen i en af ​​enderne af det tilladte område. Pontryagin-ligningerne er skrevet ved hjælp af Hamilton-funktionen , defineret af relationen . Det følger af ligningerne, at Hamilton-funktionen er relateret til Lagrange-funktionen som følger: . Ved at substituere fra den sidste ligning til ligning (3-5), opnår vi de nødvendige betingelser udtrykt i form af Hamilton-funktionen:

  • kontrolligning for u: , (7)
  • tilstandsligning: , (8)
  • adjoint ligning: , (9)
  • tværgående i x: , (10)

Nødvendige betingelser skrevet i denne form kaldes Pontryagins ligninger. Pontryagin maksimum-princippet er analyseret mere detaljeret i bogen [19] .

Eksempel

Lad det være nødvendigt at løse problemet med at minimere det funktionelle:

, hvor , , .

Hamilton-funktionen har i dette tilfælde formen:

.

Ud fra betingelser 9) og 10) finder vi, at:

, .

Vi får:

.

Det maksimale af denne funktion med hensyn til , , nås ved , hvor

Efter betingelse ,. Midler:

Fra , får vi . Ud fra kontinuitetsbetingelsen på punktet finder vi konstanten .

På denne måde:

Det kan verificeres, at det er fundet og udgør den optimale løsning af dette problem [21]

Hvor det er relevant

Maksimumsprincippet er især vigtigt i styresystemer med maksimal hastighed og minimalt energiforbrug, hvor der anvendes styringer af relætype, der tager ekstreme snarere end mellemværdier i det tilladte kontrolinterval.

Historie

For udviklingen af ​​teorien om optimal kontrol blev L. S. Pontryagin og hans samarbejdspartnere V. G. Boltyansky , R. V. Gamkrelidze og E. F. Mishchenko tildelt Leninprisen i 1962 .

Dynamisk programmeringsmetode

Den dynamiske programmeringsmetode er baseret på Bellman-optimalitetsprincippet, som er formuleret således: den optimale styringsstrategi har den egenskab, at uanset starttilstand og styring i begyndelsen af ​​processen, skal efterfølgende styringer udgøre den optimale styringsstrategi m.h.t. tilstanden opnået efter den indledende fase af processen [22] . Den dynamiske programmeringsmetode er beskrevet mere detaljeret i bogen [23]

Tilstrækkelige optimalitetsbetingelser

Tilstrækkelige betingelser for optimaliteten af ​​kontrollerede processer blev opnået i 1962 af V. F. Krotov , på grundlag heraf blev iterative beregningsmetoder til successiv forbedring konstrueret, hvilket gjorde det muligt at finde et globalt optimum i kontrolproblemer [24] [25] [26] .

Optimal styring af systemer med distribuerede parametre

I opgaver med optimal styring af sådanne objekter som en kontinuerlig varmeovn, en varmeveksler , en belægningsinstallation, en tørreenhed, en kemisk reaktor , et blandingsseparationsanlæg, en høj- eller åben ildovn , et koksovnsbatteri, et valseanlæg mølle , en induktionsvarmeovn osv. den kontrollerede proces beskrives ved partielle differentialligninger, integralligninger og integrodifferentialligninger.

Teorien om optimal kontrol i dette tilfælde er kun udviklet til visse typer af disse ligninger: elliptiske, parabolske og hyperbolske typer.

I nogle simple tilfælde er det muligt at opnå en analog af Pontryagin maksimum-princippet. [27] [28]

Hvis løsningerne af ligningssystemer har ustabiliteter, diskontinuitetspunkter, bifurkationspunkter, multiple løsninger, så bruges en række specielle metoder til at opnå dem [29] .

Optimalt kontrolproblem
  • Administreret proces scoped
  • Ligninger, der beskriver den kontrollerede proces: , hvor  —  er dimensionsvektoren, der beskriver den kontrollerede proces,  —  er dimensionsvektoren af ​​vektorens afledte med hensyn til koordinaten ,  —  er dimensionsvektoren af ​​vektorens afledte i forhold til koordinat ,  —  er den dimensionelle kontrolvektor.
  • Grænsebetingelser for en kontrolleret proces:
  • Opgaven for den optimale kontrol er at finde en sådan kontrol, for hvilken løsningen, der kan tillades af ligningerne, fører til det maksimale af det funktionelle .
Det maksimale princip for systemer med distribuerede parametre

For at formulere maksimumprincippet for systemer med distribuerede parametre introduceres Hamilton-funktionen: , hvor hjælpefunktionerne skal opfylde ligningerne og randbetingelserne for , for , .

Hvis er den optimale kontrol, og er de funktioner opnået under den optimale kontrol, der opfylder ligningerne , så når funktionen , betragtet som en funktion af argumentet , et maksimum i regionen ved , det vil sige for næsten alle punkter , ligheden

Hvis systemet er et lineært system af formen , så sætningen

For optimal styring i det lineære tilfælde er det nødvendigt og tilstrækkeligt, at maksimumsprincippet er opfyldt.

Se beviset for disse to teoremer i bogen [28] .

Optimal kontrol af lineære stokastiske systemer

I dette tilfælde er det kontrollerede objekt eller proces beskrevet af lineære stokastiske differentialligninger . I dette tilfælde udføres løsningen af ​​det optimale kontrolproblem på grundlag af Riccati-ligningen [30] .

Optimalt kontrolproblem

  • Systemet er beskrevet ved lineære stokastiske differentialligninger , hvor  er en -dimensionel tilstandsvektor,  er en -dimensionel kontrolvektor,  er en -dimensionel vektor af observerede variabler,  er uafhængige wienerprocesser med nul middelværdier og givne stigningskovarianser,  er matricer.
  • Det er nødvendigt at finde den optimale kontrol, der minimerer den matematiske forventning til tabsfunktionen .

Se også

Noter

  1. 1 2 Samoylenko V.I., Puzyrev V.A., Grubrin I.V. "Technical Cybernetics", lærebog. godtgørelse, M., MAI forlag , 1994, 280 s. ill., ISBN 5-7035-0489-9 , kap. 4 "Optimale styresystemer til dynamiske objekter og processer", s. 63-113;
  2. Moiseev, 1975 , s. 114.
  3. Moiseev, 1975 , s. 316.
  4. Rastrigin L. A. Denne tilfældige, tilfældige, tilfældige verden. - M., Ung Garde, 1969. - S. 47 - 50
  5. Rastrigin L. A. , Madzharov N. E. Introduktion til identifikation af kontrolobjekter. - M . : Energi, 1977. - 216 s.
  6. Moiseev, 1975 , s. 79-89.
  7. Korshunov Yu. M. "Mathematical Foundations of Cybernetics", lærebog. godtgørelse til universiteter, 2. udg., revideret. og tilf., M., "Energi", 1980, 424 s., ill., BBK 32.81 6F0.1, kap. 5 "Struktur og matematisk beskrivelse af optimale kontrolproblemer", s. 202;
  8. Tobacco, 1975 , s. atten.
  9. Moiseev, 1975 , s. 304-368.
  10. Mesarovich M., Mako D., Tkahara I. Teori om hierarkiske flerniveausystemer - M., Mir, 1973. - s. 344
  11. 1 2 Moiseev, 1975 , s. 465-520.
  12. Krasovsky N. N., Subbotin A. I. Positionelle differentialspil. - M., Nauka, 1974. - s. 24
  13. Vasiliev F. P. Metoder til løsning af ekstreme problemer. — M.: Nauka, 1981. — S. 159.
  14. Moiseev, 1975 , s. 351-368.
  15. Tsypkin Ya. Z. Fundamentals of theory of learning systems. - M .: Nauka, 1970. - S. 252.
  16. Alexandrov A. G. Optimale og adaptive systemer. - M .: Højere skole, 1989. - 263 s. ISBN 5-06-000037-0
  17. Metoder til robust, neuro-fuzzy og adaptiv kontrol: Lærebog / Ed. N. D. Egupova, red. 2nd, ster., M., Bauman Moscow State Technical University, 2002, 744 s., ISBN 5-7038-2030-8 , circ. 2000 eksemplarer, del 2 "Fuzzy control"
  18. Teplov L. Hvad skal man tælle: Populære essays om økonomisk kybernetik. - M., Moskovsky-arbejder, 1970. - 317 s.
  19. 1 2 3 E. M. Galeev, V. M. Tikhomirov “Optimering: teori, eksempler, opgaver”, M., Editorial URSS, 2000, 320 s., ISBN 5-8360-0041-7 , kap. 3 "Beregning af variationer", s. 6 "Lagrangeproblemet", s. 173-181;
  20. "Numeriske metoder i teorien om optimale systemer", Moiseev N. N. , "Nauka", 1971, 424 sider med illustrationer, kap. 2 "Numeriske metoder til beregning af optimale programmer ved hjælp af de nødvendige betingelser for et ekstremum", s. 80 - 155;
  21. Barbaumov V. E., Ermakov V. I., Kriventsova N. N. Håndbog i matematik for økonomer. - M., Higher School, 1987. - s. 243
  22. Bellmann R. "Dynamisk programmering", IL, M., 1960;
  23. "Numeriske metoder i teorien om optimale systemer", Moiseev N. N. , "Nauka", 1971, 424 sider med illustrationer, kap. 3 "Direkte metoder til optimal kontrolteori", s. 156-265;
  24. Voronov A. A. Teori om automatisk kontrol. T. 1. - M .: Højere skole, 1986, s. 294-304.
  25. Vasiliev F. P. Numeriske metoder til løsning af ekstreme problemer. - M .: Nauka, 1988, s. 522-530.
  26. Krotov V. F. Metoder til løsning af variationsproblemer baseret på tilstrækkelige betingelser for et absolut minimum. I—IV // Automation og telemekanik, 1962, bind 23, nr. 12, s. 1571—1583; 1963, bind 24, nr. 5, s. 581-598; 1963, bind 24, nr. 7, side 826-843; 1965, bind 26, nr. 1, s. 24-41.
  27. J.-L. Lions Optimal kontrol af systemer beskrevet af partielle differentialligninger, Moscow, Mir, 1972, 412 pp.
  28. 1 2 Butkovsky A. G. Teori om optimal kontrol af systemer med distribuerede parametre, M., Nauka, 1965
  29. J.-L. Lions Control of singular distributed systems, Moscow, Mir, 1987, 367 s.
  30. K. Yu. Ostrem Introduktion til stokastisk kontrolteori, M., Mir, 1973

Litteratur

  • Rastrigin L. A. Moderne principper for håndtering af komplekse objekter. — M.: Sov. radio, 1980. - 232 s., BBC 32.815, skydehal. 12000 eksemplarer
  • Alekseev V. M., Tikhomirov V. M. , Fomin S. V. Optimal kontrol. - M .: Nauka, 1979, UDC 519.6, - 223 s., skydehal. 24000 eksemplarer
  • Volgin LN Optimal diskret styring af dynamiske systemer. - M. : Nauka, 1986. - 240 s.
  • Tabak D., Kuo B. Optimal kontrol og matematisk programmering. — M .: Nauka, 1975. — 279 s.
  • Moiseev NN Elementer i teorien om optimale systemer. — M .: Nauka, 1975. — 526 s.
  • Galeev E. M. , Tikhomirov V. M. Et kort kursus i teorien om ekstreme problemer. - M. : MGU, 1989. - 204 s. - ISBN 5-211-00313-6 .
  • Krotov VF, Gurman VI Metoder og problemer med optimal kontrol. — M .: Nauka, 1973.
  • Pontryagin L. S., Boltyansky V. G., Gamkrelidze R. V., Mishchenko E. F. Matematisk teori om optimale processer. — M .: Nauka, 1976.
  • Boltyansky VG Optimal kontrol af diskrete systemer. — M .: Nauka, 1973.
  • Butkovskiy AG Teori om optimal kontrol af systemer med distribuerede parametre. — M .: Nauka, 1965.
  • Butkovsky A.G. Kontrolmetoder til systemer med distribuerede parametre. — M .: Nauka, 1975.
  • Budak BM, Vasiliev FP Omtrentlig metoder til løsning af optimale kontrolproblemer. - M. : MGU, 1969.
  • Oleinikov V. A., Zotov N. S., Prishvin A. M. Grundlæggende om optimal og ekstrem kontrol. - M . : Højere skole, 1969. - 296 s.
  • Degtyarev GL, Sirazetdinov TK Teoretisk grundlag for optimal kontrol af elastiske rumfartøjer. - M . : Mashinostroenie, 1986. - 216 s.
  • Lerner A. Ya. , Rozenman E. A. Optimal kontrol. - M . : Energi, 1970. - 360 s.
  • Gurman V. I. , Tikhomirov V. N., Kirillova F. M. Optimal kontrol. - M . : Viden, 1978. - 144 s.
  • Boltyansky VG Matematiske metoder til optimal kontrol. — M .: Nauka, 1969. — 408 s.
  • Young L. Forelæsninger om variationsregning og teorien om optimal kontrol. — M .: Mir, 1974. — 488 s.
  • Makarov I. M. , Lokhin V. M. Manko S. V. Kunstig intelligens og intelligente kontrolsystemer. — M .: Nauka , 2006. — 333 s. - 1000 eksemplarer.  — ISBN 5-02-033782-X .
  • Donchev A. Systemer til optimal kontrol. Forstyrrelser, tilnærmelser og følsomhedsanalyse. — M .: Mir, 1987. — 156 s. - 6700 eksemplarer.
  • V. A. Ivanov, A. S. Jusjtjenko. Teori om diskrete automatiske kontrolsystemer . - M. : Moscow State Technical University opkaldt efter N. E. Bauman , 2015. - 352 s. — ISBN 978-5-7038-4178-5 .
  • Kuzin L. T. Fundamentals of Cybernetics. - M . : Energi, 1973. - 504 s. — 30.000 eksemplarer.
  • Fursikov A. V. Optimal styring af distribuerede systemer. Teori og anvendelser. - Novosibirsk: Nauchnaya kniga, 1999. - 352 s. - 1000 eksemplarer.  - ISBN 5-88119-017-3 .
  • Lions JL Ledelse af singular distribuerede systemer. - Moskva: Nauka, 1987. - 368 s. - 3600 eksemplarer.
  • Khazen EM Metoder til optimale statistiske løsninger og optimale kontrolproblemer. - Moskva: Sovjetisk radio, 1968. - 256 s. — 12.000 eksemplarer.
  • Leitman J. Introduktion til teorien om optimal kontrol. - Moskva: Nauka, 1968. - 190 s. - 14.000 eksemplarer.
  • Saridis J. Selvorganiserende stokastiske kontrolsystemer. - Moskva: Nauka, 1980. - 400 s. - 4000 eksemplarer.
  • A. A. AGRACHEV og Yu. L. Sachkov Geometrisk kontrolteori . - Moskva: FIZMATLIT, 2004. - 391 s. — ISBN 5-9221-0532-9 .

Links