Systemidentifikation er et sæt metoder til at konstruere matematiske modeller af et dynamisk system baseret på observationsdata. En matematisk model betyder i denne sammenhæng en matematisk beskrivelse af adfærden af et system eller en proces i frekvens- eller tidsdomænet, for eksempel fysiske processer (bevægelse af et mekanisk system under påvirkning af tyngdekraften), en økonomisk proces (reaktion af bestanden ). citater til eksterne forstyrrelser) osv. På nuværende tidspunkt er dette område af kontrolteori velundersøgt og er meget udbredt i praksis.
Begyndelsen på identifikation af systemer som et emne for konstruktion af matematiske modeller baseret på observationer er forbundet med arbejdet af Carl Friedrich Gauss "Theoria motus corporum coelestium in sectionibus conicis solem ambientium", hvor han brugte metoden med mindste kvadrater udviklet af ham at forudsige planeternes bane. Efterfølgende har denne metode fundet anvendelse i mange andre applikationer, herunder konstruktion af matematiske modeller af kontrollerede objekter, der anvendes i automatisering (motorer, ovne, forskellige aktuatorer). Meget af det tidlige arbejde med systemidentifikation blev udført af statistikere, økonometikere (især interesserede i anvendelser af identifikation relateret til tidsserier) og dannede et felt kaldet statistisk estimering. Statistisk estimering var også baseret på Gauss (1809) og Fishers (1912) arbejde [1] .
Indtil omkring 50'erne af det 20. århundrede var de fleste af identifikationsprocedurerne inden for automatisering baseret på at observere reaktionerne fra kontrollerede objekter i nærværelse af visse kontrolhandlinger (oftest handlinger af formen: trinvist ( ), harmonisk ( ), genereret farve eller hvid støj ), og afhængigt af hvilken type information der blev brugt om objektet, blev identifikationsmetoder opdelt i frekvens og tidsmæssig. Problemet var, at omfanget af disse metoder oftest var begrænset til skalære systemer (SISO, Single-input, single-output). I 1960 præsenterede Rudolf Kalman en beskrivelse af et kontrolleret system i form af et tilstandsrum, som gjorde det muligt at arbejde med multidimensionelle (MIMO, Many-input, mange-output) systemer, og lagde grundlaget for optimal filtrering og optimal kontrol baseret på denne type beskrivelse.
Specifikt til kontrolproblemer blev metoder til identifikation af systemer udviklet i 1965 i værker af Ho og Kalman [2] , Ostrom og Bolin [3] . Disse værker banede vejen for udviklingen af to identifikationsmetoder, der stadig er populære i dag: subspace-metoden og forudsigelsesfejlmetoden. Den første er baseret på brugen af projektioner i det euklidiske rum, og den anden på minimeringen af et kriterium, der afhænger af modellens parametre.
Ho og Kalmans arbejde er afsat til at finde en tilstand-rum-model af det objekt, der undersøges, som har den mindste rækkefølge af tilstandsvektoren, baseret på information om impulsresponsen. Dette problem, men allerede i nærværelse af implementeringer af en tilfældig proces, hvor Markov-modellen er dannet , blev løst i 70'erne i værkerne af Forre [4] og Akaika [5] . Disse værker lagde grundlaget for skabelsen af subspace-metoden i begyndelsen af 1990'erne.
Arbejdet fra Åström og Bolin introducerede maksimumsandsynlighedsmetoden til identifikationsfællesskabet, som blev udviklet af tidsserieeksperter til at estimere modelparametre i form af differensligninger [6] [7] . Disse modeller, som i den statistiske litteratur er kendt som ARMA (autoregressive moving average) og ARMAX (autoregressive moving average with input), dannede senere grundlaget for prædiktionsfejlmetoden. I 1970 udgav Box og Jenkins en bog [8] , som gav et betydeligt skub til anvendelsen af identifikationsmetoder på alle mulige områder. Dette arbejde gav med andre ord en komplet opskrift på identifikation fra det øjeblik du begynder at indsamle information om objektet til modtagelse og verifikation af modellen. I 15 år har denne bog været kilden til systemidentifikation. Et vigtigt arbejde på den tid var også gennemgangen [9] om systemidentifikation og tidsserieanalyse, offentliggjort i IEEE Transactions on Automatic Control i december 1974. Et af de åbne spørgsmål var så spørgsmålet om identifikation af lukkede systemer, hvor metoden baseret på krydskorrelation fører til utilfredsstillende resultater [10] . Siden midten af 1970'erne er den nyligt opfundne metode til forudsigelsesfejl kommet til at dominere teori og, endnu vigtigere, identifikationsapplikationer. Det meste af forskningsaktiviteten har fokuseret på problemerne med at identificere multidimensionelle og lukkede systemer. Nøgleopgaven for disse to klasser af systemer var at finde betingelserne for eksperimentet og måder at parametrisere problemet på, hvorunder den fundne model ville nærme sig den eneste nøjagtige beskrivelse af det virkelige system. Det kan siges om al den tids aktivitet, at det var tidspunktet for at søge efter den "sande model", løse problemerne med identificerbarhed, konvergens til nøjagtige parametre, statistisk effektivitet af estimater og asymptotisk normalitet af de estimerede parametre. I 1976 blev det første forsøg gjort på at betragte identifikationen af systemer som en tilnærmelsesteori, hvor problemet er den bedst mulige tilnærmelse af et virkeligt system inden for en given klasse af modeller [11] [12] , [13] . Den fremherskende opfattelse blandt identifikationsspecialister har således ændret sig fra at søge en beskrivelse af det sande system til at søge en beskrivelse af den bedst mulige tilnærmelse. Et vigtigt gennembrud skete også, da L. Ljung introducerede begrebet bias og variansfejl til at estimere objekters overførselsfunktioner [14] . Arbejdet med bias og analyse af variansen af de resulterende modeller i 1980'erne førte til perspektivet om at betragte identifikation som et synteseproblem. Baseret på forståelsen af de eksperimentelle forholds indflydelse, modellens struktur og identifikationskriteriet baseret på bias og fejlvarians, er det muligt at tilpasse disse syntesevariable til objektet på en sådan måde, at man opnår den bedste model. i denne klasse af modeller [15] [16] . Lennart Ljungs bog [17] , som har stor indflydelse på fællesskabet af identifikationsspecialister, er gennemsyret af denne ideologi.
Ideen om, at kvaliteten af en model kunne ændres ved valget af syntesevariabler førte til et udbrud af aktivitet i 1990'erne, som fortsætter den dag i dag. Hovedanvendelsen af det nye paradigme er identifikation af MBC (Model Based Control). I overensstemmelse hermed er identifikation af kontrolproblemer blomstret med hidtil uset kraft siden starten, og anvendelsen af identifikationsmetoder til kontrol har pustet nyt liv i så allerede kendte forskningsområder som eksperimentdesign, lukket sløjfe-identifikation, frekvensidentifikation, robust kontrol i tilstedeværelsen af usikkerhed.
Hovedbegivenheden i udviklingen af systemidentifikation i USSR var åbningen i 1968 af laboratorium nr. 41 ("Kontrolsystemidentifikation") ved Institut for Automation og Telemekanik (nu Institut for Kontrolproblemer ved Det Russiske Videnskabsakademi) med bistand fra N. S. Raibman. Naum Semenovich Raibman var en af de første i landet, der indså de praktiske fordele og den teoretiske interesse ved systemidentifikation. Han udviklede teorien om spredningsidentifikation til identifikation af ikke-lineære systemer [18] , og skrev også en bog kaldet "Hvad er identifikation?" [19] for at forklare de grundlæggende principper for det nye fag og for at beskrive rækken af opgaver, der løses ved systemidentifikation. Også efterfølgende var Yakov Zalmanovich Tsypkin , som udviklede teorien om informationsidentifikation, interesseret i teorien om identifikation [20]
Opbygning af en matematisk model kræver 5 grundlæggende ting:
Identifikationsproceduren har en naturlig logisk rækkefølge: Først indsamler vi data, derefter danner vi et sæt modeller, og derefter vælger vi den bedste model. Det er almindeligt, at den først valgte model fejler testen for overensstemmelse med de eksperimentelle data. Så skal du gå tilbage og vælge en anden model eller ændre søgekriterierne. Modellen kan være utilfredsstillende af følgende årsager:
Under identifikation forudsættes en eksperimentel undersøgelse og sammenligning af input- og outputprocesser, og identifikationsopgaven består i at vælge en passende matematisk model. Modellen skal være sådan, at dens reaktion og objektets reaktion på det samme indgangssignal i en vis forstand skal være tæt på. Resultaterne af løsningen af identifikationsproblemet er de indledende data til design af styresystemer, optimering, analyse af systemparametre mv.
I øjeblikket bruges følgende metoder til at bestemme de dynamiske egenskaber af regulerede objekter:
Statiske matematiske modeller af systemer opnås på tre måder: eksperimentel-statistisk, deterministisk og blandet.
Eksperimentelt-statistiske metoder kræver aktive eller passive eksperimenter på driftsobjektet. Stokastiske modeller bruges til at løse forskellige problemer relateret til forskning og processtyring. I de fleste tilfælde opnås disse modeller i form af lineære regressionsligninger.
Ud fra reelle processers egenskaber kan det argumenteres for, at ligningerne for procesvariables forhold bør have en anden, muligvis mere kompleks struktur. Jo mere "langt" strukturen af regressionsligningerne er fra det "sande", desto mindre vil nøjagtigheden af prognosen være med en stigning i omfanget af ændringer i procesvariablerne. Dette forringer kontrolkvaliteten og reducerer følgelig kvaliteten af objektet, der fungerer i den optimale tilstand.
Deterministiske modeller er "baseret på fysiske love og ideer om processer." Derfor kan de opnås på designstadiet af processen. På nuværende tidspunkt er der ud fra en deterministisk tilgang udviklet flere metoder til at konstruere matematiske modeller af kontinuerlige processer. Så for eksempel i den matematiske modellering af en række processer inden for kemisk teknologi bruges metoden til multidimensionelt faserum. Essensen af metoden ligger i, at strømmen af den simulerede teknologiske proces betragtes som bevægelsen af nogle "repræsenterende punkter" i et multidimensionelt faserum. Dette rum er defineret som rummet af det kartesiske koordinatsystem, langs hvis akser de rumlige koordinater for apparatet og de indre koordinater for de reagerende faste partikler er plottet. Hvert punkt i det multidimensionelle faserum beskriver en bestemt tilstand af den simulerede proces. Antallet af disse punkter er lig med antallet af partikler i apparatet. Strømmen af den teknologiske proces er karakteriseret ved en ændring i strømmen af repræsentative punkter.
Den multidimensionelle faserumsmetode er mest udbredt til at bygge matematiske modeller. Denne metode har dog også ulemper, der begrænser dens omfang:
På grund af ovennævnte træk ved den multidimensionelle faserumsmetode er det således meget vanskeligt at bruge den til at bygge matematiske modeller af teknologiske processer baseret på information opnået uden at udføre eksperimenter på industrielle faciliteter.
Som regel er det som et resultat af den teoretiske analyse af processen muligt at opnå en matematisk model, hvis parametre skal forfines i processen med at kontrollere et teknologisk objekt. På fig. 1 viser en generel ordning for løsning af identifikationsproblemer.
På trods af det store antal publikationer om parametrisk identifikation af dynamiske objekter, lægges der ikke tilstrækkelig vægt på identifikation af ikke-stationære parametre. Når man overvejer kendte tilgange til ikke-stationær parametrisk identifikation, kan der skelnes mellem to grupper [1] .
Den første gruppe omfatter værker, der gør væsentlig brug af a priori information om de identificerede parametre. Den første tilgang i denne gruppe er baseret på hypotesen om, at de identificerede parametre er løsninger af kendte homogene systemer af differensligninger eller er repræsenteret som en tilfældig proces genereret af en Markov-model, dvs. de er løsninger af kendte systemer af differential- eller differensligninger med hvid støj type forstyrrelser, karakteriseret ved en Gaussisk fordeling, kendte middel og intensitet. Denne tilgang er berettiget i nærvær af en stor mængde a priori-information om de ønskede parametre, og hvis de reelle parametre for den vedtagne model ikke stemmer overens, fører det til et tab af konvergens af algoritmen.
Den anden tilgang, der tilhører den første gruppe, er baseret på parametrisering af ikke-stationære parametre og anvender hypotesen om muligheden for nøjagtigt at repræsentere ikke-stationære identificerbare parametre over hele identifikationsintervallet eller individuelle delintervaller i form af en finit, som regel, lineær kombination af kendte tidsfunktioner med ukendte konstante vægtkoefficienter, især i form af en endelig sum af led af Taylor-rækken , den harmoniske Fourier-række , den generaliserede Fourier-række med hensyn til systemerne af ortogonale funktioner Laguerre , Walsh .
Det enkleste tilfælde af parametrering er repræsentationen af ikke-stationære parametre ved konstante værdier på en sekvens af individuelle underintervaller, der dækker identifikationsintervallet.
Med den aktuelle identifikation anbefales det at flytte til et glidende tidsinterval [ t - T, t ] af varighed T og betragte de påkrævede parametre konstante på dette interval eller nøjagtigt repræsentable som et interpolationspolynomium af finit grad eller en specificeret finit lineær kombination. Denne tilgang kan omfatte værker baseret på brugen af den iterative mindste kvadraters metode. I disse værker, på grund af brugen af en eksponentiel (med en negativ eksponent) vægtfaktor i den kvadratiske funktion, der skal minimeres, defineret på det aktuelle tidsinterval [0, t ] , "slettes" den gamle information om objektkoordinaterne. over tid. Denne situation svarer i det væsentlige til ideen om konstanten af de identificerede parametre på et bestemt glidende tidsinterval, idet der tages højde for information om objektets tilstand på dette interval med en eksponentiel vægt.
Denne tilgang gør det muligt direkte at udvide metoderne til at identificere stationære parametre til tilfældet med at identificere ikke-stationære parametre. I praksis er den grundlæggende hypotese for denne tilgang dog ikke opfyldt, og man kan kun tale om en tilnærmet repræsentation (approximation) af de ønskede parametre ved en endelig lineær kombination af kendte tidsfunktioner med ukendte konstante vægtkoefficienter. Denne situation fører til fremkomsten af en metodologisk identifikationsfejl, som fundamentalt ændrer essensen af den fremgangsmåde, der diskuteres, da varigheden T af tilnærmelsesintervallet og antallet af led i den lineære kombination i dette tilfælde bliver regulariseringsparametre. Denne metodiske fejl tages som regel ikke i betragtning. Især under antagelsen af en retlinet lov om ændring af de ønskede parametre over store delintervaller Ttidaf
Den anden gruppe omfatter metoder, der bruger en meget mindre mængde information om de ønskede parametre, og denne information bruges kun på tidspunktet for valg af parametrene for identifikationsalgoritmen.
Den første tilgang, der tilhører denne gruppe, er baseret på brugen af gradient selvjusterende modeller. En sådan tilgang blev diskuteret i værker om parametrisk identifikation af lineære og ikke-lineære dynamiske objekter. Den største fordel ved denne tilgang er, at den fører til et lukket identifikationssystem og dermed har visse fordele med hensyn til støjimmunitet sammenlignet med åbne identifikationsmetoder. Ulemperne ved denne tilgang er relateret til behovet for at måle gradientkomponenterne i afstemningskriteriet, som er funktionelle afledte, kravet om tilstrækkelig nøjagtig a priori information om startværdierne af de identificerede parametre (for at vælge startværdierne af modelparametrene, der garanterer stabiliteten af identifikationssystemet) og manglen på en fuldstændig teoretisk analyse af dynamikken i identifikationssystemet af en given type. Sidstnævnte forklares af kompleksiteten af systemet med integro-differentialligninger, der beskriver processerne i selvindstillingsløkken, som et resultat af hvilken den teoretiske analyse kun udføres under antagelsen om en langsom ændring i objektets parametre og model. I denne henseende er det ikke muligt fuldt ud at vurdere stabilitetsområdet, hastigheden og nøjagtigheden af driften af gradient-selvjusterende modeller og derved klart bestemme anvendelsesområdet for systemer af denne type med den aktuelle identifikation af ikke- stationære parametre. Det skal dog bemærkes, at med en stigning i graden af ikke-stationaritet af de ønskede parametre, stiger de metodiske fejl ved bestemmelse af komponenterne i justeringskriteriumgradienten betydeligt, som et resultat af, at identifikationsfejlen stiger ud over zonen for det globale ekstremum af kriteriet minimeres.
Denne effekt forstærkes især med en stigning i antallet af identificerede parametre på grund af sammenkoblingen af identifikationskanaler. Derfor er brugen af gradient selvjusterende modeller fundamentalt begrænset til tilfælde af en langsom ændring i de ønskede parametre.
Den anden tilgang er baseret på brugen af Kaczmarz-algoritmen. Det er kendt, at hovedalgoritmen af denne type har dårlig støjimmunitet og lav hastighed. Denne situation førte til oprettelsen af forskellige ændringer af denne algoritme, karakteriseret ved øget hastighed. Ikke desto mindre er ydeevnen af disse modifikationer stadig lav, hvilket a priori begrænser anvendelsesområdet for den anden tilgang til tilfældet med at identificere langsomt skiftende parametre.
Den anden gruppe kan også omfatte metoder designet til kun at identificere lineære dynamiske objekter og er kendetegnet ved yderligere begrænsninger (behovet for at bruge testindgangssignaler i form af et sæt harmoniske eller et pseudo-tilfældigt periodisk binært signal, identifikationens endelighed interval, tilgængeligheden af fuldstændig information om objektets input- og outputsignaler på hele identifikationsintervallet og muligheden for kun at identificere koefficienterne for venstre side af differentialligningen). På grund af dette er betydelige identifikationsfejl mulige på individuelle endelige tidsunderintervaller, og det er også nødvendigt at løse et komplekst grænseværdiproblem.
Inden for automatisering er typiske testindgangssignaler:
En række metoder (repræsentation af parametre i form af løsninger af kendte systemer af differential- eller differensligninger) kan kun anvendes i særlige tilfælde, mens andre metoder (gradient selvjusterende modeller, Kachmarz-algoritmen) er a priori karakteriseret ved signifikante begrænsninger på graden af ikke-stationaritet af de ønskede parametre. De bemærkede mangler er genereret af selve karakteren af de nævnte metoder, og derfor er der næppe mulighed for en mærkbar reduktion af disse mangler. Metoder baseret på parametrisering af ikke-stationære parametre, som nævnt ovenfor, er fuldstændig uudforskede og kan i den præsenterede form finde begrænset praktisk anvendelse. I modsætning til andre metoder indeholder sidstnævnte tilgang imidlertid ikke interne begrænsninger for graden af ikke-stationaritet af de identificerede parametre og er grundlæggende anvendelig til identifikation af en bred klasse af dynamiske objekter i tilstanden af deres normale drift over lange tidsintervaller .
De anførte vanskeligheder med at identificere virkeligt fungerende systemer bestemmer den mest udbredte tilgang til modellering af ikke-lineære objekter, som består i at vælge typen af matematisk model i form af en evolutionær ligning og efterfølgende identifikation af parametre, eller ikke-parametrisk identifikation af modellen. Modellen anses for at være tilstrækkelig, hvis estimatet af det givne tilstrækkelighedskriterium, beregnet som modelresidualens afhængighed af de eksperimentelle data, ligger inden for acceptable grænser.