System identifikation

Systemidentifikation  er et sæt metoder til at konstruere matematiske modeller af et dynamisk system baseret på observationsdata. En matematisk model betyder i denne sammenhæng en matematisk beskrivelse af adfærden af ​​et system eller en proces i frekvens- eller tidsdomænet, for eksempel fysiske processer (bevægelse af et mekanisk system under påvirkning af tyngdekraften), en økonomisk proces (reaktion af bestanden ). citater til eksterne forstyrrelser) osv. På nuværende tidspunkt er dette område af kontrolteori velundersøgt og er meget udbredt i praksis.

Historie

Begyndelsen på identifikation af systemer som et emne for konstruktion af matematiske modeller baseret på observationer er forbundet med arbejdet af Carl Friedrich Gauss "Theoria motus corporum coelestium in sectionibus conicis solem ambientium", hvor han brugte metoden med mindste kvadrater udviklet af ham at forudsige planeternes bane. Efterfølgende har denne metode fundet anvendelse i mange andre applikationer, herunder konstruktion af matematiske modeller af kontrollerede objekter, der anvendes i automatisering (motorer, ovne, forskellige aktuatorer). Meget af det tidlige arbejde med systemidentifikation blev udført af statistikere, økonometikere (især interesserede i anvendelser af identifikation relateret til tidsserier) og dannede et felt kaldet statistisk estimering. Statistisk estimering var også baseret på Gauss (1809) og Fishers (1912) arbejde [1] .

Indtil omkring 50'erne af det 20. århundrede var de fleste af identifikationsprocedurerne inden for automatisering baseret på at observere reaktionerne fra kontrollerede objekter i nærværelse af visse kontrolhandlinger (oftest handlinger af formen: trinvist ( ), harmonisk ( ), genereret farve eller hvid støj ), og afhængigt af hvilken type information der blev brugt om objektet, blev identifikationsmetoder opdelt i frekvens og tidsmæssig. Problemet var, at omfanget af disse metoder oftest var begrænset til skalære systemer (SISO, Single-input, single-output). I 1960 præsenterede Rudolf Kalman en beskrivelse af et kontrolleret system i form af et tilstandsrum, som gjorde det muligt at arbejde med multidimensionelle (MIMO, Many-input, mange-output) systemer, og lagde grundlaget for optimal filtrering og optimal kontrol baseret på denne type beskrivelse.

Specifikt til kontrolproblemer blev metoder til identifikation af systemer udviklet i 1965 i værker af Ho og Kalman [2] , Ostrom og Bolin [3] . Disse værker banede vejen for udviklingen af ​​to identifikationsmetoder, der stadig er populære i dag: subspace-metoden og forudsigelsesfejlmetoden. Den første er baseret på brugen af ​​projektioner i det euklidiske rum, og den anden på minimeringen af ​​et kriterium, der afhænger af modellens parametre.

Ho og Kalmans arbejde er afsat til at finde en tilstand-rum-model af det objekt, der undersøges, som har den mindste rækkefølge af tilstandsvektoren, baseret på information om impulsresponsen. Dette problem, men allerede i nærværelse af implementeringer af en tilfældig proces, hvor Markov-modellen er dannet , blev løst i 70'erne i værkerne af Forre [4] og Akaika [5] . Disse værker lagde grundlaget for skabelsen af ​​subspace-metoden i begyndelsen af ​​1990'erne.

Arbejdet fra Åström og Bolin introducerede maksimumsandsynlighedsmetoden til identifikationsfællesskabet, som blev udviklet af tidsserieeksperter til at estimere modelparametre i form af differensligninger [6] [7] . Disse modeller, som i den statistiske litteratur er kendt som ARMA (autoregressive moving average) og ARMAX (autoregressive moving average with input), dannede senere grundlaget for prædiktionsfejlmetoden. I 1970 udgav Box og Jenkins en bog [8] , som gav et betydeligt skub til anvendelsen af ​​identifikationsmetoder på alle mulige områder. Dette arbejde gav med andre ord en komplet opskrift på identifikation fra det øjeblik du begynder at indsamle information om objektet til modtagelse og verifikation af modellen. I 15 år har denne bog været kilden til systemidentifikation. Et vigtigt arbejde på den tid var også gennemgangen [9] om systemidentifikation og tidsserieanalyse, offentliggjort i IEEE Transactions on Automatic Control i december 1974. Et af de åbne spørgsmål var så spørgsmålet om identifikation af lukkede systemer, hvor metoden baseret på krydskorrelation fører til utilfredsstillende resultater [10] . Siden midten af ​​1970'erne er den nyligt opfundne metode til forudsigelsesfejl kommet til at dominere teori og, endnu vigtigere, identifikationsapplikationer. Det meste af forskningsaktiviteten har fokuseret på problemerne med at identificere multidimensionelle og lukkede systemer. Nøgleopgaven for disse to klasser af systemer var at finde betingelserne for eksperimentet og måder at parametrisere problemet på, hvorunder den fundne model ville nærme sig den eneste nøjagtige beskrivelse af det virkelige system. Det kan siges om al den tids aktivitet, at det var tidspunktet for at søge efter den "sande model", løse problemerne med identificerbarhed, konvergens til nøjagtige parametre, statistisk effektivitet af estimater og asymptotisk normalitet af de estimerede parametre. I 1976 blev det første forsøg gjort på at betragte identifikationen af ​​systemer som en tilnærmelsesteori, hvor problemet er den bedst mulige tilnærmelse af et virkeligt system inden for en given klasse af modeller [11] [12] , [13] . Den fremherskende opfattelse blandt identifikationsspecialister har således ændret sig fra at søge en beskrivelse af det sande system til at søge en beskrivelse af den bedst mulige tilnærmelse. Et vigtigt gennembrud skete også, da L. Ljung introducerede begrebet bias og variansfejl til at estimere objekters overførselsfunktioner [14] . Arbejdet med bias og analyse af variansen af ​​de resulterende modeller i 1980'erne førte til perspektivet om at betragte identifikation som et synteseproblem. Baseret på forståelsen af ​​de eksperimentelle forholds indflydelse, modellens struktur og identifikationskriteriet baseret på bias og fejlvarians, er det muligt at tilpasse disse syntesevariable til objektet på en sådan måde, at man opnår den bedste model. i denne klasse af modeller [15] [16] . Lennart Ljungs bog [17] , som har stor indflydelse på fællesskabet af identifikationsspecialister, er gennemsyret af denne ideologi.

Ideen om, at kvaliteten af ​​en model kunne ændres ved valget af syntesevariabler førte til et udbrud af aktivitet i 1990'erne, som fortsætter den dag i dag. Hovedanvendelsen af ​​det nye paradigme er identifikation af MBC (Model Based Control). I overensstemmelse hermed er identifikation af kontrolproblemer blomstret med hidtil uset kraft siden starten, og anvendelsen af ​​identifikationsmetoder til kontrol har pustet nyt liv i så allerede kendte forskningsområder som eksperimentdesign, lukket sløjfe-identifikation, frekvensidentifikation, robust kontrol i tilstedeværelsen af ​​usikkerhed.

Identifikation af systemer i USSR og Rusland

Hovedbegivenheden i udviklingen af ​​systemidentifikation i USSR var åbningen i 1968 af laboratorium nr. 41 ("Kontrolsystemidentifikation") ved Institut for Automation og Telemekanik (nu Institut for Kontrolproblemer ved Det Russiske Videnskabsakademi) med bistand fra N. S. Raibman. Naum Semenovich Raibman var en af ​​de første i landet, der indså de praktiske fordele og den teoretiske interesse ved systemidentifikation. Han udviklede teorien om spredningsidentifikation til identifikation af ikke-lineære systemer [18] , og skrev også en bog kaldet "Hvad er identifikation?" [19] for at forklare de grundlæggende principper for det nye fag og for at beskrive rækken af ​​opgaver, der løses ved systemidentifikation. Også efterfølgende var Yakov Zalmanovich Tsypkin , som udviklede teorien om informationsidentifikation, interesseret i teorien om identifikation [20]

Generel tilgang

Opbygning af en matematisk model kræver 5 grundlæggende ting:

Input-output information registreres normalt under et forud planlagt identifikationseksperiment, hvor forskeren kan vælge, hvilke signaler der skal måles, hvornår de skal måles, og hvilke inputsignaler der skal bruges. Disciplinen "Design af eksperimenter" kan foreslå, hvordan man gør den eksperimentelle information den mest informative under hensyntagen til de begrænsninger, der kan pålægges eksperimentet. Men desværre er situationen ikke sjælden, når forskeren ikke har mulighed for at udføre et eksperiment, men arbejder med den information, som han får. Sættet af kandidatmodeller opnås baseret på beslutningen om, hvilken klasse af modeller søgningen vil blive udført i. Uden tvivl er dette valg det vigtigste og sværeste i identifikationsproceduren. Det er på dette stadium, at al a priori information, ingeniørintuition, skal kombineres med de formelle egenskaber af sandsynlige modeller for at træffe en beslutning. Også mange foreslåede modeller kan bygges på basis af kendte fysiske love, eller det er muligt at bruge standard lineære modeller uden nogen afhængighed af fysik. Sådanne modeller, bygget ikke på basis af kendte fysiske love og har parametre, ved at ændre, som det er muligt at opnå en tilnærmelse til det undersøgte objekt, kaldes sorte boksmodeller. Modeller, der har justerbare parametre og er afhængige af kendte fysiske love, kaldes grå kasser. Generelt set er modelstrukturen en parametriseret kortlægning fra sættet af input og output til og med sættet af output for det aktuelle tidspunkt : Kriteriet for at vælge en model er dens evne til at gentage de data, der er opnået fra eksperimentet, det vil sige at matche opførselen af ​​det objekt, der undersøges. Men det skal huskes, at modellen aldrig kan accepteres som en "rigtig" eller "sand" beskrivelse af et objekt på grund af dets medfødte tilnærmelse.

Identifikationsproceduren som et lukket system

Identifikationsproceduren har en naturlig logisk rækkefølge: Først indsamler vi data, derefter danner vi et sæt modeller, og derefter vælger vi den bedste model. Det er almindeligt, at den først valgte model fejler testen for overensstemmelse med de eksperimentelle data. Så skal du gå tilbage og vælge en anden model eller ændre søgekriterierne. Modellen kan være utilfredsstillende af følgende årsager:

Tilgange til identifikation

Under identifikation forudsættes en eksperimentel undersøgelse og sammenligning af input- og outputprocesser, og identifikationsopgaven består i at vælge en passende matematisk model. Modellen skal være sådan, at dens reaktion og objektets reaktion på det samme indgangssignal i en vis forstand skal være tæt på. Resultaterne af løsningen af ​​identifikationsproblemet er de indledende data til design af styresystemer, optimering, analyse af systemparametre mv.

I øjeblikket bruges følgende metoder til at bestemme de dynamiske egenskaber af regulerede objekter:

  1. Metoder baseret på den kunstige påvirkning af systemet af et ikke-periodisk signal, hvis effekt er stor sammenlignet med niveauet af interferens i systemet. Som en handling vælges normalt en brat ændring i kontrolhandlingen, og som følge heraf bestemmes tidsmæssige karakteristika.
  2. Metoder baseret på kunstig påvirkning af systemet af periodiske signaler af forskellige frekvenser, hvis amplitude er stor sammenlignet med niveauet af interferens i systemet. Som et resultat bestemmes frekvensegenskaberne.
  3. Metoder baseret på kunstig påvirkning af systemet af sinusformede signaler står mål med støjen i systemet. Som følge heraf bestemmes også frekvenskarakteristika.
  4. Metoder, der ikke kræver kunstig påvirkning, ved hjælp af forstyrrelser, der er til stede under normal drift. [23]

Statiske matematiske modeller af systemer opnås på tre måder: eksperimentel-statistisk, deterministisk og blandet.

Eksperimentelt-statistiske metoder kræver aktive eller passive eksperimenter på driftsobjektet. Stokastiske modeller bruges til at løse forskellige problemer relateret til forskning og processtyring. I de fleste tilfælde opnås disse modeller i form af lineære regressionsligninger.

Ud fra reelle processers egenskaber kan det argumenteres for, at ligningerne for procesvariables forhold bør have en anden, muligvis mere kompleks struktur. Jo mere "langt" strukturen af ​​regressionsligningerne er fra det "sande", desto mindre vil nøjagtigheden af ​​prognosen være med en stigning i omfanget af ændringer i procesvariablerne. Dette forringer kontrolkvaliteten og reducerer følgelig kvaliteten af ​​objektet, der fungerer i den optimale tilstand.

Deterministiske modeller er "baseret på fysiske love og ideer om processer." Derfor kan de opnås på designstadiet af processen. På nuværende tidspunkt er der ud fra en deterministisk tilgang udviklet flere metoder til at konstruere matematiske modeller af kontinuerlige processer. Så for eksempel i den matematiske modellering af en række processer inden for kemisk teknologi bruges metoden til multidimensionelt faserum. Essensen af ​​metoden ligger i, at strømmen af ​​den simulerede teknologiske proces betragtes som bevægelsen af ​​nogle "repræsenterende punkter" i et multidimensionelt faserum. Dette rum er defineret som rummet af det kartesiske koordinatsystem, langs hvis akser de rumlige koordinater for apparatet og de indre koordinater for de reagerende faste partikler er plottet. Hvert punkt i det multidimensionelle faserum beskriver en bestemt tilstand af den simulerede proces. Antallet af disse punkter er lig med antallet af partikler i apparatet. Strømmen af ​​den teknologiske proces er karakteriseret ved en ændring i strømmen af ​​repræsentative punkter.

Den multidimensionelle faserumsmetode er mest udbredt til at bygge matematiske modeller. Denne metode har dog også ulemper, der begrænser dens omfang:

På grund af ovennævnte træk ved den multidimensionelle faserumsmetode er det således meget vanskeligt at bruge den til at bygge matematiske modeller af teknologiske processer baseret på information opnået uden at udføre eksperimenter på industrielle faciliteter.

Som regel er det som et resultat af den teoretiske analyse af processen muligt at opnå en matematisk model, hvis parametre skal forfines i processen med at kontrollere et teknologisk objekt. På fig. 1 viser en generel ordning for løsning af identifikationsproblemer.

På trods af det store antal publikationer om parametrisk identifikation af dynamiske objekter, lægges der ikke tilstrækkelig vægt på identifikation af ikke-stationære parametre. Når man overvejer kendte tilgange til ikke-stationær parametrisk identifikation, kan der skelnes mellem to grupper [1] .

Den første gruppe omfatter værker, der gør væsentlig brug af a priori information om de identificerede parametre. Den første tilgang i denne gruppe er baseret på hypotesen om, at de identificerede parametre er løsninger af kendte homogene systemer af differensligninger eller er repræsenteret som en tilfældig proces genereret af en Markov-model, dvs. de er løsninger af kendte systemer af differential- eller differensligninger med hvid støj type forstyrrelser, karakteriseret ved en Gaussisk fordeling, kendte middel og intensitet. Denne tilgang er berettiget i nærvær af en stor mængde a priori-information om de ønskede parametre, og hvis de reelle parametre for den vedtagne model ikke stemmer overens, fører det til et tab af konvergens af algoritmen.

Den anden tilgang, der tilhører den første gruppe, er baseret på parametrisering af ikke-stationære parametre og anvender hypotesen om muligheden for nøjagtigt at repræsentere ikke-stationære identificerbare parametre over hele identifikationsintervallet eller individuelle delintervaller i form af en finit, som regel, lineær kombination af kendte tidsfunktioner med ukendte konstante vægtkoefficienter, især i form af en endelig sum af led af Taylor-rækken , den harmoniske Fourier-række , den generaliserede Fourier-række med hensyn til systemerne af ortogonale funktioner Laguerre , Walsh .

Det enkleste tilfælde af parametrering er repræsentationen af ​​ikke-stationære parametre ved konstante værdier på en sekvens af individuelle underintervaller, der dækker identifikationsintervallet.

Med den aktuelle identifikation anbefales det at flytte til et glidende tidsinterval [ t  -  T, t ] af varighed T og betragte de påkrævede parametre konstante på dette interval eller nøjagtigt repræsentable som et interpolationspolynomium af finit grad eller en specificeret finit lineær kombination. Denne tilgang kan omfatte værker baseret på brugen af ​​den iterative mindste kvadraters metode. I disse værker, på grund af brugen af ​​en eksponentiel (med en negativ eksponent) vægtfaktor i den kvadratiske funktion, der skal minimeres, defineret på det aktuelle tidsinterval [0,  t ] , "slettes" den gamle information om objektkoordinaterne. over tid. Denne situation svarer i det væsentlige til ideen om konstanten af ​​de identificerede parametre på et bestemt glidende tidsinterval, idet der tages højde for information om objektets tilstand på dette interval med en eksponentiel vægt.

Denne tilgang gør det muligt direkte at udvide metoderne til at identificere stationære parametre til tilfældet med at identificere ikke-stationære parametre. I praksis er den grundlæggende hypotese for denne tilgang dog ikke opfyldt, og man kan kun tale om en tilnærmet repræsentation (approximation) af de ønskede parametre ved en endelig lineær kombination af kendte tidsfunktioner med ukendte konstante vægtkoefficienter. Denne situation fører til fremkomsten af ​​en metodologisk identifikationsfejl, som fundamentalt ændrer essensen af ​​den fremgangsmåde, der diskuteres, da varigheden T af tilnærmelsesintervallet og antallet af led i den lineære kombination i dette tilfælde bliver regulariseringsparametre. Denne metodiske fejl tages som regel ikke i betragtning. Især under antagelsen af ​​en retlinet lov om ændring af de ønskede parametre over store delintervaller Ttidaf

Den anden gruppe omfatter metoder, der bruger en meget mindre mængde information om de ønskede parametre, og denne information bruges kun på tidspunktet for valg af parametrene for identifikationsalgoritmen.

Den første tilgang, der tilhører denne gruppe, er baseret på brugen af ​​gradient selvjusterende modeller. En sådan tilgang blev diskuteret i værker om parametrisk identifikation af lineære og ikke-lineære dynamiske objekter. Den største fordel ved denne tilgang er, at den fører til et lukket identifikationssystem og dermed har visse fordele med hensyn til støjimmunitet sammenlignet med åbne identifikationsmetoder. Ulemperne ved denne tilgang er relateret til behovet for at måle gradientkomponenterne i afstemningskriteriet, som er funktionelle afledte, kravet om tilstrækkelig nøjagtig a priori information om startværdierne af de identificerede parametre (for at vælge startværdierne ​​af modelparametrene, der garanterer stabiliteten af ​​identifikationssystemet) og manglen på en fuldstændig teoretisk analyse af dynamikken i identifikationssystemet af en given type. Sidstnævnte forklares af kompleksiteten af ​​systemet med integro-differentialligninger, der beskriver processerne i selvindstillingsløkken, som et resultat af hvilken den teoretiske analyse kun udføres under antagelsen om en langsom ændring i objektets parametre og model. I denne henseende er det ikke muligt fuldt ud at vurdere stabilitetsområdet, hastigheden og nøjagtigheden af ​​driften af ​​gradient-selvjusterende modeller og derved klart bestemme anvendelsesområdet for systemer af denne type med den aktuelle identifikation af ikke- stationære parametre. Det skal dog bemærkes, at med en stigning i graden af ​​ikke-stationaritet af de ønskede parametre, stiger de metodiske fejl ved bestemmelse af komponenterne i justeringskriteriumgradienten betydeligt, som et resultat af, at identifikationsfejlen stiger ud over zonen for det globale ekstremum af kriteriet minimeres.

Denne effekt forstærkes især med en stigning i antallet af identificerede parametre på grund af sammenkoblingen af ​​identifikationskanaler. Derfor er brugen af ​​gradient selvjusterende modeller fundamentalt begrænset til tilfælde af en langsom ændring i de ønskede parametre.

Den anden tilgang er baseret på brugen af ​​Kaczmarz-algoritmen. Det er kendt, at hovedalgoritmen af ​​denne type har dårlig støjimmunitet og lav hastighed. Denne situation førte til oprettelsen af ​​forskellige ændringer af denne algoritme, karakteriseret ved øget hastighed. Ikke desto mindre er ydeevnen af ​​disse modifikationer stadig lav, hvilket a priori begrænser anvendelsesområdet for den anden tilgang til tilfældet med at identificere langsomt skiftende parametre.

Den anden gruppe kan også omfatte metoder designet til kun at identificere lineære dynamiske objekter og er kendetegnet ved yderligere begrænsninger (behovet for at bruge testindgangssignaler i form af et sæt harmoniske eller et pseudo-tilfældigt periodisk binært signal, identifikationens endelighed interval, tilgængeligheden af ​​fuldstændig information om objektets input- og outputsignaler på hele identifikationsintervallet og muligheden for kun at identificere koefficienterne for venstre side af differentialligningen). På grund af dette er betydelige identifikationsfejl mulige på individuelle endelige tidsunderintervaller, og det er også nødvendigt at løse et komplekst grænseværdiproblem.

Inden for automatisering er typiske testindgangssignaler:

En række metoder (repræsentation af parametre i form af løsninger af kendte systemer af differential- eller differensligninger) kan kun anvendes i særlige tilfælde, mens andre metoder (gradient selvjusterende modeller, Kachmarz-algoritmen) er a priori karakteriseret ved signifikante begrænsninger på graden af ​​ikke-stationaritet af de ønskede parametre. De bemærkede mangler er genereret af selve karakteren af ​​de nævnte metoder, og derfor er der næppe mulighed for en mærkbar reduktion af disse mangler. Metoder baseret på parametrisering af ikke-stationære parametre, som nævnt ovenfor, er fuldstændig uudforskede og kan i den præsenterede form finde begrænset praktisk anvendelse. I modsætning til andre metoder indeholder sidstnævnte tilgang imidlertid ikke interne begrænsninger for graden af ​​ikke-stationaritet af de identificerede parametre og er grundlæggende anvendelig til identifikation af en bred klasse af dynamiske objekter i tilstanden af ​​deres normale drift over lange tidsintervaller .

De anførte vanskeligheder med at identificere virkeligt fungerende systemer bestemmer den mest udbredte tilgang til modellering af ikke-lineære objekter, som består i at vælge typen af ​​matematisk model i form af en evolutionær ligning og efterfølgende identifikation af parametre, eller ikke-parametrisk identifikation af modellen. Modellen anses for at være tilstrækkelig, hvis estimatet af det givne tilstrækkelighedskriterium, beregnet som modelresidualens afhængighed af de eksperimentelle data, ligger inden for acceptable grænser.

Bemærk

  1. R.A. Fisher.   På et absolut kriterium for tilpasning af frekvenskurver. - Statistical Science, vol. 12, nr. 1 (feb., 1997). - pp. 39-41. 
  2. BL Ho og RE Kalman.   Effektiv konstruktion af lineære tilstandsvariable modeller fra input-output funktioner. - Regelungstechnik, bind 12, 1965. - s. 545-548. 
  3. KJ Astrom og T. Bohlin.   Numerisk identifikation af lineære dynamiske systemer fra normale driftsregistre. — Proc. IFAC Symp. Self-Adaptive System, 1965. - pp. 96-111. 
  4. P. Faurre,   Realisations markoviennes de processus stationnaires. — Rapport La-boria No.13, IRIA, Rocquencourt, Frankrig, Tech. Rep. 1973. 
  5. H. Akaike,   Stokastisk teori om minimal realisering. — IEEE Trans. automat. Kontrol, vol. 26, s. 667-673, dec. 1974. 
  6. TC Koopmans, H. Rubin og RB Leipnik,   Measuring the Equation Systems of Dynamic Economics. — (Cowles Commission Monograph, bind 10, TCKoopmans, red.). New York: Wiley, 1950. 
  7. EJ Hannan,   Time Series Analysis.-New York:Methuen, 1960  
  8. GEP Box og GM Jenkins   tidsserieanalyse, prognose og kontrol. — Oakland, Californien: Holden-Day, 1970. 
  9. KJ Astrom og P. Eykhoff   Systemidentifikation - En undersøgelse. Automatica, vol. 7, s. 123-162, 1971. 
  10. H. Akaike   Nogle problemer i anvendelsen af ​​den tværspektrale metode, - i Spectral Analysis of Time Series, B. Harris, Ed. New York: Wiley, 1967, s. 81-107.  
  11. L. Ljung   Om konsekvens og identificerbarhed, Math. program. Studie, vol. 5, s. 169-190, 1976.  
  12. BDO Anderson, JB Moore og RMHawkes, Modelapproksimation   via forudsigelsesfejlidentifikation, - Automatica, vol. 14, s. 615-622, 1978. 
  13. L. Ljung og P. E. Caines,   Asymptotic normality of prediction error estimators for approximative system models, - Stochastics, vol. 3, s. 29-46, 1979. 
  14. L. Ljung,   Asymptotiske variansudtryk for identificerede black-box-overførselsfunktionsmodeller, "IEEE Trans. Automat. Contr., vol. AC-30, s. 834-844, 1985.  
  15. B. Wahlberg og L. Ljung   Design variabler for bias distribution i overførsel funktion estimering, IEEE Trans. automat. Contr., bind. AC-31, s. 134-144, 1986. 
  16. M. Gevers og L. Ljung,   Optimale eksperimentdesign med hensyn til den påtænkte modelanvendelse, Automatica, vol. 22, s. 543-554, 1986. 
  17. L. Ljung,   Systemidentifikation.Teori for brugeren, 2. udg. - NJ: PTR Prentice Hall, 1999. - ISBN 0-13-656695-2  
  18. N. S. Raibman,   Dispersion identification, - Moskva: Nauka, 1981.  
  19. N. S. Reibman,   Hvad er identifikation?. - Moskva: Nauka, 1970. 
  20. Ya. Z. Tsypkin,   Informationsteori om identifikation, M., Nauka, 1995, 336 s.  
  21. Rastrigin, 1977 , s. 17.
  22. Rastrigin, 1977 , s. 33.
  23. Shidlovsky S.V. Automatisering af teknologiske processer og produktion: Lærebog. -Tomsk: NTL Publishing House, 2005. -s. elleve
  24. A.V. Andryushin, V.R. Sabanin, N.I. Smirnov. Ledelse og innovation inden for termisk kraftteknik. - M: MPEI, 2011. - S. 15. - 392 s. - ISBN 978-5-38300539-2 .

Litteratur