Spektral nedbrydning af en matrix

Den spektrale dekomponering af en matrix eller dekomponeringen af ​​en matrix baseret på egenvektorer er en repræsentation af en kvadratisk matrix som et produkt af tre matricer , hvor er en matrix, hvis søjler er matricens egenvektorer , er en diagonal matrix med tilsvarende egenværdier på hoveddiagonalen er matrixens omvendte af matrixen .

Kun matricer, der har et komplet sæt af egenvektorer, det vil sige et sæt af n lineært uafhængige egenvektorer, hvor n er rækkefølgen af ​​matricen , kan repræsenteres i denne form .

Spektral dekomponering kan bruges til at finde egenværdier og egenvektorer af en matrix, løse systemer af lineære ligninger, invertere en matrix, finde determinanten af ​​en matrix og beregne analytiske funktioner af matricer.

Teorien om egenvektorer og matrixegenværdier

En ikke-nul N - dimensional vektor er en egenvektor af en kvadratisk matrix, hvis den opfylder den lineære ligning

,

hvor er en skalar kaldet matrixens egenværdi og svarer til egenvektoren . Det vil sige, at egenvektorerne er de vektorer, som den lineære transformation kun forlænger eller forkorter, og egenværdien er længdeændringsfaktoren. Ovenstående ligning kaldes en egenværdiligning eller egenværdiproblem .

Ovenstående ligning kan ses som et homogent system af lineære ligninger

,

hvor er en skalær parameter og er en ikke-triviel løsning af et homogent system af lineære ligninger. Ikke-trivielle løsninger af et homogent system af lineære ligninger eksisterer kun, når determinanten af ​​systemets matrix er lig med nul, dvs.

Polynomiet kaldes matrixens karakteristiske polynomium , og ligningen ovenfor kaldes den karakteristiske ligning . Den karakteristiske ligning er en polynomialligning af N. orden i variablen . Denne ligning har forskellige rødder, hvor . Sættet af løsninger, det vil sige egenværdier, kaldes spektret af matricen [1] [2] [3] .

Vi faktoriserer det karakteristiske polynomium :

Det naturlige tal n i kaldes egenværdiens algebraiske multiplicitet . Hvis feltet af skalarer er algebraisk lukket , er summen af ​​algebraiske multipliciteter N :

For hver egenværdi løses en separat ligning for egenvektorer:

Der er lineært uafhængige løsninger for hver sådan ligning. Lineære kombinationer af m i løsninger er egenvektorer forbundet med egenværdien . Heltallet m i kaldes værdiens geometriske multiplicitet . Algebraisk multiplicitet og geometrisk multiplicitet falder muligvis ikke sammen, men altid . Det samlede antal lineært uafhængige egenvektorer kan beregnes ved at summere de geometriske multipliciteter

Egenvektorer kan indekseres ved egenværdier ved hjælp af et dobbeltindeks, hvilket så ville betyde den j -te egenvektor for den i -te egenværdi. En enklere indeksering bruger et enkelt indeks, hvor .

Matrixnedbrydning ved hjælp af egenvektorer

Lade være en kvadratisk matrix med n lineært uafhængige egenvektorer q i ( ). Så kan du nedbryde

,

hvor er en kvadratisk matrix, hvis i -te søjle er matricens egenvektor , og er en diagonal matrix, hvis diagonale elementer er de tilsvarende egenværdier, . Bemærk, at kun diagonaliserbare matricer kan dekomponeres på denne måde. For eksempel kan en skiftmatrix ikke diagonaliseres.

Normalt normaliseres egenvektorerne qi , men dette er ikke nødvendigt; et unormaliseret sæt af n egenvektorer v i kan også bruges som matrixkolonner .

Nedbrydningen kan opnås fra egenvektorernes fundamentale egenskab:

Eksempel

Rigtig matrix

kan reduceres til en diagonal form ved multiplikation med en ikke-singular matrix

Derefter

for en rigtig diagonal matrix .

Hvis vi multiplicerer begge sider af ligheden til venstre med , får vi:

Ligheden ovenfor kan dekomponeres i to ligningssystemer :

Udtagning af x- og y -egenværdierne :

Vi får

som giver os to vektorligninger:

Sidstnævnte system kan repræsenteres af en enkelt vektorligning, inklusive løsninger for to egenværdier:

,

hvor repræsenterer de to egenværdier x og y , og repræsenterer vektorerne og .

Flytter vi til venstre side og tager ud , får vi

Da matrixen ikke er degenereret, er det vigtigt, at vektoren ikke er nul. Derfor,

Derefter

giver os egenværdiløsningerne for matrixen som eller , og den resulterende diagonale matrix fra matrixnedbrydningen er derefter .

Hvis vi erstatter løsningerne tilbage i ligningssystemet ovenfor, får vi

Løsning af ligningerne, får vi

Så er den matrix , der kræves for at faktorisere matrixen

Det er:

Matrixinversion via egenvektorudvidelse

Lad matricen have en spektral nedbrydning og ingen af ​​egenværdierne af matrixen være lig med nul. I dette tilfælde er matrixen ikke- singular , og dens inverse matrix findes af formlen

Hvis matrixen er en symmetrisk matrix , så er matrixen garanteret ortogonal , dvs. Og da matrixen er diagonal , så er dens inverse let at beregne:

Praktisk værdi [4]

Hvis egenvektornedbrydning bruges på en matrix målt med reelle data , så kan den inverse matrix være værre betinget, hvis alle egenværdier bruges i uændret form. Pointen er, at når egenværdierne bliver relativt små, er bidraget fra deres inverse til den inverse matrix stort. Disse næsten-nul-værdier eller "støj" af målesystemet vil have en unødig indflydelse og kan forstyrre inversionsløsningen.

To afbødningsmuligheder er blevet foreslået: at kassere små eller nul egenværdier og kopiere den mindste pålidelige værdi til mindre.

Den første afhjælpningsmulighed ligner sparsom den oprindelige matrix, hvor elementer, der anses for at være ubetydelige, fjernes. Men hvis løsningsprocessen viser sig at være tæt på støjniveauet, kan tilbagerulningen fjerne komponenter, der påvirker den ønskede løsning.

Den anden afbødningsmulighed kopierer egenværdien, så mindre værdier har mindre effekt på resultatet af inversionen, men stadig bidrager til, at der kan findes løsninger, selv tæt på støjniveauet.

En pålidelig egenværdi kan findes under den antagelse, at egenværdierne er ekstremt tætte, og den lave værdi er en god repræsentation af målestøjen (som antages at være lav for de fleste systemer).

Hvis egenværdierne er ordnet efter størrelse, kan en pålidelig egenværdi findes ved at minimere Laplacian for de sorterede egenværdier [5] :

,

hvor egenværdier er markeret med s for at angive sortering (fra engelsk sorteret). Placeringen af ​​minimum er den mindste pålidelige egenværdi. I målesystemer er kvadratroden af ​​denne pålidelige egenværdi den gennemsnitlige støj i forhold til de andre komponenter i systemet.

Funktionel regning

Lad den kvadratiske matrix have en nedbrydning . At hæve matrixen til en naturlig styrke beregnes derefter ved en simpel formel:

her er produkterne annulleret i mellemudtrykket . Operationen med at hæve til en naturlig potens giver dig mulighed for at definere forskellige funktioner over matricer, som udtrykkes i form af potensrækker. Lad funktionen have en udvidelse i en potensrække

At dekomponere en matrix i form af egenværdier giver dig mulighed for hurtigt at beregne potensrækken fra matrixen. Lad f  ( x ) være givet ved en potensrække

I overensstemmelse med formlen for matricens potens ovenfor kan potensrækken for matrixen beregnes ved hjælp af formlen

,

hvor er en funktion af den diagonale matrix , som meget nemt kan beregnes:

I dette tilfælde er de off-diagonale elementer i matrixen lig med nul. Det vil sige, er også en diagonal matrix. Som et resultat er beregningen af ​​en funktion fra en matrix reduceret til en simpel beregning af en funktion fra hver af egenværdierne.

En lignende teknik virker også mere generelt i den holomorfe funktionelle calculus , ved at bruge formlen

det er muligt at beregne potensrækker ud fra matricer, der indeholder negative eksponenter. Her bruges det igen at .

Eksempler

Kvadratroden af ​​en matrix:

Lad os firkante det og sikre os, at det er korrekt:

Matrixeksponenten er defineret på samme måde :

Dekomponering af specielle matricer

Normale matricer

En kompleks kvadratisk matrix er normal (hvilket betyder , at hvor er hermitisk konjugat ), hvis og kun hvis den kan nedbrydes

hvor er unitær (hvilket betyder at ) og er en diagonal matrix [6] . Matricens søjler danner en ortonormal basis og er egenvektorer af matrixen med tilsvarende egenværdier .

Hvis klassen af ​​matricer er begrænset til hermitiske matricer ( ), så har den kun reelle værdier. Hvis klassen af ​​matricer er begrænset til enhedsmatricer, ligger alle værdier på den komplekse enhedscirkel, det vil sige .

Ægte symmetriske matricer

For enhver reel symmetrisk matrix er egenværdierne reelle, og egenvektorerne kan vælges til at være reelle og ortonormale . Således kan en reel symmetrisk matrix dekomponeres til

hvor er en ortogonal matrix, hvis søjler er matricens egenvektorer , og er en diagonal matrix, hvis værdier på diagonalen er lig med matricens egenværdier [7] .

Nyttige fakta

Nyttige fakta om egenværdier

  • Produktet af egenværdier er lig med matrixdeterminanten Bemærk, at hver egenværdi hæves til potensen n i , en algebraisk multiplicitet.
  • Summen af ​​egenværdierne er lig med matrixens spor Bemærk, at hver egenværdi ganges med n i , en algebraisk multiplicitet.
  • Hvis der er egenværdier af matricen og er inverterbare, så er matricens egenværdier simpelthen .
  • Hvis der er egenværdier af matricen , så er egenværdierne af matricen ganske enkelt ens for enhver holomorf funktion f .

Nyttige fakta om egenvektorer

  • Hvis matrixen er hermitisk og har fuld rang, kan egenvektorgrundlaget vælges til at være gensidigt ortogonalt . Egenværdier er reelle.
  • Matricens egenvektorer er de samme som matrixens egenvektorer .
  • Egenvektorer er defineret op til en konstant faktor. Det vil sige, hvis , så er også en egenvektor for enhver skalar c ≠ 0 . Især og (for enhver ) er også egenvektorer.
  • I tilfælde af degenererede egenværdier (en egenværdi optræder mere end én gang), har egenvektorerne en yderligere grad af rotationsfrihed, dvs. enhver lineær (ortonormal) kombination af egenvektorer med samme egenværdi er i sig selv en egenvektor.

Nyttige fakta om egenvektornedbrydning

  • En matrix kan dekomponeres ved hjælp af egenvektorer, hvis og kun hvis antallet af lineært uafhængige egenvektorer er lig med egenvektorens dimension:
  • Hvis ikke har flere rødder, det vil sige, hvis , så kan dekomponeres.
  • Det følger ikke af udsagnet "matricen kan dekomponeres" , at den har en invers.
  • Det følger ikke af udsagnet "matricen har en invers" , at den kan dekomponeres ved hjælp af egenvektorer. Modeksemplet er matrix , som er en inverterbar defektmatrix .

Nyttige fakta om den omvendte matrix

  • En matrix er inverterbar hvis og kun hvis
  • Hvis og , er den inverse matrix givet af ligheden

Numeriske beregninger

Numerisk beregning af egenværdier

Lad os antage, at det er nødvendigt at beregne egenværdierne for en given matrix. Hvis dimensionerne af matricen er små, kan egenværdierne beregnes symbolsk ved hjælp af det karakteristiske polynomium . Dette er dog ofte ikke muligt for store matricer, i hvilket tilfælde der anvendes numeriske metoder .

I praksis beregnes egenværdierne af store matricer ikke ved hjælp af det karakteristiske polynomium. Beregningen af ​​et polynomium bliver i sig selv tidskrævende og tidskrævende, og de nøjagtige (symbolske) rødder af et polynomium af høj grad er svære at beregne og udtrykke - det følger af Abels sætning om uløseligheden af ​​ligninger i radikaler , at rødderne af polynomier af høj grad (5 og højere) kan ikke i det generelle tilfælde præsenteres som udtryk fra rødderne af den n . grad. Af denne grund fungerer generelle algoritmer til at finde egenvektorer og egenværdier iterativt .

Der er iterative numeriske algoritmer til at tilnærme rødderne af polynomier, såsom Newtons metode , men det er generelt upraktisk at konstruere et karakteristisk polynomium og derefter anvende disse metoder. En grund er, at små afrundingsfejl i koefficienterne for det karakteristiske polynomium kan føre til store fejl i egenværdierne og egenvektorerne – rødderne er en ekstremt dårligt betinget funktion af koefficienterne [8] .

En enkel og nøjagtig iterativ metode er potensmetoden - en tilfældig vektor vælges og en sekvens af enhedsvektorer beregnes

Denne sekvens konvergerer næsten altid til en egenvektor svarende til den største egenværdi, forudsat at vektoren svarende til denne egenvektor har en ikke-nul komponent i basis af egenvektorer (og også forudsat at der kun er én største egenværdi). Denne enkle algoritme er nyttig i nogle praktiske applikationer. For eksempel bruger Google det til at beregne linkrangeringen af ​​dokumenter i deres søgemaskine [9] . Power-metoden er også udgangspunktet for mange andre komplekse algoritmer. For eksempel, hvis du ikke kun lagrer den sidste vektor i sekvensen, men ser i det lineære spænd af alle vektorer i sekvensen, kan du få en bedre (konvergerende hurtigere) tilnærmelse af egenvektoren, og denne idé er grundlaget for Arnoldi iteration [8] . Den også vigtige QR-algoritme er også baseret på en let modificeret effektmetode [8] .

Numerisk beregning af egenvektorer

Når egenværdierne er blevet beregnet, kan egenvektorerne beregnes ved at løse ligningen

ved hjælp af Gauss-eliminering eller enhver anden metode til at løse en matrixligning .

Men i praktiske metoder til at finde egenværdierne af store matricer, beregnes egenvektorerne normalt på andre måder som et biprodukt af egenværdiberegningen. I potensmetoden , for eksempel, beregnes egenvektoren generelt før egenværdien beregnes (som normalt beregnes i henhold til Rayleigh-relationen for egenvektoren) [8] . I QR-algoritmen for en hermitisk matrix (eller en hvilken som helst normal matrix ) opnås ortonormale egenvektorer som et matrixprodukt fra algoritmens trin [8] . (For mere generelle matricer udfører QR-algoritmen først en Schur-dekomponering , hvorfra egenvektorerne kan opnås ved tilbagesubstitution [10] ) For hermitiske matricer er divide-and-conquer-egenværdi søgealgoritmen mere effektiv end QR-algoritme hvis både egenvektorer og egenværdier er nødvendige [8] .

Yderligere emner

Generaliserede egenrum

Husk, at den geometriske multiplicitet af en egenværdi kan beskrives som dimensionen af ​​det tilknyttede egenrum, kernen af ​​matricen . Algebraisk multiplicitet kan også opfattes som en dimension - det er dimensionen af ​​det tilhørende generaliserede egenrum (i 1. betydning), som er kernen i en matrix for enhver tilstrækkelig stor k . Det vil sige, det er rummet af generaliserede egenvektorer (i den første betydning), hvor en generaliseret egenvektor er enhver vektor, der til sidst bliver 0, hvis den anvendes nok gange. Enhver egenvektor er en generaliseret egenvektor, og derfor er ethvert egenrum indeholdt i det tilhørende generaliserede egenrum. Dette giver et simpelt bevis på, at geometrisk multiplicitet aldrig overstiger algebraisk multiplicitet.

Denne brug bør ikke forveksles med det generaliserede egenværdiproblem beskrevet nedenfor.

Konjugeret egenvektor

En konjugeret egenvektor er en vektor, der efter en lineær transformation går ind i (op til multiplikation med en skalar) i sit konjugat. Skalaren kaldes så den konjugerede egenværdi af den lineære transformation. Konjugerede egenvektorer og egenværdier repræsenterer i det væsentlige den samme information som almindelige egenvektorer og egenværdier, men opstår, når andre koordinatsystemer bruges. Den tilsvarende ligestilling vil være

For eksempel, i teorien om kohærent elektromagnetisk spredning repræsenterer den lineære transformation handlingen foretaget af spredningsobjektet, og egenvektorerne repræsenterer polarisationstilstandene for den elektromagnetiske bølge. I optik er koordinatsystemet defineret fra bølgesynspunktet, kendt som Forward Scattering Alignment ( eng. Forward Scattering Alignment , FSA), og genererer almindelige egenværdiligninger, mens koordinatsystemet i radar defineres ud fra side af radaren er den kendt som backscattering alignment ( Eng. Back Scattering Alignment , BSA) og genererer ligninger for konjugerede egenvektorer.   

Det generaliserede problem med at finde egenværdier

Det generaliserede problem med at finde egenværdier (i anden forstand) er problemet med at finde en vektor , der opfylder ligheden

hvor og er matricer. Hvis opfylder denne lighed for nogle , så kalder vi den generaliserede egenvektor af matricerne og (i anden betydning), og kaldes den generaliserede egenværdi af matricerne og (i anden betydning), svarende til den generaliserede egenvektor . Mulige værdier skal opfylde følgende lighed

Hvis det er muligt at finde lineært uafhængige vektorer , således at vi for enhver , , definerer matricer og som følger

Så gælder følgende ligestilling

Bevis

Og da det er reversibelt, multiplicerer vi med denne inverse, og vi får det ønskede resultat.

Sættet af matricer af formen , hvor er et komplekst tal, kaldes en sheaf . Udtrykket bunke af matricer kan også referere til et par matricer [11] .

Hvis matrixen er inverterbar, kan det oprindelige problem omskrives som

som er standard egenværdiproblemet. I de fleste situationer er det dog uønsket at udføre denne inversion, men at løse det generaliserede egenværdiproblem. Dette er især vigtigt, hvis matricerne og er Hermitian , da det i dette tilfælde normalt ikke er Hermitian generelt, og de vigtige egenskaber af løsningen ikke længere vises.

Hvis begge matricer og er symmetriske og hermitiske og også er positive definite , er egenværdierne reelle og egenvektorerne og med forskellige egenværdier er -ortogonale ( ) [12] . I dette tilfælde kan egenvektorerne vælges således, at den ovenfor definerede matrix opfylder betingelserne

eller ,

og der er et grundlag for generaliserede egenvektorer (det er ikke en defektmatrix ) [11] . Dette tilfælde kaldes nogle gange for en hermitisk defineret skurv [11] .

Se også

Noter

  1. Golub, Van Loan, 1996 , s. 310.
  2. Kreyszig, 1972 , s. 273.
  3. Nering, 1970 , s. 270.
  4. Hayde, Tweede, 2002 , s. 355.
  5. Hayde, Tweede, 2002 , s. 299.
  6. Horn og Johnson, 1985 , s. 133 Sætning 2.5.3.
  7. Horn og Johnson, 1985 , s. 136 Sætning 2.5.3 Følge 2.5.11.
  8. 1 2 3 4 5 6 Trefethen, Bau, 1997 .
  9. Ipsen, Testamente, 2005 .
  10. Quarteroni, Sacco, Saleri, 2000 , s. femten.
  11. 1 2 3 Bai, Demmel, 2000 .
  12. Parlett, 1998 , s. 345.

Litteratur

  • Hayde AF, Twede DR Observationer om forhold mellem egenværdier, instrumentstøj og detektionsydelse // Billeddannelsesspektrometri VIII. / Sylvia S. Shen. - 2002. - T. 4816 . - doi : 10.1117/12.453777 . - .
  • Twede DR, Hayden AF Forfining og generalisering af forlængelsesmetoden for kovariansmatrixinversion ved regularisering // Imaging Spectrometry IX .. - 2004. - T. 5159 . - doi : 10.1117/12.506993 . - .
  • Lloyd N. Trefethen, David Bau. Numerisk lineær algebra. - "SIAM, 1997. - ISBN 978-0-89871-361-9 .
  • Alfio Quarteroni, Riccardo Sacco, Fausto Saleri. afsnit 5.8.2 // Numerisk matematik . - "Springer, 2000. - ISBN 978-0-387-98959-4 .
  • Beresford N. Parlett. Det symmetriske egenværdiproblem . - Genoptryk.. - Philadelphia: "Society for Industrial and Applied Mathematics, 1998. - ISBN 978-0-89871-402-9 . - doi : 10.1137/1.9781611971163 .
    • Oversat af B. Parlett. Symmetrisk egenværdi problem. - Moskva: Mir, 1983.
  • Ilse Ipsen, Rebecca M. Wills. Analyse og beregning af Googles PageRank // 7th IMACS International Symposium on Iterative Methods in Scientific Computing, Fields Institute, Toronto, Canada, 5.-8. maj 2005 . - 2005.
  • Generaliserede hermitiske egenværdiproblemer // Skabeloner til løsning af algebraiske egenværdiproblemer: A Practical Guide / Z. Bai, J. Demmel, J. Dongarra, A. Ruhe, H. Van Der Vorst. - Philadelphia: SIAM, 2000. - ISBN 978-0-89871-471-5 .
  • Joel N. Franklin. Matrix teori . Dover Publikationer. — ISBN 978-0-486-41179-8 .
  • Gene H. Golub, Charles F. Van Loan. Matrix beregninger. — 3. - Baltimore: Johns Hopkins University Press , 1996. - ISBN 978-0-8018-5414-9 .
    • Oversat af J. Golub, C. Van Lone. Matrixberegninger. - Moskva: Mir, 1999. - ISBN 5-03-002406-9 .
  • Roger A. Horn, Charles R. Johnson. matrixanalyse. - Cambridge University Press, 1985. - ISBN 978-0-521-38632-6 .
    • Translation Horn R., Johnson C. Matrixanalyse. - "Mir", 1989. - ISBN 978-5-458-26504-1 (YOYO Media).
  • Roger A. Horn, Charles R. Johnson. Emner i matrixanalyse . - Cambridge University Press, 1991. - ISBN 978-0-521-46713-1 .
  • Erwin Kreyszig. Avanceret teknisk matematik . — 3. - New York: Wiley , 1972. - ISBN 978-0-471-50728-4 .
  • Evar D. Nering. Lineær algebra og matrixteori. — 2. — New York: Wiley , 1970.
  • Strang G. Introduktion til lineær algebra. — 3. - Wellesley-Cambridge Press, 1998. - ISBN 978-0-9614088-5-5 .

Links