Kvadratisk matrix

I matematik er en kvadratisk matrix  en matrix , hvor antallet af rækker er det samme som antallet af kolonner, og dette tal kaldes matrixens rækkefølge. Alle to kvadratiske matricer af samme rækkefølge kan lægges sammen og ganges.

Kvadratiske matricer bruges ofte til at repræsentere simple lineære afbildninger  , såsom warp eller rotation . For eksempel, hvis R  er en kvadratisk matrix, der repræsenterer en rotation (rotationsmatrix ) , og v  er en kolonnevektor, der definerer positionen af ​​et punkt i rummet, giver produktet Rv en anden vektor, der definerer punktets position efter rotationen. Hvis v  er en rækkevektor , kan den samme transformation opnås ved hjælp af vRT , hvor RT  er matrixen transponeret til R.

Hoveddiagonal

Elementerne a ii ( i = 1, …, n ) danner hoveddiagonalen i en kvadratisk matrix. Disse elementer ligger på en imaginær lige linje, der går fra det øverste venstre hjørne til det nederste højre hjørne af matricen [1] . For eksempel indeholder hoveddiagonalen af ​​4x4-matricen i figuren elementerne a 11 = 9, a 22 = 11, a 33 = 4, a 44 = 10.

Diagonalen af ​​en firkantet matrix, der går gennem det nederste venstre og øverste højre hjørne, kaldes siden .

Særlige typer

Navn Eksempel med n = 3
Diagonal matrix
Nedre trekantet matrix
Øvre trekantet matrix

Diagonale og trekantede matricer

Hvis alle elementer uden for hoveddiagonalen er nul, siges A at være diagonal . Hvis alle elementer over (under) hoveddiagonalen er nul, kaldes A for en nedre (øverste) trekantet matrix . En trekantet matrix med alle diagonale indgange lig med 1 kaldes en enhedstriangulær [2] [3] .

Identitetsmatrix

Identitetsmatrixen E n af størrelse n  er en n × n matrix, hvor alle elementer på hoveddiagonalen er lig med 1, og de resterende elementer er lig med 0 (ofte bruges bogstavet I i stedet for bogstavet E [4] ) [1] . På denne måde

Multiplikation med identitetsmatrixen efterlader matrixen uændret:

{{{1}}} for enhver n × n matrix A .

Symmetriske og antisymmetriske matricer

En kvadratisk matrix A , der matcher dens transponerede matrix , dvs. A = A T , kaldes symmetrisk . Hvis A adskiller sig fra den transponerede matrix i fortegn, det vil sige A = − A T , så kaldes A antisymmetrisk (eller skævsymmetrisk ) [4] [5] . Ved komplekse matricer erstattes symmetribegrebet ofte af begrebet selvadjoint , og en matrix, der opfylder ligheden A ∗ = A , kaldes hermitisk (eller selvadjoint ); her angiver stjernen operationen af ​​Hermitian conjugation , hvis betydning er at erstatte hvert element i den oprindelige matrix med et komplekst konjugeret tal, efterfulgt af transponering af den resulterende matrix [6] [7] .

Ifølge spektralsætningen er der for reelle symmetriske matricer og komplekse hermitiske matricer baser bestående af egenvektorer ; således kan enhver rumvektor repræsenteres som en lineær kombination af egenvektorer. I begge tilfælde er alle egenværdier reelle [8] . Denne sætning kan udvides til det uendelig-dimensionelle tilfælde, når matricer har uendeligt mange rækker og kolonner.

Inverterbare matricer

En kvadratisk matrix A siges at være invertibel eller ikke- singular , hvis der eksisterer en matrix B , således at

AB = BA = E [9] [10] .

Hvis matricen B eksisterer, er den unik og kaldes den inverse af A og skrives som A −1 .

Definite Matrix

positiv bestemt ubestemt
Q ( x , y ) = 1/4 x 2 + 1/4 y 2 Q ( x , y ) = 1/4 x 2 − 1/4 y 2

Punkter, der opfylder ligningen Q ( x , y ) = 1
( Ellipse ).

Punkter, der opfylder ligningen Q ( x , y ) = 1
( Hyperbel ).

En symmetrisk n × n matrix kaldes positiv bestemt (henholdsvis negativ bestemt eller ubestemt), hvis for alle ikke-nul vektorer x ∈ R n den tilsvarende kvadratiske form

Q ( x ) = x T Ax

tager kun positive værdier (henholdsvis negative værdier eller begge dele). Hvis den kvadratiske form kun tager ikke-negative (henholdsvis kun ikke-positive) værdier, siges den symmetriske matrix at være positiv semi-bestemt (henholdsvis negativ semi-definit). En matrix vil være ubestemt, hvis den hverken er positiv eller negativ semidefinit [11] .

En symmetrisk matrix er positiv bestemt, hvis og kun hvis alle dens egenværdier er positive [12] . Tabellen til højre viser to mulige tilfælde for 2×2 matricer.

Hvis vi bruger to forskellige vektorer, får vi en bilineær form forbundet med A :

B A ( x , y ) = x T Ay [13] .

Ortogonal matrix

En ortogonal matrix  er en kvadratisk matrix med reelle elementer, hvis kolonner og rækker er ortogonale enhedsvektorer (det vil sige ortonormale). Du kan også definere en ortogonal matrix som en matrix, hvis inverse er lig med transponeringen [7] :

hvorfra følger

,

hvor E  er identitetsmatrixen .

En ortogonal matrix A er altid inverterbar ( A −1 = AT ), unitær ( A −1 = A *) og normal ( A * A = AA *). Determinanten for enhver ortogonal matrix er enten +1 eller -1 [14] . Multiplikation med en ortogonal matrix angiver en sådan lineær transformation af det aritmetiske rum , som i tilfælde af en matrix med determinant +1 er en simpel rotation , og i tilfælde af en matrix med determinant −1 er det enten en simpel refleksion eller en superposition af refleksion og rotation.

Den komplekse analog af en ortogonal matrix er enhedsmatrixen .

Operationer

Næste

Sporet af en kvadratisk matrix A (tr( A )) er summen af ​​elementerne i hoveddiagonalen. Mens matrixmultiplikation generelt ikke er kommutativ, afhænger sporet af et produkt af to matricer ikke af rækkefølgen af ​​faktorerne:

tr( AB ) = tr( BA ).

Dette følger direkte af definitionen af ​​et matrixprodukt:

Også sporet af en matrix er lig med sporet af dets transponering, dvs.

tr( A ) = tr( AT ) .

Determinant

Determinant det( A ) eller | A | kvadratisk matrix A  er et tal, der definerer nogle af matrixens egenskaber. En matrix er inverterbar, hvis og kun hvis dens determinant er ikke-nul. Den absolutte værdi af determinanten er lig med arealet (i R 2 ) eller volumen (i R 3 ) af billedet af enhedskvadraten (eller terningen), mens fortegnet for determinanten svarer til orienteringen af ​​den tilsvarende afbildning - determinanten er positiv, hvis og kun hvis orienteringen bevares.

Determinanten af ​​2×2 matricer beregnes ved formlen

3×3 matrixdeterminanten bruger 6 produkter ( Sarrus' regel ). Jo længere Leibniz formel generaliserer disse to formler til alle dimensioner [15] .

Determinanten af ​​produktet af matricer er lig med produktet af determinanterne af faktorerne:

det( AB ) = det( A ) • det( B ) [16] .

Tilføjelse af en række med en koefficient til en anden række eller enhver kolonne med en koefficient til en anden kolonne ændrer ikke determinanten. Udvekslingen af ​​steder af to rækker eller kolonner fører til en ændring i determinantens fortegn [17] . Ved at bruge disse operationer kan enhver matrix reduceres til en nedre (eller øvre) trekantet matrix, og for sådanne matricer er determinanten lig med produktet af elementerne i hoveddiagonalen, hvilket giver en måde at beregne determinanten for enhver matrix. Endelig udtrykker Laplaces sætning determinanten i form af minor , det vil sige determinanter for mindre matricer [18] . Denne sætning muliggør den rekursive beregning af determinanter (startende fra determinanten af ​​en 1x1 matrix, eller endda fra determinanten af ​​en 0x0 matrix, som er lig med 1), som kan betragtes som ækvivalent med Leibniz formlen. Determinanter kan bruges til at løse lineære systemer ved hjælp af Cramers metode [19] .

Egenværdier og egenvektorer

Et tal λ og en ikke-nul vektor v , der opfylder ligningen

Av = λ v ,

kaldes henholdsvis egenværdien og egenvektoren af ​​matricen A , [20] . Et tal λ er en n × n egenværdi af en matrix A , hvis og kun hvis A −λ E ikke har nogen invers, hvilket svarer til

[tyve]

Polynomiet p A i det ukendte X opnået som determinanten det( X E − A ) kaldes det karakteristiske polynomium for matricen A . Det er et normaliseret polynomium af grad n . Således har ligningen p A (λ) = 0 maksimalt n forskellige løsninger, det vil sige matrix egenværdier [21] . Disse værdier kan være komplekse, selvom alle elementer i matrix A er reelle. Ifølge Hamilton-Cayley-sætningen , p A ( A ) = 0 , det vil sige, når selve matrixen substitueres i det karakteristiske polynomium, får vi en nulmatrix [22] .

Noter

  1. 1 2 Voevodin og Kuznetsov, 1984 , s. 26.
  2. Voevodin og Kuznetsov, 1984 , s. 26-27.
  3. Ikramov, 1991 , s. 9-10.
  4. 1 2 Pobedrya, 1986 , s. 41.
  5. Voevodin og Kuznetsov, 1984 , s. 74.
  6. Voevodin og Kuznetsov, 1984 , s. 73.
  7. 1 2 Ikramov, 1991 , s. ti.
  8. Horn og Johnson, 1989 , Teorem 2.5.6, s. 129-130.
  9. Brown, 1991 , Definition I.2.28, s. 21.
  10. Brown, 1991 , sætning I.5.13, s. 61.
  11. Horn og Johnson, 1989 , 7.1. Definitioner og egenskaber, s. 471-474.
  12. Horn og Johnson, 1989 , Teorem 7.2.1, s. 477-478.
  13. Horn og Johnson, 1989 , eksempel 4.0.6, s. 202.
  14. Voevodin og Kuznetsov, 1984 , s. 71-72.
  15. Brown, 1991 , Definition III.2.1, s. 167.
  16. Brown, 1991 , sætning III.2.12, s. 173.
  17. Brown, 1991 , konsekvens III.2.16, s. 174.
  18. Mirsky, 1990 , sætning 1.4.1, s. 14-15.
  19. Brown, 1991 , sætning III.3.18, s. 189.
  20. 1 2 Bellman, 1976 , s. 56.
  21. Brown, 1991 , konsekvens III.4.10, s. 198.
  22. Gantmakher, 1988 , s. 87.

Links