I matematik er en kvadratisk matrix en matrix , hvor antallet af rækker er det samme som antallet af kolonner, og dette tal kaldes matrixens rækkefølge. Alle to kvadratiske matricer af samme rækkefølge kan lægges sammen og ganges.
Kvadratiske matricer bruges ofte til at repræsentere simple lineære afbildninger , såsom warp eller rotation . For eksempel, hvis R er en kvadratisk matrix, der repræsenterer en rotation (rotationsmatrix ) , og v er en kolonnevektor, der definerer positionen af et punkt i rummet, giver produktet Rv en anden vektor, der definerer punktets position efter rotationen. Hvis v er en rækkevektor , kan den samme transformation opnås ved hjælp af vRT , hvor RT er matrixen transponeret til R.
Elementerne a ii ( i = 1, …, n ) danner hoveddiagonalen i en kvadratisk matrix. Disse elementer ligger på en imaginær lige linje, der går fra det øverste venstre hjørne til det nederste højre hjørne af matricen [1] . For eksempel indeholder hoveddiagonalen af 4x4-matricen i figuren elementerne a 11 = 9, a 22 = 11, a 33 = 4, a 44 = 10.
Diagonalen af en firkantet matrix, der går gennem det nederste venstre og øverste højre hjørne, kaldes siden .
Navn | Eksempel med n = 3 |
---|---|
Diagonal matrix | |
Nedre trekantet matrix | |
Øvre trekantet matrix |
Hvis alle elementer uden for hoveddiagonalen er nul, siges A at være diagonal . Hvis alle elementer over (under) hoveddiagonalen er nul, kaldes A for en nedre (øverste) trekantet matrix . En trekantet matrix med alle diagonale indgange lig med 1 kaldes en enhedstriangulær [2] [3] .
Identitetsmatrixen E n af størrelse n er en n × n matrix, hvor alle elementer på hoveddiagonalen er lig med 1, og de resterende elementer er lig med 0 (ofte bruges bogstavet I i stedet for bogstavet E [4] ) [1] . På denne måde
Multiplikation med identitetsmatrixen efterlader matrixen uændret:
{{{1}}} for enhver n × n matrix A .En kvadratisk matrix A , der matcher dens transponerede matrix , dvs. A = A T , kaldes symmetrisk . Hvis A adskiller sig fra den transponerede matrix i fortegn, det vil sige A = − A T , så kaldes A antisymmetrisk (eller skævsymmetrisk ) [4] [5] . Ved komplekse matricer erstattes symmetribegrebet ofte af begrebet selvadjoint , og en matrix, der opfylder ligheden A ∗ = A , kaldes hermitisk (eller selvadjoint ); her angiver stjernen operationen af Hermitian conjugation , hvis betydning er at erstatte hvert element i den oprindelige matrix med et komplekst konjugeret tal, efterfulgt af transponering af den resulterende matrix [6] [7] .
Ifølge spektralsætningen er der for reelle symmetriske matricer og komplekse hermitiske matricer baser bestående af egenvektorer ; således kan enhver rumvektor repræsenteres som en lineær kombination af egenvektorer. I begge tilfælde er alle egenværdier reelle [8] . Denne sætning kan udvides til det uendelig-dimensionelle tilfælde, når matricer har uendeligt mange rækker og kolonner.
En kvadratisk matrix A siges at være invertibel eller ikke- singular , hvis der eksisterer en matrix B , således at
AB = BA = E [9] [10] .Hvis matricen B eksisterer, er den unik og kaldes den inverse af A og skrives som A −1 .
positiv bestemt | ubestemt |
---|---|
Q ( x , y ) = 1/4 x 2 + 1/4 y 2 | Q ( x , y ) = 1/4 x 2 − 1/4 y 2 |
Punkter, der opfylder ligningen Q ( x , y ) = 1 ( Ellipse ). |
Punkter, der opfylder ligningen Q ( x , y ) = 1 ( Hyperbel ). |
En symmetrisk n × n matrix kaldes positiv bestemt (henholdsvis negativ bestemt eller ubestemt), hvis for alle ikke-nul vektorer x ∈ R n den tilsvarende kvadratiske form
Q ( x ) = x T Axtager kun positive værdier (henholdsvis negative værdier eller begge dele). Hvis den kvadratiske form kun tager ikke-negative (henholdsvis kun ikke-positive) værdier, siges den symmetriske matrix at være positiv semi-bestemt (henholdsvis negativ semi-definit). En matrix vil være ubestemt, hvis den hverken er positiv eller negativ semidefinit [11] .
En symmetrisk matrix er positiv bestemt, hvis og kun hvis alle dens egenværdier er positive [12] . Tabellen til højre viser to mulige tilfælde for 2×2 matricer.
Hvis vi bruger to forskellige vektorer, får vi en bilineær form forbundet med A :
B A ( x , y ) = x T Ay [13] .En ortogonal matrix er en kvadratisk matrix med reelle elementer, hvis kolonner og rækker er ortogonale enhedsvektorer (det vil sige ortonormale). Du kan også definere en ortogonal matrix som en matrix, hvis inverse er lig med transponeringen [7] :
hvorfra følger
,hvor E er identitetsmatrixen .
En ortogonal matrix A er altid inverterbar ( A −1 = AT ), unitær ( A −1 = A *) og normal ( A * A = AA *). Determinanten for enhver ortogonal matrix er enten +1 eller -1 [14] . Multiplikation med en ortogonal matrix angiver en sådan lineær transformation af det aritmetiske rum , som i tilfælde af en matrix med determinant +1 er en simpel rotation , og i tilfælde af en matrix med determinant −1 er det enten en simpel refleksion eller en superposition af refleksion og rotation.
Den komplekse analog af en ortogonal matrix er enhedsmatrixen .
Sporet af en kvadratisk matrix A (tr( A )) er summen af elementerne i hoveddiagonalen. Mens matrixmultiplikation generelt ikke er kommutativ, afhænger sporet af et produkt af to matricer ikke af rækkefølgen af faktorerne:
tr( AB ) = tr( BA ).Dette følger direkte af definitionen af et matrixprodukt:
Også sporet af en matrix er lig med sporet af dets transponering, dvs.
tr( A ) = tr( AT ) .Determinant det( A ) eller | A | kvadratisk matrix A er et tal, der definerer nogle af matrixens egenskaber. En matrix er inverterbar, hvis og kun hvis dens determinant er ikke-nul. Den absolutte værdi af determinanten er lig med arealet (i R 2 ) eller volumen (i R 3 ) af billedet af enhedskvadraten (eller terningen), mens fortegnet for determinanten svarer til orienteringen af den tilsvarende afbildning - determinanten er positiv, hvis og kun hvis orienteringen bevares.
Determinanten af 2×2 matricer beregnes ved formlen
3×3 matrixdeterminanten bruger 6 produkter ( Sarrus' regel ). Jo længere Leibniz formel generaliserer disse to formler til alle dimensioner [15] .
Determinanten af produktet af matricer er lig med produktet af determinanterne af faktorerne:
det( AB ) = det( A ) • det( B ) [16] .Tilføjelse af en række med en koefficient til en anden række eller enhver kolonne med en koefficient til en anden kolonne ændrer ikke determinanten. Udvekslingen af steder af to rækker eller kolonner fører til en ændring i determinantens fortegn [17] . Ved at bruge disse operationer kan enhver matrix reduceres til en nedre (eller øvre) trekantet matrix, og for sådanne matricer er determinanten lig med produktet af elementerne i hoveddiagonalen, hvilket giver en måde at beregne determinanten for enhver matrix. Endelig udtrykker Laplaces sætning determinanten i form af minor , det vil sige determinanter for mindre matricer [18] . Denne sætning muliggør den rekursive beregning af determinanter (startende fra determinanten af en 1x1 matrix, eller endda fra determinanten af en 0x0 matrix, som er lig med 1), som kan betragtes som ækvivalent med Leibniz formlen. Determinanter kan bruges til at løse lineære systemer ved hjælp af Cramers metode [19] .
Et tal λ og en ikke-nul vektor v , der opfylder ligningen
Av = λ v ,kaldes henholdsvis egenværdien og egenvektoren af matricen A , [20] . Et tal λ er en n × n egenværdi af en matrix A , hvis og kun hvis A −λ E ikke har nogen invers, hvilket svarer til
[tyve]Polynomiet p A i det ukendte X opnået som determinanten det( X E − A ) kaldes det karakteristiske polynomium for matricen A . Det er et normaliseret polynomium af grad n . Således har ligningen p A (λ) = 0 maksimalt n forskellige løsninger, det vil sige matrix egenværdier [21] . Disse værdier kan være komplekse, selvom alle elementer i matrix A er reelle. Ifølge Hamilton-Cayley-sætningen , p A ( A ) = 0 , det vil sige, når selve matrixen substitueres i det karakteristiske polynomium, får vi en nulmatrix [22] .