En matrix er et matematisk objekt skrevet som en rektangulær tabel over elementer i en ring eller et felt (for eksempel heltal , reelle eller komplekse tal), som er en samling af rækker og kolonner , hvor dens elementer er placeret. Antallet af rækker og kolonner angiver størrelsen af matrixen. Selvom for eksempel trekantede matricer [1] historisk har været overvejet, taler de på nuværende tidspunkt udelukkende om rektangulære matricer, da de er de mest bekvemme og generelle.
Matricer er meget brugt i matematik til kompakt repræsentation af systemer af lineære algebraiske eller differentialligninger . I dette tilfælde svarer antallet af matrixrækker til antallet af ligninger, og antallet af kolonner svarer til antallet af ukendte. Som et resultat reduceres løsningen af systemer med lineære ligninger til operationer på matricer.
Følgende algebraiske operationer er defineret for en matrix :
Med hensyn til addition danner matricer en abelsk gruppe ; hvis vi også betragter multiplikation med en skalar, så danner matricerne et modul over den tilsvarende ring (et vektorrum over et felt). Sættet af kvadratmatricer er lukket under matrixmultiplikation, så kvadratiske matricer af samme størrelse danner en associativ ring med enhed under matrixaddition og matrixmultiplikation.
Det er bevist, at hver lineær operator, der virker i -dimensionelt lineært rum, kan associeres med en unik kvadratisk matrix af orden ; og omvendt - hver kvadratisk matrix kan associeres med en unik lineær operator, der virker i dette rum. [2] Egenskaberne for en matrix svarer til egenskaberne for en lineær operator. Især egenværdierne af en matrix er egenværdierne for operatoren svarende til de tilsvarende egenvektorer .
Det samme kan siges om repræsentationen af bilineære (kvadratiske) former ved matricer .
I matematik betragtes mange forskellige typer og typer af matricer . Sådanne er for eksempel enhed , symmetriske , skæv-symmetriske , øvre trekantede (nederste trekantede) osv. matricer.
Af særlig betydning i matrixteori er alle slags normale former , det vil sige den kanoniske form, hvortil en matrix kan reduceres ved at ændre koordinater. Den vigtigste (i teoretisk forstand) og uddybet er teorien om Jordans normale former . I praksis anvendes dog normale former, der har yderligere egenskaber, såsom stabilitet.
For første gang blev matricer nævnt i det gamle Kina, dengang kaldet den " magiske firkant ". Den vigtigste anvendelse af matricer var løsningen af lineære ligninger [3] . Også magiske firkanter blev kendt lidt senere blandt arabiske matematikere, omkring det tidspunkt dukkede princippet om matrixtilsætning op. Efter at have udviklet teorien om determinanter i slutningen af det 17. århundrede, begyndte Gabriel Cramer at udvikle sin teori i det 18. århundrede og udgav Cramers regel i 1751. Omtrent i samme tidsrum dukkede " Gauss-metoden " op. Matrix teori begyndte sin eksistens i midten af det 19. århundrede i værker af William Hamilton og Arthur Cayley . Grundlæggende resultater inden for matrixteori skyldes Weierstrass , Jordan , Frobenius . Udtrykket "matrix" blev introduceret af James Sylvester i 1850 [4]
Matricer opstår naturligt ved løsning af lineære ligningssystemer , såvel som når man overvejer lineære transformationer .
Overvej et system af lineære ligninger af formen:
.Dette system består af lineære ligninger i ukendte. Det kan skrives som følgende matrixligning:
,hvor
En matrix er en matrix af koefficienter for et system af lineære ligninger, en kolonnevektor er en vektor af ukendte, og en kolonnevektor er en given vektor.
For at systemet skal have en løsning (mindst én), er det nødvendigt og tilstrækkeligt , at vektoren er en lineær kombination af søjler , og så er vektoren en vektor, der indeholder koefficienterne for vektorens ekspansion over søjlerne af matrixen .
På matrixsproget er betingelsen for løseligheden af et system af lineære ligninger formuleret som Kronecker-Capelli-sætningen :
rangeringen af en matrix er lig med rangeringen af den udvidede matrix ,sammensat af søjler og en søjle .
Et vigtigt specialtilfælde . Hvis antallet af ligninger falder sammen med antallet af ukendte ( det vil sige, at matricen er kvadratisk), så svarer betingelsen for unik opløselighed til betingelsen for, at matrixen er inverterbar .
(Bemærk. Systemets løselighed indebærer endnu ikke, at matrixen ikke er degenereret. Eksempel: .)
Især hvis matrixen er inverterbar, kan løsningen til systemet skrives (og hvis den beregnes , så findes den) i formen
.Dette fører til en algoritme til at beregne værdierne af de ukendte ved Cramers regel .
Overvej en lineær transformation fra -dimensionelt vektorrum til -dimensionelt vektorrum, der har følgende form:
.I matrixform er dette en transformation af en formsligning:
.Matrix er en matrix af lineære transformationskoefficienter.
Hvis vi betragter virkningen af en lineær transformation på vektorer af formen
,danner grundlaget for rummet , så - dette er den -th søjle i matricen .
Matricen beskriver således fuldstændig den lineære transformation , og kaldes derfor den lineære transformationsmatrix .
Lad der være to endelige mængder:
Lad os kalde en matrix af størrelse (læs videre ) ( - rækker , - kolonner ) med elementer fra en ring eller et felt for en afbildning af formen . Matrixen er skrevet som
hvor matrixelementet er i skæringspunktet mellem den -th række og -th kolonnen .
I dette tilfælde er antallet af matrixelementer lig med .
Ifølge denne
Selve matrixen fortolkes naturligt som en vektor i et dimensionsrum . Dette gør det muligt at indføre komponent-for-komponent addition af matricer og multiplikation af en matrix med et tal (se nedenfor); hvad angår matrixmultiplikation , er den stærkt afhængig af matrixens rektangulære struktur.
Hvis matrixen har det samme antal rækker som antallet af kolonner , kaldes en sådan matrix kvadratisk , og tallet kaldes størrelsen af kvadratmatricen eller dens rækkefølge .
Matricer af størrelse og er elementer af rum og henholdsvis:
Følgende transformationer kaldes elementære transformationer af matrixrækker:
Elementære transformationer af matrixkolonner er defineret på samme måde.
Rækkerne og kolonnerne i matrixen er elementer i de tilsvarende vektorrum:
Rangeringen af en matrix er antallet af lineært uafhængige søjler i en matrix (søjlerækkefølgen af en matrix) eller antallet af lineært uafhængige rækker i en matrix ( rækkerækken af en matrix). Svarende til denne definition er definitionen af rangeringen af en matrix som rækkefølgen af matrixens maksimale minor, der ikke er nul.
Under elementære transformationer ændres matrixens rangorden ikke.
En matrix betegnes normalt med et stort bogstav i det latinske alfabet: lad
så er en matrix, der fortolkes som en rektangulær række af feltelementer af formen , hvor
således er elementet i matricen placeret i skæringspunktet mellem den -th række og -th kolonnen. Følgelig er følgende kompakte notation for en matrix af størrelse vedtaget :
eller simpelthen
hvis du blot skal angive betegnelsen for elementerne i matricen.
Nogle gange skriver de i stedet for , for at adskille indeksene fra hinanden og undgå forveksling med produktet af to tal.
Hvis det er nødvendigt at give en detaljeret repræsentation af matricen i form af en tabel, så brug registreringen af formularen
Du kan finde både betegnelser med parentes "(...)" og betegnelser med firkantede parenteser "[...]". Mindre almindelige er symboler med dobbelte lige linjer “||…||”).
Da en matrix består af rækker og kolonner, bruges følgende notation til dem:
er den th række af matricen ,-en
er den th søjle i matricen .Således har matrixen en dobbelt repræsentation - efter rækker:
og efter kolonner:
.Denne repræsentation giver mulighed for at formulere egenskaberne for matricer i form af rækker eller i form af kolonner.
For hver størrelse matrix
man kan konstruere en matrix af størrelse ,
som har for alle og .
En sådan matrix kaldes den transponerede matrix for og er betegnet med ,
nogle gange (hvis der ikke er mulighed for forveksling med differentiering ) angives ,
nogle gange (hvis der ikke er mulighed for forveksling med den hermitiske konjugation ) betegnes med .
Når de transponeres, bliver rækkerne (kolonnerne) af matricer til kolonner (henholdsvis rækker) i en matrix .
Åbenbart .
For matricer over en ring er transpositionen en isomorfi af matrixmodulerne , da
, , for enhver .Diagonal matrix - en kvadratisk matrix, hvor alle elementer undtagen de diagonale er nul , nogle gange skrevet som:
Ud over hoveddiagonalen overvejes nogle gange matrixelementer, der er direkte over de diagonale elementer. Disse elementer danner overdiagonalen af matrixen. Elementerne umiddelbart under diagonalen danner en subdiagonal matrix (se bidiagonal matrix ).
Elementer placeret stedvis danner en sidediagonal (se f.eks. Sidediagonal eller Matrixtyper ).
Identitetsmatrixen er en matrix, når den ganges med hvilken enhver matrix (eller vektor) forbliver uændret, er den en diagonal matrix med identitet (alle) diagonale elementer:
Til dens betegnelse bruges betegnelsen I eller E oftest såvel som blot 1 (eller 1 i en speciel skrifttype).
For at udpege dets elementer bruges Kronecker-symbolet også , defineret som:
påFor at udpege en nulmatrix - en matrix, hvis alle elementer er nul (når den føjes til en hvilken som helst matrix, forbliver den uændret, og når den ganges med en hvilken som helst matrix, opnås en nulmatrix) - normalt er 0 eller 0 brugt i en speciel skrifttype eller et bogstav, der ligner nul, for eksempel .
Du kan kun tilføje matricer af samme størrelse.
Matrixaddition er operationen med at finde en matrix , hvis alle elementer er lig med den parvise sum af alle tilsvarende elementer i matricerne , og det vil sige, at hvert element i matrixen er lig med
Matrix additionsegenskaber:
Alle egenskaber ved lineære operationer gentager aksiomer af et lineært rum , og derfor er følgende sætning gyldig:
Sættet af alle matricer af samme størrelse med elementer fra feltet (feltet af alle reelle eller komplekse tal ) danner et lineært rum over feltet (hver sådan matrix er en vektor af dette rum). Men primært for at undgå terminologisk forvirring undgås matricer i almindelige sammenhænge uden behov (hvilket ikke er i de mest almindelige standardapplikationer) og klar specifikation af brugen af udtrykket til at kalde vektorer.
At gange en matrix med et tal er at bygge en matrix .
Egenskaber ved multiplikation af matricer med et tal:
Matrixmultiplikation (notation:, sjældent med multiplikationstegnet) er operationen til at beregne en matrix, hvis hvert element er lig med summen af produkterne af elementerne i den tilsvarende række af den første faktor og kolonnen i den anden.
Antallet af kolonner i matrixen skal svare til antallet af rækker i matrixen , med andre ord skal matrixen være konsistent med matrixen . Hvis matricen har dimension , - , så er dimensionen af deres produkt .
Matrix multiplikationsegenskaber:
;
Ifølge de sædvanlige regler for matrixmultiplikation ganges en kolonnevektor med en matrix, som er skrevet til venstre for den, og en rækkevektor ganges med en matrix, som er skrevet til højre for den. Da elementerne i en kolonnevektor eller rækkevektor kan skrives (hvilket normalt gøres) ved hjælp af et indeks i stedet for to, kan denne multiplikation skrives som:
for en kolonnevektor (få en ny kolonnevektor ):
for en rækkevektor (få en ny rækkevektor ):
En rækkevektor, matrix og kolonnevektor kan ganges med hinanden, hvilket giver et tal (skalar):
(Rækkefølgen er vigtig: rækkevektoren er til venstre, kolonnevektoren er til højre for matricen).
Disse operationer er grundlaget for matrixrepræsentationen af lineære operatorer og lineære koordinattransformationer (ændring af baser), såsom rotationer, skaleringer, spejlrefleksioner og også (sidste) matrixrepræsentationen af bilineære (kvadratiske) former.
Bemærk, at den sædvanlige motivation for at introducere matricer og definere driften af matrixmultiplikation (se også i artiklen om matrixmultiplikation ) netop er introduktionen af dem, startende med multiplikationen af en vektor med en matrix (som introduceres baseret på basistransformationer) eller generelt lineære operationer på vektorer), og først derefter sammenlignes sammensætningen af transformationer med produktet af matricer. Faktisk, hvis den nye vektor Av , opnået fra den oprindelige vektor v ved en transformation, der kan repræsenteres ved multiplikation med matrix A , nu transformeres igen ved en transformation, der kan repræsenteres ved multiplikation med matrix B , og opnår B(Av) , så baseret på reglen for at gange en vektor med en matrix, angivet i begyndelsen af dette afsnit (ved at bruge associativiteten ved multiplikation af tal og vende rækkefølgen af summering), er det let at se den resulterende formel, der giver elementerne i en matrix (BA), der repræsenterer sammensætningen af den første og anden transformation og falder sammen med den sædvanlige definition af matrixmultiplikation.
Hvis elementerne i matricen er komplekse tal, så er den komplekse konjugat (ikke at forveksle med det hermitiske konjugat ! Se nedenfor) matrix lig med . Her er den komplekse konjugat af .
Transponering er allerede blevet diskuteret ovenfor: hvis , så . For komplekse matricer er hermitisk konjugation mere almindelig : . Set fra operatørsynet af matricer er den transponerede og hermitske konjugatmatrix matrixerne for operatørkonjugatet med hensyn til henholdsvis skalar- eller hermitisk produkt.
For en kvadratisk matrix kaldes summen af de diagonale elementer (dvs. førsteordens primære mindreårige) sporet :
(andre betegnelser , , ).
Ejendomme:
Lad matricen være kvadratisk, så betegnelsen for determinanten :. Hvis matrixen er så
I et vektorrum er en lineær kombination af vektorer en vektor
hvor er ekspansionskoefficienterne:
Dette gør det muligt at beskrive produktet af matricer og termer af lineære kombinationer:
Hvis en hvilken som helst vektor kan repræsenteres som en lineær kombination, så taler man om en lineær afhængighed af denne vektor af kombinationens elementer.
Mere præcist siger de dette: et bestemt sæt af elementer i et vektorrum kaldes lineært afhængigt, hvis der er en lineær kombination af elementer i dette sæt lig med nul eller
hvor ikke alle tal er lig nul; hvis en sådan ikke-triviel kombination ikke eksisterer, så kaldes den givne samling af vektorer lineært uafhængig .
Den lineære afhængighed af vektorer betyder, at en eller anden vektor af et givet sæt er lineært udtrykt gennem resten af vektorerne.
Hver matrix er en samling af vektorer (af samme rum). To sådanne matricer er to sæt. Hvis hver vektor i et sæt er lineært udtrykt i form af vektorerne i et andet sæt, så beskrives denne kendsgerning i matrixteoriens sprog ved hjælp af produktet af matricer:
Addition og subtraktion er kun tilladt for matricer af samme størrelse.
Der er en nulmatrix, således at dens tilføjelse til en anden matrix A ikke ændrer A, dvs.
Alle elementer i nulmatrixen er lig med nul.
Kun kvadratiske matricer kan hæves til en potens .
Hvis antallet af rækker i en matrix er lig med antallet af kolonner, kaldes en sådan matrix kvadratisk .
For kvadratiske matricer er der en identitetsmatrix (analog med enhed til drift af multiplicering af tal ), således at multiplikation af enhver matrix med den ikke påvirker resultatet, nemlig
Identitetsmatrixen har kun enheder langs hoveddiagonalen, resten af elementerne er lig med nul
For nogle kvadratiske matricer kan man finde den såkaldte inverse matrix . Den inverse matrix er sådan, at hvis matrixen multipliceres med sin inverse matrix, så vil identitetsmatrixen blive opnået:
Den inverse matrix eksisterer ikke altid. Matricer, for hvilke der findes en invers matrix, kaldes ikke- degenereret (eller regulær), og for hvilke der ikke er nogen - degenereret (eller ental ). En matrix er ikke degenereret, hvis alle dens rækker (kolonner) er lineært uafhængige som vektorer . Det maksimale antal lineært uafhængige rækker (kolonner) kaldes matrixens rang. Determinanten (determinanten) af en matrix er værdien af den normaliserede skæv-symmetriske (antisymmetriske) multilineære valensform på matrixens søjler. En kvadratisk matrix over et talfelt er degenereret, hvis og kun hvis dens determinant er nul.
Af ovenstående egenskaber ved addition og multiplikation af matricer (associativitet og kommutativitet af addition, fordelingsevne af multiplikation, eksistensen af en matrix, der er nul og modsat i addition), følger det, at n gange n kvadratiske matricer med elementer fra en hvilken som helst ring R danner en ring isomorf med endomorfi - ringen af det frie modul Rn . Denne ring er betegnet med eller . Hvis R er en kommutativ ring , er det også en associativ algebra over R. Determinanten af en matrix med elementer fra en kommutativ ring kan beregnes ved hjælp af den sædvanlige formel, og matrixen vil være inverterbar, hvis og kun hvis dens determinant er inverterbar i R . Dette generaliserer situationen med matricer med elementer fra feltet , da ethvert element undtagen nul er inverterbart i feltet.
Matricer spiller en vigtig rolle i gruppeteori . De bruges i konstruktionen af generelle lineære grupper , specielle lineære grupper , diagonale grupper , trekantede grupper , enhedstriangulære grupper .
En endelig gruppe (især en symmetrisk) kan (isomorfisk) modelleres af permutationsmatricer (der kun indeholder "0" og "1"),
for eksempel for : , , , , , .
Feltet med komplekse tal kan (isomorfisk) modelleres over feltet med reelle tal:
for matrixanaloger , hvor ;
tændstikker ;
tændstikker ;
tændstikker ;
;
at svarer til at ;
korrespondance .
Især for
svarer ,
hvor .
Kommentar. Modellen har en automorfi , dvs
Kvaternioners krop kan (isomorfisk) modelleres over feltet af reelle tal:
for matrixanalogen , hvor .
For at quaternion skal svare til matrixen ,
hvor , , , _
du kan indtaste grundlæggende elementer
, , , .
Parametrene skal opfylde betingelserne: og .
Der er 8 løsninger (8 visninger).
Vektorer og matricer | |||||||||
---|---|---|---|---|---|---|---|---|---|
Vektorer |
| ||||||||
matricer |
| ||||||||
Andet |