Determinanten ( determinanten ) i lineær algebra er en skalarværdi, der karakteriserer den orienterede "udvidelse" eller "komprimering" af et multidimensionelt euklidisk rum efter matrixtransformation; giver kun mening for kvadratiske matricer . Standardnotationen for determinanten af en matrix er , , [1] .
Determinanten af en kvadratisk dimensionsmatrix defineret over en kommutativ ring er et element i ringen . Denne værdi bestemmer mange egenskaber af matrixen , især matrixen er inverterbar , hvis og kun hvis dens determinant er et inverterbart element i ringen . I tilfældet hvornår er et felt , er determinanten af matricen lig med nul, hvis og kun hvis rangeringen af matrixen er mindre end , det vil sige, når systemerne af rækker og kolonner i matrixen er lineært afhængige .
Teorien om determinanter opstod i forbindelse med problemet med løsning af lineære ligningssystemer .
Forfatterne af den gamle kinesiske lærebog " Matematik i ni bøger " [2] kom tæt på begrebet determinanten .
I Europa findes determinanterne for 2×2-matricer i Cardano i det 16. århundrede. For højere dimensioner blev definitionen af determinanten givet af Leibniz i 1693. Den første udgivelse er af Kramer . Teorien om determinanter blev skabt af Vandermonde , Laplace , Cauchy og Jacobi . Udtrykket "determinant" i sin moderne betydning blev introduceret af O. Cauchy (1815), selvom K. Gauss tidligere (1801) kaldte diskriminanten af en kvadratisk form for "determinant".
Den japanske matematiker Seki Takakazu introducerede selvstændigt determinanter i 1683 [3] .
For en kvadratisk matrix af størrelse beregnes dens determinant med formlen:
,hvor summering udføres over alle permutationer af tal , og angiver antallet af inversioner i permutationen .
Determinanten omfatter således termer, som også kaldes "determinantens termer".
Tilsvarende formel:
,hvor koefficienten - Levi-Civita symbolet - er lig med:
0, hvis ikke alle indekser er forskellige, 1, hvis alle indekser er forskellige, og substitutionen er lige, −1 hvis alle indekser er forskellige og substitutionen er ulige.Begrebet en determinant kan introduceres på grundlag af dens egenskaber. Determinanten for en reel matrix er nemlig en funktion , der har følgende tre egenskaber [4] :
For en førsteordens matrix er værdien af determinanten lig med det eneste element i denne matrix:
For en matrix beregnes determinanten som:
Denne matrix A kan ses som en lineær matrix, der transformerer enhedskvadratet til et parallelogram med hjørner (0, 0) , ( a , b ) , ( a + c , b + d ) og ( c , d ) .
Den absolutte værdi af determinanten er lig med arealet af dette parallelogram og afspejler således den faktor, som områder skaleres med i A -transformationen .
Værdien af fortegnsdeterminanten ( det orienterede område af parallelogrammet) angiver ud over skaleringsfaktoren også, om transformationen A udfører en refleksion.
Matrixdeterminanten kan beregnes med formlen:
For en mere bekvem beregning af tredjeordens determinant kan du bruge Sarrus- reglen eller trekantsreglen.
Determinanten af en matrix sammensat af vektorer er lig med deres blandede produkt i det højre kartesiske koordinatsystem og er ligesom det todimensionale tilfælde et orienteret volumen af et parallelepipedum spændt ud af .
Generelt for matricer af højere orden (over orden 2) kan determinanten beregnes ved at anvende følgende rekursive formel:
, hvor er en ekstra minor til elementet . Denne formel kaldes rækkeudvidelse .Det er let at bevise, at matrixdeterminanten ikke ændres under transponering (med andre ord, en lignende udvidelse i den første kolonne er også gyldig, det vil sige, den giver det samme resultat som udvidelsen i den første række):
BevisLad .
Lad os bevise det ved induktion. Det kan ses, at dette er sandt for matrixen:
Antag, at for matricen af orden - sandt.
■En lignende udvidelse for enhver række (kolonne) er også gyldig:
BevisLad .
Lad os bevise det ved induktion. Det kan ses, at dette er sandt for matrixen:
Antag, at for matricen af orden - sandt.
Lad os samle koefficienterne for :
Lad os samle koefficienterne for :
■Generaliseringen af ovenstående formler er udvidelsen af determinanten ifølge Laplace (Laplaces sætning ), som gør det muligt at beregne determinanten for alle rækker (søjler):
Følgende egenskaber afspejler hovedresultaterne af teorien om determinanter, hvis anvendelse går langt ud over grænserne for denne teori:
Når man studerer teorien om determinanter, er det nyttigt at huske på, at denne teori er baseret på teknikken til at manipulere rækker og søjler af matricer udviklet af K.F. Gaussisk (gaussiske transformationer). Essensen af disse transformationer er reduceret til lineære operationer på rækker (kolonner) og deres permutation. Disse transformationer afspejles i determinanten på en ret simpel måde, og når man studerer dem, er det praktisk at "partitionere" den oprindelige matrix i rækker (eller kolonner) og betragte determinanten som en funktion defineret over sæt af rækker (kolonner). Yderligere angiver bogstaverne rækkerne (kolonnerne) i matrixen .
1. Determinanten er en multilineær funktion af rækker (kolonner) i en matrix. Multilinearitet betyder, at funktionen er lineær i hvert argument med faste værdier af de resterende argumenter: 2. Determinanten er en skæv-symmetrisk funktion af rækkerne (kolonner) i matrixen, det vil sige, når to rækker (kolonner) af matrixen byttes om, multipliceres dens determinant med −1: 3. Hvis to rækker (kolonner) i en matrix er ens, så er dens determinant lig med nul:Kommentar. Egenskaber 1-3 er determinantens hovedegenskaber som funktion af rækker (kolonner), de kan nemt bevises direkte fra definitionen. Egenskab 2 (skæv-symmetri) er en logisk konsekvens af egenskab 1 og 3. Egenskab 3 er en logisk konsekvens af egenskab 2, hvis element 2 (dvs. 1 + 1) i ringen ikke falder sammen med nul og ikke er en nuldeler. Egenskaber 1 og 3 indebærer også følgende egenskaber:
4. Den fælles faktor for elementerne i enhver række (søjle) af determinanten kan tages ud af determinantens fortegn (en konsekvens af egenskab 1). 5. Hvis mindst én række (søjle) i matrixen er nul, så er determinanten lig med nul (en konsekvens af egenskab 4). 6. Hvis to (eller flere) rækker (kolonner) i en matrix er lineært afhængige, så er dens determinant lig med nul (en konsekvens af egenskaberne 1 og 3). 7. Når du tilføjer en lineær kombination af andre rækker (kolonner) til en række (kolonne), ændres determinanten ikke (en konsekvens af egenskaberne 1 og 6).En kendsgerning af fundamental betydning er universaliteten af determinanten som en multilineær skæv-symmetrisk funktion af fuld rang, hvis argumenter er elementer i et endeligt-dimensionelt vektorrum (eller -modul med en endelig basis). Det følgende
Sætning. Lade være et frit -modul af rang ( -dimensionelle vektorrum over , hvis er et felt). Lad være en -vurderet funktion på med egenskaber 1-3. Så, når du vælger grundlaget for rummet , er der en konstant sådan, at ligheden for alle værdier er sand: ,hvor er en kolonne af vektorens koordinater i forhold til basis .
BevisLad os udvide vektorerne i henhold til grundlaget : . Så vil følgende kolonner svare til dem: .
På grund af funktionens multilinearitet
I kraft af egenskab 3, hvis der er sammenfaldende indeks blandt dem, så
.Ellers får vi på grund af skæv symmetri (egenskab 2):
.Således hvor . ■
En af de vigtigste konsekvenser af determinantens universalitet er følgende teorem om determinantens multiplikativitet.
Sætning. Lad være en matrix af størrelse . Så for enhver matrix af størrelse . BevisOvervej en skæv-symmetrisk multilineær form på kolonnerummet . Ifølge den beviste sætning er denne form lig med , hvor . ■
Lad være tre vektorer i rummet . De genererer et parallelepipedum, hvis toppunkter ligger i punkter med radiusvektorer . Denne boks kan være degenereret, hvis vektorerne er koplanære (de ligger i samme plan, er lineært afhængige).
Funktionen orienteret volumen er defineret som volumenet af boksen, der genereres af disse vektorer, og taget med et "+"-tegn, hvis det tredobbelte af vektorer er positivt orienteret, og med et "-"-tegn, hvis det er negativt orienteret. Funktionen er multilineær og skævsymmetrisk. Ejendom 3 er naturligvis tilfreds. For at bevise multilineariteten af denne funktion er det nok at bevise dens linearitet med hensyn til vektoren . Hvis vektorerne er lineært afhængige, vil værdien være nul uanset vektoren og derfor lineært afhængig af den. Hvis vektorerne er lineært uafhængige, angives med vektoren af enheden vinkelret på vektorplanet , sådan at . Så er det orienterede volumen af parallelepipedet lig med produktet af arealet af basen, bygget på vektorer og uafhængigt af vektoren , og den algebraiske værdi af projektionen af vektoren på normalen til basen, som er lig med til skalarproduktet og er en størrelse lineært afhængig af vektoren . Lineariteten med hensyn til er bevist, og lineariteten med hensyn til resten af argumenterne bevises tilsvarende.
Ved at anvende sætningen om determinantens universalitet som en skæv-symmetrisk multilineær funktion, opnår vi, at når vi vælger en ortonormal basis for rummet
,hvor er koordinaterne for vektorerne i det valgte grundlag.
Således har determinanten af koefficientmatrixen af vektorer med hensyn til den ortonormale basis betydningen af det orienterede volumen af parallelepipedet bygget på disse vektorer.
Alt ovenstående overføres uden væsentlige ændringer til et rum af vilkårlig dimension.
Række/kolonne-dekomponeringsformlerne gør det muligt at reducere beregningen af determinanter til en rekursiv procedure, der bruger beregningen af determinanter af lavere orden. For at udlede disse formler grupperer og summerer vi i formlen for matricens determinant , under hensyntagen til ligheden , alle led, der ikke er nul, indeholder elementet . Dette beløb er:
,hvor er matrixen opnået ved at slette rækken med tallet og kolonnen med tallet .
Da et vilkårligt element kan flyttes til det nederste højre hjørne af matricen ved at permutere den tilsvarende kolonne til højre og permutere den tilsvarende række ned til det nederste højre hjørne af matricen, og den ekstra matrix til det vil bevare sin form, så summen af alle led i udvidelsen af determinanten indeholdende , vil være lig med
.Størrelsen kaldes det algebraiske komplement af matrixelementet .
I betragtning af, at hvert led i udvidelsen af en determinant med en koefficient, der ikke er nul, indeholder nøjagtigt ét element fra den i-te række, kan vi udvide determinanten i form af vilkårene i denne række:
— Formlen for udvidelsen af determinanten i den i-te rækkePå samme måde, givet at hvert led i udvidelsen af en determinant med en koefficient, der ikke er nul, indeholder nøjagtigt ét element fra den jth kolonne, kan vi udvide determinanten i form af vilkårene i denne kolonne:
— Formlen for udvidelsen af determinanten i den j-te kolonneHvis elementerne i den k-te række i matricen kopieres til den i-te række, vil dens determinant blive lig med nul, og ifølge formlen for at udvide determinanten i den i-te række får vi:
— Formlen for den "falske" udvidelse af determinanten i den i-te linje ( ).Tilsvarende for kolonner:
— Formlen for den "falske" udvidelse af determinanten i den j-te kolonne ( )Det er nyttigt at skrive de opnåede formler i matrixform. Lad os introducere en matrix af algebraiske tilføjelser til elementerne i matricen : . Derefter, ifølge de opnåede formler,
.Konsekvens 1 (Kriterium for inverterbarhed af matricer). En kvadratisk matrix er inverterbar, hvis og kun hvis er et inverterbart element i ringen , og .
Konsekvens 2. Hvis produktet af matricer er nul , og matricen er kvadratisk, så .
Cramers formel gør det muligt at udtrykke løsningen af et system af lineære algebraiske ligninger som et forhold mellem determinanter, hvis nævner er determinanten for systemet, og tælleren er determinanten for systemmatricen, hvor kolonnen af koefficienter for den tilsvarende variabel erstattes af en kolonne af ligningernes højre side.
Cramers formel . Lad et system af lineære algebraiske ligninger være givet i matrixform:, hvorer koefficientmatrixen for størrelsessystemet,er kolonnen af højre side af systemets ligninger, og vektorener løsningen til dette system . Sågælder ligheden for enhver :
BevisAngiv med summen og indtast
matrix og vektor .Derefter og ifølge konsekvens 2 fra det foregående afsnit .
Men da en af komponenterne i vektoren er lig med -1, betyder det, at . Påstanden er bevist pga
■Af denne formel følger det især, at hvis - ikke er degenereret (ikke er nul eller en nuldivisor), kan systemet højst have én løsning, og hvis determinanten også er inverterbar, så har systemet en unik løsning.
En af de vigtigste sætninger i teorien om determinanter er følgende sætning om løsninger af et homogent system af lineære ligninger.
Sætning. Lad være et felt. Et homogent system af lineære ligninger har en ikke-triviel (ikke-nul) løsning, hvis og kun hvis determinanten af koefficientmatrixen er lig med nul: .
BevisBetingelsens nødvendighed er indeholdt i konsekvens 2 i det foregående afsnit. Lad os bevise nødvendigheden.
Hvis matrixen er nul, er enhver vektor en løsning. Lad være den maksimale ikke-degenererede mindre i matrixen af dimensioner . Uden tab af generalitet antager vi, at denne minor er dannet af de første r rækker og kolonner (ellers omnummererer vi variablerne og omarrangerer ligningerne i en anden rækkefølge). Lad os introducere vektorerne og . Derefter skrives de første ligninger af systemet i matrixform som følger:
Da matricen er inverterbar, svarer enhver værdi til en enkelt vektor , der opfylder disse ligninger. Lad os vise, at i dette tilfælde vil de resterende ligninger blive opfyldt automatisk. Lad .
Lad os introducere to matricer:
og .I matricen er alle kolonner dele af kolonnerne fra matrixen , og den sidste kolonne er en lineær kombination af matrixkolonnerne med koefficienter , derfor er der på grund af lineariteten af determinanten over kolonnerne en lineær kombination af determinanter for de mindreårige i størrelsesmatrixen . Da er den største ikke-degenererede mindreårige i størrelse, har alle større mindreårige en nul-determinant, så .
Det følger af forholdet , hvor er kolonnen . Derfor .
Så . Og siden , så er systemets j-te ligning også opfyldt. ■
Denne sætning bruges især til at finde egenværdier og egenvektorer for matricer.
Nært forbundet med begrebet determinant er begrebet lineær afhængighed og fuldstændighed af vektorsystemer i et vektorrum.
Lad være et felt og være et vektorrum over med en endelig basis . Lad et andet sæt vektorer blive givet . Deres koordinater i forhold til det givne grundlag er ekspansionskoefficienterne . Lad os lave en (firkantet) matrix . Sætningen er sand:
Sætning (Kriterium for fuldstændighed og lineær uafhængighed af et system af vektorer).
(1) Systemet af vektorer er lineært afhængigt, hvis og kun hvis . (2) Systemet af vektorer er komplet, hvis og kun hvis matrixen ikke er degenereret ( ). Bevis(1) Beviset er baseret på, at vektoren har en koordinatsøjle lig med , hvor .
Hvis , så . Så og hvis er forskellig fra nul, så .
Omvendt, hvis , er der en ikke-nul kolonne , sådan at . Det betyder, at .
(2) Hvis matrixen ikke er degenereret, er den inverterbar. Lade være en vilkårlig vektor, være en kolonne af dens koordinater ,. Så . En vilkårlig vektor kan således dekomponeres i et system af vektorer , hvilket betyder dens fuldstændighed.
Lad omvendt matrixen være degenereret. Så eksisterer der en række koefficienter, der ikke er nul, sådan at . Det betyder, at enhver vektor, der kan nedbrydes i form af et system af vektorer , opfylder begrænsningen . Hvis en eller anden koefficient er ikke-nul, kan basisvektoren ikke udvides i dette system af vektorer, hvilket betyder, at den ikke er komplet. ■
Følge. I et vektorrum, der har en endelig basis af vektorer:
(1) ethvert system, der består af mindre end vektorer, er ikke komplet; (2) ethvert system, der består af mere end vektorer, er lineært afhængigt; (3) hver basis i rummet indeholder nøjagtigt vektorer.Således er dimensionen af et vektorrum med en endelig basis veldefineret.
Ordbøger og encyklopædier |
|
---|---|
I bibliografiske kataloger |
|