Lineær regression er en regressionsmodel , der bruges i statistik for afhængigheden af en (forklaret, afhængig) variabel af en anden eller flere andre variable (faktorer, regressorer, uafhængige variable) med en lineær afhængighedsfunktion.
Den lineære regressionsmodel er den mest anvendte og mest undersøgte inden for økonometri . Nemlig, egenskaberne af parameterestimater opnået ved forskellige metoder under antagelser om de sandsynlige karakteristika af faktorerne og tilfældige fejl i modellen studeres. De begrænsende (asymptotiske) egenskaber ved estimater af ikke-lineære modeller udledes også baseret på tilnærmelsen af sidstnævnte ved lineære modeller. Fra et økonometrisk synspunkt er linearitet i parametre vigtigere end linearitet i modelfaktorer.
Regressionsmodel
,hvor er modelparametrene, er modellens tilfældige fejl; kaldes lineær regression, hvis regressionsfunktionen har formen
,hvor er regressionsparametrene (koefficienter), er regressorerne (modelfaktorer), k er antallet af modelfaktorer [1] .
Lineære regressionskoefficienter viser ændringshastigheden af den afhængige variabel for en given faktor, med andre faktorer faste (i en lineær model er denne hastighed konstant):
Parameteren , som der ikke er nogen faktorer for, kaldes ofte en konstant . Formelt er dette værdien af funktionen ved nulværdi af alle faktorer. Til analytiske formål er det praktisk at overveje, at en konstant er en parameter med en "faktor" lig med 1 (eller en anden vilkårlig konstant, så denne "faktor" kaldes også en konstant). I dette tilfælde, hvis vi omnummererer faktorerne og parametrene for den oprindelige model med dette i tankerne (efterlader betegnelsen af det samlede antal faktorer - k), så kan den lineære regressionsfunktion skrives i følgende form, hvilket formelt ikke gør det indeholde en konstant:
,hvor er vektoren af regressorer, er kolonnevektoren for parametre (koefficienter).
Den lineære model kan enten være med en konstant eller uden en konstant. Så i denne repræsentation er den første faktor enten lig med en eller er en almindelig faktor.
I et bestemt tilfælde, når faktoren er unik (uden at tage konstanten i betragtning), taler man om en parret eller simpel lineær regression:
Når antallet af faktorer (uden at tage konstanten i betragtning) er mere end én, så taler de om multipel regression:
Lad et udsnit af n observationer af variablerne y og x gives . Lad t være tallet på observationen i prøven. Derefter — værdien af variablen y i den t -te observation, — værdien af den j -te faktor i den t -te observation. Følgelig er vektoren af regressorer i den t -te observation. Derefter sker en lineær regressionsafhængighed i hver observation:
Lad os introducere notationen:
er vektoren for observationer af den afhængige variabel y er en matrix af faktorer. er vektoren af tilfældige fejl.Så kan den lineære regressionsmodel repræsenteres i matrixform:
Ved klassisk lineær regression antages det, at sammen med standardbetingelsen er følgende antagelser også opfyldt ( Gauss-Markov-betingelser ):
Disse antagelser i matrixrepræsentationen af modellen er formuleret som én antagelse om strukturen af kovariansmatrixen for den tilfældige fejlvektor:
Ud over ovenstående antagelser antages faktorerne i den klassiske model at være deterministiske ( ikke -stokastiske ). Derudover kræves det formelt, at matricen har fuld rang ( ), det vil sige, at det antages, at der ikke er fuldstændig kolinearitet af faktorer.
Når de klassiske antagelser er opfyldt, giver den ordinære mindste kvadraters metode mulighed for at opnå estimater af tilstrækkelig høj kvalitet af modelparametrene, nemlig: de er upartiske , konsistente og mest effektive estimater .
Mindste kvadrater og regressionsanalyse | |||||||||
---|---|---|---|---|---|---|---|---|---|
Beregningsstatistik _ |
| ||||||||
Korrelation og afhængighed |
| ||||||||
Regressions analyse |
| ||||||||
Regression som statistisk model |
| ||||||||
Variansnedbrydning |
| ||||||||
Modelstudie |
| ||||||||
Forudsætninger |
| ||||||||
Eksperiment planlægning |
| ||||||||
Numerisk tilnærmelse | |||||||||
Ansøgninger |
|
Machine learning og data mining | |
---|---|
Opgaver | |
At lære med en lærer | |
klyngeanalyse | |
Dimensionalitetsreduktion | |
Strukturel prognose | |
Anomali detektion | |
Grafer sandsynlighedsmodeller | |
Neurale netværk | |
Forstærkende læring |
|
Teori | |
Tidsskrifter og konferencer |
|