Generaliserede mindste kvadraters ( GLS , GLS ) er en metode til at estimere parametrene for regressionsmodeller , som er en generalisering af den klassiske mindste kvadraters metode . Den generaliserede mindste kvadraters metode reducerer til at minimere den "generaliserede sum af kvadrater" af regressionsresidualerne - , hvor er vektoren af residualer, er en symmetrisk positiv bestemt vægtmatrix. Den sædvanlige mindste kvadraters metode er et specialtilfælde af den generaliserede, når vægtmatricen er proportional med identiteten.
Det skal bemærkes, at et særligt tilfælde normalt kaldes den generaliserede mindste kvadraters metode, når den matrix, der er den inverse af kovariansmatrixen af modellens tilfældige fejl, bruges som vægtmatrix.
Det er kendt, at en symmetrisk positiv bestemt matrix kan dekomponeres som , hvor P er en ikke-degenereret kvadratisk matrix. Så kan den generaliserede sum af kvadrater repræsenteres som summen af kvadrater af de transformerede (ved hjælp af P) residualer . For lineær regression betyder det, at værdien er minimeret:
hvor , det vil sige i virkeligheden, essensen af de generaliserede mindste kvadrater er reduceret til en lineær transformation af dataene og anvendelsen af de sædvanlige mindste kvadrater på disse data . Hvis den inverse kovariansmatrix af tilfældige fejl (dvs. ) bruges som vægtmatricen , bevirker transformationen P, at den transformerede model opfylder de klassiske (Gauss-Markov) antagelser, derfor vil parameterestimater ved brug af de ordinære mindste kvadrater være de mest effektiv i klassen af lineære upartiske estimatorer. Og da parametrene for de originale og transformerede modeller er de samme, indebærer dette udsagnet om, at GLSM-estimaterne er de mest effektive i klassen af lineære upartiske estimater (Aitkens teorem). Den generaliserede mindste kvadraters formel har formen:
Kovariansmatricen for disse estimater er:
Problemet med at bruge generaliserede mindste kvadrater er, at kovariansmatrixen af tilfældige fejl er ukendt. Derfor bruges der i praksis en tilgængelig variant af GLS, når der bruges et estimat af den i stedet for V. Men i dette tilfælde opstår der også et problem: antallet af uafhængige elementer i kovariansmatrixen er , hvor er antallet af observationer (for eksempel med 100 observationer skal 5050 parametre estimeres!). Derfor vil denne mulighed ikke tillade opnåelse af kvalitative estimater af parametrene. I praksis gøres der yderligere antagelser om strukturen af kovariansmatricen, det vil sige, at det antages, at elementerne i kovariansmatricen afhænger af et lille antal ukendte parametre . Deres antal bør være meget mindre end antallet af observationer. Først anvendes den sædvanlige mindste kvadraters metode, residualerne opnås, derefter estimeres de angivne parametre baseret på dem . Ved hjælp af de opnåede estimater estimeres fejlkovariansmatricen, og de generaliserede mindste kvadrater med denne matrix anvendes. Dette er essensen af en tilgængelig GMS. Det er bevist, at under visse ret generelle forhold, hvis estimaterne er konsistente, vil estimaterne for den tilgængelige CLSM også være konsistente.
Hvis fejlkovariansmatrixen er diagonal (der er fejlheteroscedasticitet, men ingen autokorrelation), så er den generaliserede sum af kvadrater faktisk en vægtet sum af kvadrater, hvor vægtene er omvendt proportional med fejlvarianserne. I dette tilfælde taler man om en vægtet mindste kvadrater (WLS, Weighted LS). Transformationen P består i dette tilfælde i at dividere dataene med standardafvigelsen af tilfældige fejl. Den sædvanlige mindste kvadraters metode anvendes på data vægtet på denne måde.
Som i det generelle tilfælde er fejlafvigelserne ukendte og skal estimeres ud fra de samme data. Derfor er der lavet nogle simplificerende antagelser om strukturen af heteroskedasticitet.
I dette tilfælde er de faktiske diagonale elementer mængder, der er proportionale med denne variabel (lad os betegne det Z ). Desuden er proportionalitetskoefficienten ikke nødvendig til evaluering. Derfor er proceduren i dette tilfælde faktisk følgende: divider alle variable med Z (inklusive konstanten, det vil sige, at en ny variabel 1/Z vises ). Desuden kan Z være en af variablerne i selve den oprindelige model (i dette tilfælde vil den transformerede model have en konstant). Den normale mindste kvadraters metode anvendes på de transformerede data for at opnå parameterestimater:
Lad der være n observationer opdelt i m homogene grupper, inden for hver af dem antages den samme varians. I dette tilfælde evalueres modellen først ved hjælp af konventionelle mindste kvadrater, og der findes residualer. For residualerne inden for hver gruppe estimeres gruppefejlvarianserne som forholdet mellem summen af kvadraterne af residualerne og antallet af observationer i gruppen. Yderligere er dataene for hver j-te gruppe af observationer divideret med, og den sædvanlige LSM anvendes på dataene transformeret på denne måde for at estimere parametrene.
Hvis tilfældige fejl overholder AR(1)-modellen , vil transformationen P uden at tage hensyn til den første observation være som følger: de foregående værdier ganget med: trækkes fra den aktuelle værdi af variablerne :
Denne transformation kaldes autoregressiv transformation . For den første observation anvendes Price-Winsten-korrektionen - dataene for den første observation ganges med . Den tilfældige fejl i den transformerede model er , som antages at være hvid støj. Derfor vil brugen af konventionelle mindste kvadraters give os mulighed for at opnå kvalitative estimater af en sådan model.
Da autoregressionskoefficienten er ukendt, anvendes forskellige procedurer for den tilgængelige GLS.
Trin 1. Vurdér den oprindelige model ved hjælp af mindste kvadraters metode og opnå resten af modellen.
Trin 2. Estimering af autokorrelationskoefficienten for modellens residualer (formelt kan den også opnås som et OLS-estimat af autoregressionsparameteren i hjælperegression af residualer )
Trin 3. Autoregressiv transformation af dataene (ved anvendelse af autokorrelationskoefficienten estimeret i andet trin) og estimering af parametrene for den transformerede model ved hjælp af konventionelle mindste kvadrater.
Parameterestimaterne for den transformerede model og er parameterestimater for den oprindelige model, bortset fra konstanten, som gendannes ved at dividere konstanten for den transformerede model med 1-r . Proceduren kan gentages fra andet trin, indtil den nødvendige nøjagtighed er opnået.
I denne procedure foretages en direkte søgning efter værdien af autokorrelationskoefficienten, der minimerer summen af kvadrater af residualerne af den transformerede model. Værdierne af r er nemlig indstillet fra det mulige interval (-1; 1) med et vist trin. For hver af dem udføres en autoregressiv transformation, modellen evalueres ved de sædvanlige mindste kvadrater, og summen af kvadraterne af residualerne findes. Autokorrelationskoefficienten er valgt, for hvilken summen af kvadrater er minimal. Yderligere, i nærheden af det fundne punkt, konstrueres et gitter med et finere trin, og proceduren gentages igen.
Den transformerede model ser sådan ud:
Udvidelse af parenteserne og flytning af den forsinkelsesafhængige variabel til højre, får vi
Lad os introducere notationen . Så har vi følgende model
Denne model skal estimeres ved hjælp af den sædvanlige mindste kvadraters metode. Derefter gendannes koefficienterne for den oprindelige model som .
I dette tilfælde kan det opnåede estimat af autokorrelationskoefficienten bruges til autoregressiv transformation og anvendelse af de mindste kvadrater for denne transformerede model for at opnå mere nøjagtige parameterestimater.
Mindste kvadrater og regressionsanalyse | |||||||||
---|---|---|---|---|---|---|---|---|---|
Beregningsstatistik _ |
| ||||||||
Korrelation og afhængighed |
| ||||||||
Regressions analyse |
| ||||||||
Regression som statistisk model |
| ||||||||
Variansnedbrydning |
| ||||||||
Modelstudie |
| ||||||||
Forudsætninger |
| ||||||||
Eksperiment planlægning |
| ||||||||
Numerisk tilnærmelse | |||||||||
Ansøgninger |
|