Heteroskedasticitet

Heteroscedasticitet er et  begreb, der bruges i anvendt statistik (oftest i økonometri ), hvilket betyder heterogeniteten af ​​observationer, udtrykt i en ikke-identisk (ikke-konstant) varians af den tilfældige fejl i en regressionsmodel (økonometrisk). Heteroscedasticitet er det modsatte af homoskedasticitet , hvilket betyder homogeniteten af ​​observationer, det vil sige konstanten af ​​variansen af ​​modellens tilfældige fejl.

Tilstedeværelsen af ​​heteroskedasticitet af tilfældige fejl fører til ineffektiviteten af ​​estimater opnået ved brug af mindste kvadraters metode . Derudover viser det klassiske estimat af kovariansmatrixen af ​​mindste kvadraters parameterestimater sig at være forspændt og uholdbart i dette tilfælde. Derfor kan statistiske konklusioner om kvaliteten af ​​de opnåede estimater være utilstrækkelige. I denne henseende er test af modeller for heteroskedasticitet en af ​​de nødvendige procedurer til opbygning af regressionsmodeller.

Test for heteroskedasticitet

Som en første tilnærmelse kan tilstedeværelsen af ​​heteroskedasticitet ses på graferne for regressionsresterne (eller deres kvadrater) for nogle variable, for den estimerede afhængige variabel eller for observationstallet. I disse grafer kan spredningen af ​​punkter ændre sig afhængigt af værdien af ​​disse variable.

For en mere stringent verifikation bruges for eksempel de statistiske tests af White , Goldfeld-Kuandt , Broish- Pagan , Park , Glaser , Spearman .

Modelevaluering under heteroskedasticitet

Da mindste kvadraters estimater af modelparametrene forbliver uvildige i overensstemmelse selv med heteroskedasticitet, er det med et tilstrækkeligt antal observationer muligt at bruge de sædvanlige mindste kvadraters. For mere nøjagtige og korrekte statistiske konklusioner er det dog nødvendigt at bruge standardfejl i Whites form .

Måder at reducere heteroskedasticitet

  1. Brug af vægtede mindste kvadrater (WLS) . I denne metode vægtes hver observation omvendt med den estimerede standardafvigelse af den tilfældige fejl i den observation. Denne tilgang gør det muligt at gøre modellens tilfældige fejl homoskedastiske. Især hvis standardafvigelsen for fejl antages at være proportional med en eller anden variabel , divideres dataene med denne variabel, inklusive en konstant.
  2. Udskiftning af de originale data med deres afledte data, såsom en logaritme, relativ ændring eller anden ikke-lineær funktion. Denne tilgang bruges ofte, når fejlvariansen stiger med værdien af ​​den uafhængige variabel og fører til stabilisering af variansen over et bredere interval af inputdata.
  3. Bestemmelse af "kompetenceområder" for modeller, inden for hvilke fejlvariansen er relativt stabil, og brug af en kombination af modeller. Således fungerer hver model kun inden for dets kompetenceområde, og fejlvariansen overstiger ikke den angivne grænseværdi. Denne tilgang er almindelig inden for mønstergenkendelse, hvor komplekse ikke-lineære modeller og heuristik ofte bruges.

Eksempel

Lad os for eksempel overveje afhængigheden af ​​profit af størrelsen af ​​aktiver:

.

Imidlertid afhænger højst sandsynligt ikke kun profit af aktiver, men også "udsvinget" i profit er ikke det samme for en eller anden mængde af aktiver. Det vil sige, at standardafvigelsen af ​​modellens tilfældige fejl sandsynligvis skal antages at være proportional med værdien af ​​aktiverne:

.

I dette tilfælde er det mere rimeligt ikke at overveje den originale model, men den følgende:

,

forudsat at tilfældige fejl er homoskedastiske i denne model. Du kan bruge denne transformerede model direkte, eller du kan bruge de opnåede parameterestimater som parameterestimater af den oprindelige model (vægtede mindste kvadrater). Teoretisk set burde estimaterne opnået på denne måde være bedre.

Se også

Litteratur