Wald test

Wald-testen  er en statistisk test , der bruges til at teste begrænsningerne på parametrene for statistiske modeller estimeret ud fra stikprøvedata . Det er en af ​​de tre grundlæggende begrænsningstests sammen med likelihood ratio -testen og Lagrange-multiplikatortesten . Testen er asymptotisk, det vil sige, at der kræves en tilstrækkelig stor stikprøvestørrelse for konklusionernes pålidelighed.

Essensen og proceduren for testen

Lad der være en økonometrisk model med parametervektor . Det er nødvendigt at teste hypotesen ved hjælp af prøvedata , hvor  er sættet (vektor) af nogle parameterfunktioner. Ideen med testen er, at hvis nulhypotesen er sand, så skal prøvevektoren være tæt på nul i en eller anden forstand. Det antages, at parameterestimaterne i det mindste er konsistente og asymptotisk normale (sådan er det f.eks. estimaterne af maximum likelihood-metoden ), dvs.

Derfor har vi baseret på grænsesætningerne:

hvor  er Jacobian (matrix af første afledte) af vektoren i punktet .

Derefter

Hvis nulhypotesen ( ) er opfyldt, så har vi

Dette er Wald-statistikken . Da kovariansmatricen generelt er ukendt i praksis, bruges der i stedet et estimat af den. Også i stedet for de ukendte sande værdier af koefficienterne bruges deres estimater . Derfor får vi i praksis en omtrentlig værdi , så Wald-testen er asymptotisk , det vil sige, at der er behov for en stor prøve for korrekte konklusioner.

Hvis denne statistik er større end den kritiske værdi på et givet signifikansniveau , afvises begrænsningshypotesen til fordel for en ubegrænset model ("den lange model"). Ellers kan der opstå restriktioner, og det er bedre at bygge en model med restriktioner, kaldet en "kort model".

Det skal bemærkes, at Wald-testen er følsom over for den måde, de ikke-lineære begrænsninger er formuleret. For eksempel kan en simpel begrænsning på ligheden af ​​to koefficienter formuleres som ligheden mellem deres forhold til en. Så kan testens resultater teoretisk set være anderledes, på trods af at hypotesen er den samme.

Særlige tilfælde

Hvis funktionerne er lineære, det vil sige hypotesen af ​​følgende type bliver testet , hvor  er en eller anden begrænsningsmatrix,  er en eller anden vektor, så er matrixen i dette tilfælde en fast matrix . Hvis vi taler om en klassisk lineær regressionsmodel, så er kovariansmatrixen for koefficientestimater . Da fejlvariansen er ukendt, bruges enten dens konsistente estimat , eller det upartiske estimat bruges . Derfor har Wald-statistikken så formen:

I et bestemt tilfælde, når begrænsningsmatricen er enkelt (det vil sige, at koefficienternes lighed til nogle værdier kontrolleres), så forenkles formlen:

Hvis kun én lineær begrænsning betragtes , vil Wald-statistikken være lig med

I dette tilfælde viser Wald-statistikken sig at være lig med kvadratet af -statistikken.

Det kan påvises, at Wald-statistikken for den klassiske lineære model er udtrykt ved summen af ​​kvadratiske rester af de lange og korte modeller som følger

,

hvor indekset refererer til den lange model (lang) og til den korte (korte). Hvis der bruges et upartisk estimat af fejlvariansen, er det nødvendigt at bruge i formlen i stedet for .

Især for at teste signifikansen af ​​regressionen som helhed får vi derfor følgende formel for Wald-statistikken

hvor er bestemmelseskoefficienten .

Forholdet til andre tests

Det er bevist, at Wald-testen (W), likelihood ratio-testen (LR) og Lagrange-multiplikatortesten (LM) er asymptotisk ækvivalente tests ( ). Men for endelige stikprøver stemmer værdierne af statistikken ikke overens. For lineære begrænsninger er uligheden bevist . Wald-testen vil således oftere end andre test afvise nulhypotesen om restriktioner. I tilfælde af ikke-lineære begrænsninger er den første del af uligheden opfyldt, mens den anden del generelt ikke er det.

I stedet for Wald-testen kan du bruge F-testen , hvis statistik beregnes med formlen:

eller endnu enklere , hvis et upartisk estimat af variansen blev brugt i beregningen af ​​Wald-statistikken. Denne statistik har generelt den asymptotiske Fisher-fordeling . I tilfælde af en normal fordeling af data, så på endelige prøver.

Litteratur