Uvildig estimator
Et uvildigt estimat i matematisk statistik er et punktestimat, hvis matematiske forventning er lig med den estimerede parameter.
Definition
Lad være en prøve fra fordelingen afhængigt af parameteren . Så kaldes estimatet unbiased if



![{\mathbb {E}}\venstre[{\hat {\theta }}\right]=\theta ,\quad \forall \theta \in \Theta](https://wikimedia.org/api/rest_v1/media/math/render/svg/8cdc344c9ff9be373c1b7769945026f1887e7652)
,
hvor
Ellers kaldes estimatet bias, og den stokastiske variabel kaldes dens bias .

Eksempler
- Lad uafhængige stokastiske variable have endelig varians . Lad os lave estimater


er
prøvevariansen ,
og

er
den korrigerede prøvevarians .
Så er de forspændte og upartiske estimater af parameteren . Forspændingen kan bevises på følgende måde.




Lad og vær henholdsvis middelværdien og dens skøn, så:


Hvis vi tilføjer og trækker fra og derefter grupperer termerne, får vi:

Lad os firkante det og få:
Bemærk , at vi får:

I betragtning af det
(egenskab for matematisk forventning);
- spredning ;
, fordi , under hensyntagen til det og er uafhængige og , dvs. ,![{\displaystyle \operatørnavn {E} {\big [}({\overline {X}}-\mu )^{2}{\big ]}=\operatørnavn {E} {\big [}{\big (} {\frac {1}{n}}\sum _{i=1}^{n}(X_{i}-\mu ){\big )}^{2}{\big ]}=\operatørnavn {E } {\big [}{\frac {1}{n^{2}}}\sum _{i=1}^{n}(X_{i}-\mu )^{2}+{\frac { 2}{n^{2))}\sum _{i=1,j=1,i<j}^{n}(X_{i}-\mu )(X_{j}-\mu ){\ stor ]}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/2f36ad26f1dec804bc60178e0d70d510c18de0ab)


![{\displaystyle \operatorname {E} {\big [}(X_{i}-\mu ){\big ]}=0}](https://wikimedia.org/api/rest_v1/media/math/render/svg/80d190ba6fc6a755677fbdb0e1252523ff4382f3)
![{\displaystyle \operatorname {E} {\big [}\sum _{i=1,j=1,i<j}^{n}(X_{i}-\mu )(X_{j}-\mu ){\big ]}=\sum _{i=1,j=1,i<j}^{n}\operatørnavn {E} {\big [}(X_{i}-\mu ){\big ] }\operatørnavn {E} {\big [}(X_{j}-\mu ){\big ]}=0}](https://wikimedia.org/api/rest_v1/media/math/render/svg/47f3ff1318c86888a29f6f8483e803a251a35186)
vi får:
Litteratur og nogle referencer
- MG Kendall. "Den avancerede teori om statistik (bd. I). Fordelingsteori (2. udgave)". Charles Griffin & Company Limited, 1945.
- MG Kendall og A. Stuart. "Den avancerede teori om statistik (vol. II). Inferens og forhold (2. udgave)". Charles Griffin & Company Limited, 1967.
- A. Papoulis. Sandsynlighed, stokastiske variable og stokastiske processer (3. udgave). McGrow-Hill Inc., 1991.
- G. Saporta. "Sandsynligheder, analyser af données og statistiques". Editions Technip, Paris, 1990.
- JF Kenney og ES Keeping. Statistiks matematik. Del I & II. D. Van Nostrand Company, Inc., 1961, 1959.
- IV Blagouchine og E. Moreau: "Ubiased Adaptive Estimations of the Fourth-Order Cumulant for Real Random Zero-Mean Signal", IEEE Transactions on Signal Processing , vol. 57, nr. 9, s. 3330-3346, september 2009.
- Et oplysende modeksempel