Fisher information er den matematiske forventning af kvadratet af den relative ændringshastighed i den betingede sandsynlighedstæthed [1] . Denne funktion er opkaldt efter Ronald Fisher , som beskrev den .
Lad være fordelingstætheden for den givne statistiske model . Så hvis funktionen er defineret
,hvor er log -likelihood-funktionen , og er den matematiske forventning for givet , så kaldes det Fisher-informationen for en given statistisk model med uafhængige tests .
Hvis den er to gange differentierbar med hensyn til , og under visse regelmæssighedsbetingelser, kan Fisher-informationen omskrives som [2]
For regulære mønstre: (Dette er definitionen af regularitet).
I dette tilfælde, da forventningen til prøvebidragsfunktionen er nul, er den skrevne værdi lig med dens varians.
Fisher mængden af information indeholdt i en observation kaldes:
.For almindelige modeller er alle lige.
Hvis prøven består af ét element, skrives Fisher-informationen som følger:
.Fra betingelsen om regelmæssighed, såvel som af det faktum, at i tilfælde af uafhængighed af tilfældige variabler er variansen af summen lig med summen af varianserne, følger det, at for uafhængige tests .
Generelt, hvis er stikprøvestatistikken X , så
Desuden opnås lighed, hvis og kun hvis T er en tilstrækkelig statistik .
En tilstrækkelig statistik indeholder lige så meget Fisher-information som hele stikprøven X . Dette kan vises ved hjælp af Neumann faktoriseringstesten for tilstrækkelig statistik. Hvis statistikken er tilstrækkelig for parameteren , så er der funktioner g og h , således at:
Ligestillingen af oplysninger følger af:
som følger af definitionen af Fisher-informationen og uafhængighed af .
Andre mål brugt i informationsteori :