Parametrisk statistik er en gren af statistik, der antager, at stikprøven tilhører en population, der kan modelleres ret præcist og tilstrækkeligt ved en sandsynlighedsfordeling med et bestemt sæt parametre [1] . Omvendt adskiller en ikke-parametrisk model sig ved, at sættet af parametre ikke er specificeret og kan stige eller falde, hvis der indsamles ny brugbar information [2] .
De mest kendte statistiske metoder er parametriske. [3]
Alle familier med normalfordelinger har den samme form og er parametriseret ved middelværdi og varians . Det betyder, at hvis den matematiske forventning og varians er kendt, og fordelingen er normal, så er sandsynligheden for, at en observation falder ind i et givet interval, kendt.
Lad der være en stikprøve på 99 point med en forventning på 100 og en varians på 1. Hvis vi antager, at alle 99 point er tilfældige observationer fra en normalfordeling, så kan vi antage, at med en sandsynlighed på 0,01 vil det hundrede punkt være højere end 102,33 (det vil sige middelværdien plus 2,33 standardafvigelser), hvis hundrededelen følger samme fordeling som de andre. Parametriske statistiske metoder bruges til at beregne tallet 2,33 ud fra 99 uafhængige observationer fra en enkelt fordeling.
Det ikke -parametriske skøn vil være maksimum af de første 99 summer. Vi behøver ikke at kende fordelingen af score, for før eksperimentet var det kendt, at enhver score ud af 100 har samme sandsynlighed for at blive den højeste score. Derfor er sandsynligheden for, at hundrededelen bliver højere end de foregående 99, 0,01.
Parametrisk statistik blev nævnt af Fisher i hans arbejde " Statistical Methods for Research Workers " i 1925, som lagde grundlaget for moderne statistik.