Maksimal sandsynlighed metode

Den aktuelle version af siden er endnu ikke blevet gennemgået af erfarne bidragydere og kan afvige væsentligt fra den version , der blev gennemgået den 19. januar 2021; checks kræver 4 redigeringer .

Maximum likelihood - metoden eller maximum likelihood-metoden (MMP, ML, MLE - English  m aximum l ikelihood e stimation ) i matematisk statistik  er en metode til at estimere en ukendt parameter ved at maksimere sandsynlighedsfunktionen [1] . Baseret på den antagelse, at al information om en statistisk stikprøve er indeholdt i sandsynlighedsfunktionen.

Maximal likelihood-metoden blev analyseret, anbefalet og i høj grad populariseret af R. Fischer mellem 1912 og 1922 (selvom den tidligere var blevet brugt af Gauss , Laplace og andre).

Maksimal sandsynlighed estimering er en populær statistisk teknik, der bruges til at skabe en statistisk model ud fra dataene og give et estimat af modelparametrene.

Maximal likelihood-metoden svarer til mange velkendte estimeringsmetoder inden for statistik. For eksempel er du interesseret i en sådan antropometrisk parameter som højden af ​​indbyggerne i Rusland. Antag, at du har data om væksten af ​​et bestemt antal mennesker, ikke hele befolkningen. Derudover antages væksten at være en normalfordelt størrelse med ukendt varians og middelværdi . Middelværdien og variansen af ​​væksten i prøven er maksimal sandsynlighed for gennemsnittet og variansen for hele populationen.

For et fast datasæt og en grundlæggende probabilistisk model, ved hjælp af maksimumsandsynlighedsmetoden, vil vi opnå værdierne af modelparametrene, der gør dataene "tættere" på den virkelige. Maksimal sandsynlighedsestimation giver en unik og nem måde at bestemme løsninger i tilfælde af en normalfordeling.

Metoden til estimering af maksimal sandsynlighed anvendes på en lang række statistiske modeller, herunder:

Essensen af ​​metode

Lad der være en prøve fra fordelingen , hvor  er de ukendte parametre. Lad være sandsynligheden funktion  , hvor . Point Estimation

kaldes det maksimale sandsynlighedsestimat for parameteren . Det maksimale sandsynlighedsestimat er således det, der maksimerer sandsynlighedsfunktionen for en fast prøveudtagningsimplementering.

Ofte bruges log-likelihood- funktionen i stedet for likelihood-funktionen . Da funktionen er monotont stigende over hele definitionsdomænet, er maksimum af enhver funktion funktionens maksimum og omvendt. På denne måde

,

Hvis sandsynlighedsfunktionen er differentierbar, er den nødvendige betingelse for ekstremum ligheden af ​​dens gradient til nul :

Den tilstrækkelige ekstremum tilstand kan formuleres som den negative bestemthed af hessiske  , matrixen af ​​anden afledte:

Vigtigt for vurderingen af ​​egenskaberne ved estimater af maksimumsandsynlighedsmetoden er den såkaldte informationsmatrix , der er ens per definition:

På det optimale tidspunkt falder informationsmatrixen sammen med forventningen til Hessian, taget med et minustegn:

Egenskaber

hvor  er den asymptotiske informationsmatrix.

Asymptotisk effektivitet betyder, at den asymptotiske kovariansmatrix er den nedre grænse for alle konsistente asymptotisk normale estimatorer.

hvor  er sandsynlighedsfunktionen af ​​stikprøvestørrelsen

Eksempler

Den sidste ligestilling kan omskrives som:

hvor , som viser at sandsynlighedsfunktionen når sit maksimum ved punktet . På denne måde

.

Et sådant skøn vil være partisk: , hvorfra

.

For at finde dets maksimum, sætter vi lighedstegn mellem de partielle afledte værdier til nul :

hvor

 er prøvegennemsnittet , og  er prøvevariansen .

Anvendelsesmetode [2]

Behandler eksperimentet

Antag, at vi måler en mængde . Efter at have foretaget en måling, fik vi dens værdi med en fejl : . Lad os skrive sandsynligheden for, at værdien tager værdien :

.

Antag nu, at vi har taget flere sådanne målinger og opnået . Sandsynligheden for, at mængden vil antage værdierne vil være:

.

Denne funktion kaldes sandsynlighedsfunktionen. Den mest sandsynlige værdi af den målte værdi bestemmes af maksimum af sandsynlighedsfunktionen. Mere praktisk er log-sandsynlighedsfunktionen:

.

Differentier log-sandsynlighedsfunktionen med hensyn til :

.

Lige til og få noget værdi :

.

Cramer formulerede følgende sætning:

Sætning: Der er ingen anden metode til at behandle resultaterne af et eksperiment, der ville give en bedre tilnærmelse til sandheden end den maksimale sandsynlighedsmetode.

Målefejl

Antag, at vi har taget en række målinger og opnået en række værdier , er det naturligt at skrive, at denne fordeling vil have en Gaussisk form :

.

Lad os skrive den logaritmiske sandsynlighedsfunktion: .

Lad os tage den første afledte:

.

Hvis , så . Tag nu den anden afledede:

, hvor

.

Dette kaldes den første magiske formel [2] .

Betinget maksimum sandsynlighed metode

Den betingede maximum likelihood-metode (Conditional ML) bruges i regressionsmodeller. Essensen af ​​metoden er, at der ikke bruges den fulde fælles fordeling af alle variabler (afhængige og regressorer), men kun den betingede fordeling af den afhængige variabel efter faktorer, det vil sige fordelingen af ​​tilfældige fejl i regressionsmodellen . Den totale sandsynlighedsfunktion er produktet af den "betingede sandsynlighedsfunktion" og fordelingstætheden af ​​faktorerne. Den betingede MMP svarer til den fulde version af MMP i det tilfælde, hvor fordelingen af ​​faktorer ikke på nogen måde afhænger af de estimerede parametre. Denne betingelse er ofte overtrådt i tidsseriemodeller, såsom den autoregressive model . I dette tilfælde er regressorerne de tidligere værdier af den afhængige variabel, hvilket betyder, at deres værdier også adlyder den samme AR-model, det vil sige, at fordelingen af ​​regressorerne afhænger af de estimerede parametre. I sådanne tilfælde vil resultaterne af anvendelsen af ​​de betingede og fuld maksimale sandsynlighedsmetoder være forskellige.

Se også

Noter

  1. Fisher  - 1912 Mathematical Encyclopedic Dictionary, Moskva: Soviet Encyclopedia, 1988.
  2. ↑ 1 2 A.P. Onuchin. Eksperimentelle metoder inden for kernefysik. - Novosibirsk: Novosibirsk State Technical University, 2010. - S. 297-303. — 336 s. — ISBN 978-5-7782-1232-9 .

Litteratur