Hidden Markov Model ( HMM ) er en statistisk model , der simulerer driften af en proces, der ligner en Markov-proces med ukendte parametre, og opgaven er at gætte de ukendte parametre ud fra de observerede. De opnåede parametre kan bruges i yderligere analyse, for eksempel til mønstergenkendelse. HMM kan betragtes som det enkleste Bayesianske trosnetværk .
De første noter om skjulte Markov-modeller blev udgivet af Baum i 1960'erne, og allerede i 70'erne blev de første gang brugt i talegenkendelse. Siden midten af 1980'erne er SMM'er blevet brugt til analyse af biologiske sekvenser, især DNA.
Hovedansøgningen af HMM blev modtaget inden for talegenkendelse, skrivning, bevægelser og bioinformatik. Derudover bruges HMM'er i kryptoanalyse , maskinoversættelse .
Lad os forestille os to venner, der hver aften diskuterer i telefonen, hvad de lavede i løbet af dagen. Din ven kan kun gøre tre ting: gå i parken, shoppe eller gøre værelset rent. Hans valg er kun baseret på det vejr, der var på tidspunktet for beslutningen. Du ved ikke noget om vejret i den region, hvor din ven bor, men du kan ud fra hans beslutninger prøve at gætte, hvordan vejret var.
Vejret er repræsenteret som en Markov-kæde, den har to tilstande: solrig eller regnfuld, men du kan ikke se det selv, så det er skjult for dig. Hver dag træffer din ven en af tre mulige beslutninger: gå, shoppe eller gøre rent. Du kan lære om din vens beslutning, så dette er en observerbar værdi. Generelt modtager vi SMM.
I en konventionel Markov-model er tilstanden synlig for observatøren, så overgangssandsynlighederne er den eneste parameter. I en skjult Markov-model kan vi kun holde styr på de variable, der påvirkes af en given tilstand. Hver tilstand har en sandsynlighedsfordeling blandt alle mulige outputværdier. Derfor giver sekvensen af tegn genereret af HMM'en information om rækkefølgen af tilstande.
Diagrammet nedenfor viser den generelle struktur af HMM. Ovalerne repræsenterer variable med en tilfældig værdi. Den tilfældige variabel er værdien af den skjulte variabel på et tidspunkt . En tilfældig variabel er værdien af en observeret variabel på et tidspunkt . Pilene i diagrammet repræsenterer betingede afhængigheder.
Det bliver tydeligt af diagrammet, at værdien af den skjulte variabel (på tidspunktet ) kun afhænger af værdien af den skjulte variabel (på tidspunktet ). Dette kaldes Markov-ejendommen. Selvom værdien af den observerede variabel på samme tid kun afhænger af værdien af den latente variabel (begge til tiden ).
Sandsynligheden for at se en længdesekvens er
her løber summen over alle mulige sekvenser af skjulte noder . Brute-force-beregningsmetoden er meget tidskrævende for mange problemer fra det virkelige liv på grund af, at antallet af mulige sekvenser af skjulte knudepunkter er meget stort. Men brugen af frem-tilbage- proceduren [1] kan øge beregningshastigheden betydeligt.
Der er tre hovedopgaver forbundet med SMM:
Grafer sandsynlighedsmodeller | |
---|---|
|
Machine learning og data mining | |
---|---|
Opgaver | |
At lære med en lærer | |
klyngeanalyse | |
Dimensionalitetsreduktion | |
Strukturel prognose | |
Anomali detektion | |
Grafer sandsynlighedsmodeller | |
Neurale netværk | |
Forstærkende læring |
|
Teori | |
Tidsskrifter og konferencer |
|