Stokastisk tilnærmelse

Stokastisk approksimation er en tilbagevendende metode til at konstruere en konsistent sekvens af estimater for løsninger på regressionsligninger og ekstrema af regressionsfunktioner i ikke-parametriske estimeringsproblemer. I biologi, kemi, medicin bruges det til at analysere resultaterne af eksperimenter. I teorien om automatisk kontrol bruges det som et middel til at løse problemer med genkendelse, identifikation, læring og tilpasning [1] . Grundlæggerne af den stokastiske tilnærmelsesmetode er Kiefer, Wolfowitz [2] , Robins , Monroe [3] .

At finde en løsning på regressionsligningen

Lad hver værdi af parameteren svare til en eksperimentelt målt stokastisk variabel med fordelingsfunktionen og den matematiske forventning til værdien ved en fast parameter . Det er nødvendigt at finde en løsning på regressionsligningen . Det antages, at løsningen af ​​regressionsligningen er unik, og funktionerne og er ukendte.

Proceduren med stokastisk tilnærmelse til at opnå estimater af roden af ​​regressionsligningen består i at bruge træningsprøven opnået på basis af erfaringer med målte stokastiske variable .

Estimatet af den ønskede rod er baseret på det tidligere estimat ved hjælp af træningsværdien af ​​den målte stokastiske variabel ved hjælp af relationen , hvor , er et vilkårligt tal [3] .

Hvis sekvensen af ​​koefficienter opfylder betingelserne , , , så for , tenderer estimatet i sandsynlighed til roden af ​​ligningen .

Med nogle yderligere krav til regressionsfunktionen kan estimaterne konvergere i middelkvadrat til løsningen af ​​regressionsligningen [4] [5] .

Eksempler

Find ekstremum af regressionsfunktionen

Estimatet af ekstremværdien af ​​regressionsfunktionen er fundet på basis af det tidligere estimat og træningsværdier af den målte stokastiske variabel og ved hjælp af relationen , hvor , er et vilkårligt tal, er en sekvens af positive tal, og sekvenser og er uafhængige og svarer til værdierne af parameteren og [2] .

Hvis sekvenserne af koefficienter og opfylder betingelserne , , For , , , , Så for , tenderer estimatet i sandsynlighed til den ekstreme værdi af regressionsfunktionen.

Med nogle yderligere krav til regressionsfunktionen kan estimater konvergere i middelkvadrat til regressionsfunktionens ekstremum [5] .

Eksempler

Noter

  1. Tsypkin Ya.Z. "Tilpasning, læring og selvlæring i automatiske systemer", // Automation og Telemekanik . - 1966. - Nr. 1. - S. 23–61. — ISSN 0005-2310. — URL: http://mi.mathnet.ru/at10991
  2. 1 2 Kiefer J., Wolfowitz J. Stokastisk estimering af maksimum af en regressionsfunktion // Ann. Matematik. Statistikker. - 1952. - v. 23. - Nr. 3.
  3. 1 2 Robbins N., Monro S. En stokastisk tilnærmelsesmetode // Annals of Math. stat. - 1951. - v. 22. - Nr. 1. - S. 400-407.
  4. Vazan, 1972 , s. atten.
  5. 1 2 Loginov N. V. “Metoder til stokastisk tilnærmelse” // Automation and Remote Control . - 1966. - Nr. 4. - S. 185-204. — ISSN 0005-2310. — URL: http://mi.mathnet.ru/at11080
  6. 1 2 Vazan, 1972 , s. ti.

Litteratur