Chernovs skøn giver eksponentielt faldende estimater af sandsynligheden for store afvigelser af summer af uafhængige stokastiske variable . Disse estimater er mere nøjagtige end estimater opnået ved brug af første eller andet øjeblik, såsom Markovs ulighed eller Chebyshevs ulighed , som kun giver en magtlov om aftagende. Samtidig kræver Chernovs estimat, at de stokastiske variable er uafhængige i aggregatet, en betingelse, som hverken Markovs ulighed eller Chebyshevs ulighed kræver, selvom Chebyshevs ulighed kræver parvis uafhængighed af stokastiske variable.
Chernovs skøn er relateret til Bernsteins uligheder og Höfdings ulighed , som går forud for det historisk.
Hovedtilfældet af Chernov-estimatet for en stokastisk variabel opnås ved at anvende Markovs ulighed på e tX [1] . For alle
Når X er summen af n stokastiske variable X 1 , ... , X n , for enhver
Især at optimere med hensyn til t og antage, at X i er uafhængig, får vi
(en)Tilsvarende
og dermed,
Specifikke værdier af Chernovs estimater opnås ved beregning for specifikke mængder .
Lad X 1 , ..., X n være uafhængige Bernoulli stokastiske variable, hvis sum er X , og hver er lig med 1 med sandsynlighed . For en Bernoulli-variabel er følgende sandt:
Følgelig,
For enhver og , vi opnår
,og det generelle tilfælde af Chernoff-estimatet giver [2] :64
Sandsynligheden for samtidig forekomst af mere end n /2 hændelser { X k = 1 } er nøjagtigt lig med:
Det lavere estimat af denne sandsynlighed kan beregnes ved hjælp af Chernoff-uligheden:
Faktisk, der angiver μ = np , får vi den multiplikative form af Chernoff-estimatet (se nedenfor eller konsekvens 13.3 i Sinclairs klassenoter) [3] :
Dette resultat indrømmer forskellige generaliseringer, som nævnt nedenfor. Flere former for Chernoff-estimater kan bemærkes: den oprindelige additivform (giver et estimat for den absolutte fejl ) eller den mere praktiske multiplikationsform (begrænser fejlen i forhold til middelværdien).
Følgende sætning blev bevist af Wassily Hoefding [4] .
Chernov-Hoefding teorem . Lad X 1 , ..., X n være uafhængige identisk fordelte stokastiske variabler med værdierne {0, 1}. Lad p = E[ X ] og ε > 0 . Derefter hvor Dette er Kullback-Leibler-divergensen mellem stokastiske variable, der har en Bernoulli-fordeling med henholdsvis parametrene x og y . Hvis p ≥en2, såEt enklere estimat opnås ved at svække denne sætning ved at bruge uligheden D ( p + ε || p ) ≥ 2 ε 2 , som følger af konveksiteten af D ( p + ε || p ) og det faktum, at
Dette resultat er et særligt tilfælde af Hoefdings ulighed . I nogle tilfælde anvendes skøn
stærkere for p <enotte.
På lignende måde kan man vise, at for evt
I praksis viser ovenstående formel sig ofte at være besværlig [2] , så der anvendes svagere, men bekvemme skøn
som opnås ved hjælp af en ulighed fra listen over logaritmiske uligheder [5] . Eller en endnu svagere ulighed
Chernovs estimater har applikationer inden for sætbalancering og pakkerouting i sparsomme netværk.
Problemet med afbalancering af mængder opstår ved design af et statistisk eksperiment . Typisk, når vi designer et statistisk eksperiment med deltageregenskaber givet i det pågældende forsøg, skal vi opdele deltagerne i to ikke-overlappende grupper, så hver egenskab er så afbalanceret som muligt mellem de to grupper. Se også Probability and Computing: Randomized Algorithms and Probabilistic Analysis Arkiveret 16. april 2021 på Wayback Machine .
Chernoff-estimater bruges også til at opnå hårde grænser i routingproblemer ved hjælp af permutationer. Dette reducerer routing- overbelastning i sparsomme netværk. Se mere i Probability and Computing: Randomized Algorithms and Probabilistic Analysis Arkiveret 16. april 2021 på Wayback Machine .
Også Chernoff-estimater bruges i teorien om beregningsmæssig læring for at bevise, at indlæringsalgoritmen er omtrent korrekt i sandsynlighed . Det vil sige, med stor sandsynlighed har denne algoritme en lille fejl på et tilstrækkeligt stort sæt træningsdata [6] .
Chernoff-score kan effektivt bruges til at evaluere " robusthedsniveauet " af en applikation/algoritme ved at undersøge dens forstyrrelsesrum ved hjælp af randomisering. [7]
Rudolf Ahlswede og Andreas Winter brugte Chernoff-estimater for stokastiske variable med matrixværdier. [8] Den næste version af uligheden kan findes i Tropps værk. [9]
Lad M 1 , ..., M t være stokastiske variable med matrixværdier som og . Betegn matrixnormoperatoren . Hvis uligheden næsten helt sikkert gælder for alle , så for hver ε > 0
For at konkludere, at afvigelsen fra 0 er begrænset af ε med høj sandsynlighed, skal vi vælge (antal stikprøver) proportionalt med logaritmen af . I det generelle tilfælde er afhængigheden af ikke indlysende: Tag for eksempel en diagonal tilfældig matrix af tegn på dimension . Summen af uafhængig prøvenormoperator er nøjagtigt den maksimale afvigelse blandt uafhængige tilfældige vandreture . For at nå en fast grænse for maksimal afvigelse med en konstant sandsynlighed, skal stige logaritmisk med . [ti]
Følgende sætning er udledt under den antagelse, at den har en lav rang for at undgå dimensionsafhængighed.
Lad 0 < ε < 1 og vær en tilfældig symmetrisk reel matrix med og næsten sikker. Antag, at hvert bæreelement højst har rang . Lad os sætte
Hvis næsten helt sikkert, så
hvor M 1 , ..., M t er uafhængige identisk distribuerede kopier af .
Ankit Garg, Yin Tat Lee, Zhao Song og Nikhil Srivastava [11] opnåede estimater af Chernoff-typen for summer af matrix-vurderede tilfældige variabler samplet ved hjælp af en expander random walk .
Rasmus King og Zhao Song [12] opnåede estimater af Chernov-typen for summer af Laplacian -matricer af tilfældige træer.
Den følgende version af Chernoff-estimatet kan bruges til at estimere sandsynligheden for, at størstedelen af befolkningen bliver en minoritet i stikprøven og omvendt. [13]
Antag, at der er en generel befolkning og en subpopulation . Lad os betegne den relative størrelse af delpopulationen ( ) med .
Lad os sige, at vi vælger et heltal surt og en tilfældig stikprøve af størrelse . Lad os betegne den relative størrelse af delpopulationen ( ) med .
Derefter for hver andel :
Især hvis ─ er flertallet i (dvs. ), så kan vi estimere ovenfra sandsynligheden for, at det forbliver flertallet ved at tage [14] :
Dette skøn er naturligvis ikke korrekt. For eksempel, hvis , så får vi et trivielt skøn .
Lad q = p + ε . Tager vi a = nq i formel (1) , får vi:
Når vi nu ved, at Pr( X i = 1) = p , Pr( X i = 0) = 1 − p , har vi
Så vi kan nemt beregne minimum ved hjælp af differentieringsteknikken:
Ligner det resulterende udtryk til nul og løser ligningen med hensyn til , får vi
så
Følgelig,
Da q = p + ε > p , ser vi, at t > 0 , så vores estimat er opfyldt med t . Når vi har t , kan vi gå tilbage til de foregående ligninger og finde
Vi har nu det ønskede resultat pga
For at fuldende beviset i det symmetriske tilfælde definerer vi blot en stokastisk variabel Y i = 1 − X i , anvender nøjagtig det samme bevis på den og tilføjer resultatet til vores estimat.
Lad Pr( X i = 1) = pi . Ifølge formel (1) ,
Den tredje linje følger af, at den tager værdien e t med sandsynlighed p i og værdien 1 med sandsynlighed 1 − p i . Dette er identisk med beregningerne ovenfor i beviset for additivformen.
Ved at omskrive som og huske at (hvis x > 0 , så er uligheden streng), sætter vi . Det samme resultat kan opnås ved direkte at erstatte a i Chernoff-estimatoren med (1 + δ ) μ . [femten]
På denne måde
Hvis vi bare sætter t = ln(1 + δ ) , så t > 0 for δ > 0 , så kan vi sætte det ind i det sidste udtryk og finde
,Q.E.D.