Chernov score

Chernovs skøn giver eksponentielt faldende estimater af sandsynligheden for store afvigelser af summer af uafhængige stokastiske variable . Disse estimater er mere nøjagtige end estimater opnået ved brug af første eller andet øjeblik, såsom Markovs ulighed eller Chebyshevs ulighed , som kun giver en magtlov om aftagende. Samtidig kræver Chernovs estimat, at de stokastiske variable er uafhængige i aggregatet, en betingelse, som hverken Markovs ulighed eller Chebyshevs ulighed kræver, selvom Chebyshevs ulighed kræver parvis uafhængighed af stokastiske variable.

Chernovs skøn er relateret til Bernsteins uligheder og Höfdings ulighed , som går forud for det historisk.

Grundlæggende sag

Hovedtilfældet af Chernov-estimatet for en stokastisk variabel opnås ved at anvende Markovs ulighede tX [1] . For alle

Når X er summen af ​​n stokastiske variable X 1 , ... , X n , for enhver

Især at optimere med hensyn til t og antage, at X i er uafhængig, får vi

(en)

Tilsvarende

og dermed,

Specifikke værdier af Chernovs estimater opnås ved beregning for specifikke mængder .

Eksempel

Lad X 1 , ..., X n være uafhængige Bernoulli stokastiske variable, hvis sum er X , og hver er lig med 1 med sandsynlighed . For en Bernoulli-variabel er følgende sandt:

Følgelig,

For enhver og , vi opnår

,

og det generelle tilfælde af Chernoff-estimatet giver [2] :64

Sandsynligheden for samtidig forekomst af mere end n /2 hændelser { X k = 1 } er nøjagtigt lig med:

Det lavere estimat af denne sandsynlighed kan beregnes ved hjælp af Chernoff-uligheden:

Faktisk, der angiver μ = np , får vi den multiplikative form af Chernoff-estimatet (se nedenfor eller konsekvens 13.3 i Sinclairs klassenoter) [3] :

Dette resultat indrømmer forskellige generaliseringer, som nævnt nedenfor. Flere former for Chernoff-estimater kan bemærkes: den oprindelige additivform (giver et estimat for den absolutte fejl ) eller den mere praktiske multiplikationsform (begrænser fejlen i forhold til middelværdien).

Additiv form (evaluering for absolut fejl)

Følgende sætning blev bevist af Wassily Hoefding [4] .

Chernov-Hoefding teorem . Lad X 1 , ..., X n være uafhængige identisk fordelte stokastiske variabler med værdierne {0, 1}. Lad p = E[ X ] og ε > 0 . Derefter hvor Dette er Kullback-Leibler-divergensen mellem stokastiske variable, der har en Bernoulli-fordeling med henholdsvis parametrene x og y . Hvis pen2,

Et enklere estimat opnås ved at svække denne sætning ved at bruge uligheden D ( p + ε || p ) ≥ 2 ε 2 , som følger af konveksiteten af ​​D ( p + ε || p ) og det faktum, at

Dette resultat er et særligt tilfælde af Hoefdings ulighed . I nogle tilfælde anvendes skøn

stærkere for p <enotte.

Multiplikativ form (estimat for relativ fejl)

Multiplikativ Chernov-estimat . Lad X 1 , ..., X n være uafhængige stokastiske variabler, der tager værdierne {0, 1}. Lad os betegne deres sum med X , lad os betegne forventningen til denne sum med μ . Så for hver

På lignende måde kan man vise, at for evt

I praksis viser ovenstående formel sig ofte at være besværlig [2] , så der anvendes svagere, men bekvemme skøn

som opnås ved hjælp af en ulighed fra listen over logaritmiske uligheder [5] . Eller en endnu svagere ulighed

Ansøgninger

Chernovs estimater har applikationer inden for sætbalancering og pakkerouting i sparsomme netværk.

Problemet med afbalancering af mængder opstår ved design af et statistisk eksperiment . Typisk, når vi designer et statistisk eksperiment med deltageregenskaber givet i det pågældende forsøg, skal vi opdele deltagerne i to ikke-overlappende grupper, så hver egenskab er så afbalanceret som muligt mellem de to grupper. Se også Probability and Computing: Randomized Algorithms and Probabilistic Analysis Arkiveret 16. april 2021 på Wayback Machine .

Chernoff-estimater bruges også til at opnå hårde grænser i routingproblemer ved hjælp af permutationer. Dette reducerer routing- overbelastning i sparsomme netværk. Se mere i Probability and Computing: Randomized Algorithms and Probabilistic Analysis Arkiveret 16. april 2021 på Wayback Machine .

Også Chernoff-estimater bruges i teorien om beregningsmæssig læring for at bevise, at indlæringsalgoritmen er omtrent korrekt i sandsynlighed . Det vil sige, med stor sandsynlighed har denne algoritme en lille fejl på et tilstrækkeligt stort sæt træningsdata [6] .

Chernoff-score kan effektivt bruges til at evaluere " robusthedsniveauet " af en applikation/algoritme ved at undersøge dens forstyrrelsesrum ved hjælp af randomisering. [7]

Matrix score

Rudolf Ahlswede og Andreas Winter brugte Chernoff-estimater for stokastiske variable med matrixværdier. [8] Den næste version af uligheden kan findes i Tropps værk. [9]

Lad M 1 , ..., M t være stokastiske variable med matrixværdier som og . Betegn matrixnormoperatoren . Hvis uligheden næsten helt sikkert gælder for alle , så for hver ε > 0

For at konkludere, at afvigelsen fra 0 er begrænset af ε med høj sandsynlighed, skal vi vælge (antal stikprøver) proportionalt med logaritmen af ​​. I det generelle tilfælde er afhængigheden af ​​ikke indlysende: Tag for eksempel en diagonal tilfældig matrix af tegn på dimension . Summen af ​​uafhængig prøvenormoperator er nøjagtigt den maksimale afvigelse blandt uafhængige tilfældige vandreture . For at nå en fast grænse for maksimal afvigelse med en konstant sandsynlighed, skal stige logaritmisk med . [ti]

Følgende sætning er udledt under den antagelse, at den har en lav rang for at undgå dimensionsafhængighed.

Sætning uden dimensionsafhængighed

Lad 0 < ε < 1 og vær en tilfældig symmetrisk reel matrix med og næsten sikker. Antag, at hvert bæreelement højst har rang . Lad os sætte

Hvis næsten helt sikkert, så

hvor M 1 , ..., M t er uafhængige identisk distribuerede kopier af .

Sætning for ikke helt tilfældige matricer

Ankit Garg, Yin Tat Lee, Zhao Song og Nikhil Srivastava [11] opnåede estimater af Chernoff-typen for summer af matrix-vurderede tilfældige variabler samplet ved hjælp af en expander random walk .

Rasmus King og Zhao Song [12] opnåede estimater af Chernov-typen for summer af Laplacian -matricer af tilfældige træer.

Sampling variant

Den følgende version af Chernoff-estimatet kan bruges til at estimere sandsynligheden for, at størstedelen af ​​befolkningen bliver en minoritet i stikprøven og omvendt. [13]

Antag, at der er en generel befolkning og en subpopulation . Lad os betegne den relative størrelse af delpopulationen ( ) med .

Lad os sige, at vi vælger et heltal surt og en tilfældig stikprøve af størrelse . Lad os betegne den relative størrelse af delpopulationen ( ) med .

Derefter for hver andel :

Især hvis ─ er flertallet i (dvs. ), så kan vi estimere ovenfra sandsynligheden for, at det forbliver flertallet ved at tage [14] :

Dette skøn er naturligvis ikke korrekt. For eksempel, hvis , så får vi et trivielt skøn .

Beviser

Chernov-Hoefding teorem (tilsætningsform)

Lad q = p + ε . Tager vi a = nq i formel (1) , får vi:

Når vi nu ved, at Pr( X i = 1) = p , Pr( X i = 0) = 1 − p , har vi

Så vi kan nemt beregne minimum ved hjælp af differentieringsteknikken:

Ligner det resulterende udtryk til nul og løser ligningen med hensyn til , får vi

Følgelig,

Da q = p + ε > p , ser vi, at t > 0 , så vores estimat er opfyldt med t . Når vi har t , kan vi gå tilbage til de foregående ligninger og finde

Vi har nu det ønskede resultat pga

For at fuldende beviset i det symmetriske tilfælde definerer vi blot en stokastisk variabel Y i = 1 − X i , anvender nøjagtig det samme bevis på den og tilføjer resultatet til vores estimat.

Multiplikativ form

Lad Pr( X i = 1) = pi . Ifølge formel (1) ,

Den tredje linje følger af, at den tager værdien e t med sandsynlighed p i og værdien 1 med sandsynlighed 1 − p i . Dette er identisk med beregningerne ovenfor i beviset for additivformen.

Ved at omskrive som og huske at (hvis x > 0 , så er uligheden streng), sætter vi . Det samme resultat kan opnås ved direkte at erstatte a i Chernoff-estimatoren med (1 + δ ) μ . [femten]

På denne måde

Hvis vi bare sætter t = ln(1 + δ ) , så t > 0 for δ > 0 , så kan vi sætte det ind i det sidste udtryk og finde

,

Q.E.D.

Se også

Links

  1. Denne metode blev først brugt af Sergei Bernstein i beviser relateret til Bernsteins uligheder .
  2. 1 2 Mitzenmacher, Michael, & Upfal, Eli. Sandsynlighed og beregning: Randomiserede algoritmer og sandsynlighedsanalyse . - Cambridge University Press, 2005. - ISBN 978-0-521-83540-4 . - doi : 10.1017/CBO9780511813603.005 . Arkiveret 16. april 2021 på Wayback Machine
  3. Sinclair, Alistair Klassenoter til kurset "Randomness and Computation" (link ikke tilgængeligt) (Efterår 2011). Hentet 30. oktober 2014. Arkiveret fra originalen 31. oktober 2014. 
  4. Hoeffding, W. (1963). "Sandsynlighedsuligheder for summer af afgrænsede tilfældige variabler" (PDF) . Journal of the American Statistical Association . 58 (301): 13-30. DOI : 10.2307/2282952 . JSTOR  2282952 .
  5. Nyttige uligheder . logaritme . Hentet 13. maj 2020. Arkiveret fra originalen 19. august 2020.
  6. M. Kearns, U. Vazirani. En introduktion til beregningsmæssig læringsteori. Kapitel 9 (bilag), side 190-192. MIT Press, 1994.
  7. C.Alippi: "Randomiserede algoritmer" kapitel i Intelligence for Embedded Systems. Springer, 2014, 283 s. ISBN 978-3-319-05278-6 .
  8. Ahlswede, R.; Winter, A. (2003). "Stærk samtale til identifikation via kvantekanaler". IEEE Transactions on Information Theory . 48 (3): 569-579. arXiv : quant-ph/0012127 . DOI : 10.1109/18.985947 .
  9. Tropp, J. (2010). "Brugervenlige halegrænser for summer af tilfældige matricer". Grundlaget for beregningsmatematik . 12 (4): 389-434. arXiv : 1004.4389 . DOI : 10.1007/s10208-011-9099-z .
  10. Magen, A. & Zouzias, A. (2011), Low Rank Matrix-Valued Chernoff Bounds and Approximate Matrix Multiplication, arΧiv : 1005.2724 [cs.DM]. 
  11. Ankit Garg, Yin Tat Lee, Zhao Song, Nikhil Srivastava. A Matrix Expander Chernoff Bound  // Association for Computing MachineryNew YorkNYUSA. — 2018. Arkiveret 14. april 2021.
  12. Rasmus Kyng, Zhao Song. En matrix Chernoff bundet til stærkt Rayleigh-distributioner og spektrale sparsifiers fra nogle få tilfældige spændtræer  // FOCS. - 2018. - 1. oktober. Arkiveret fra originalen den 22. april 2021.
  13. Goldberg, AV -konkurrerende auktioner for flere digitale varer // Algoritmer - ESA 2001 / AV Goldberg, JD Hartline. - 2001. - Bd. 2161. - S. 416. - ISBN 978-3-540-42493-2 . - doi : 10.1007/3-540-44676-1_35 . ; Lemma 6.1
  14. Se grafer: Frontier som funktion af r med varierende k Arkiveret 4. januar 2015 på Wayback Machine og Frontier som funktion af k med varierende r Arkiveret 4. januar 2015 på Wayback Machine .
  15. Se beviset ovenfor.

Yderligere læsning