Berksons paradoks

Den aktuelle version af siden er endnu ikke blevet gennemgået af erfarne bidragydere og kan afvige væsentligt fra den version , der blev gennemgået den 9. december 2021; checks kræver 2 redigeringer .

Berkson's paradox , collider error  - the position of matematisk statistik , formuleret af J. Berkson ( engelsk  Joseph Berkson ) i 1946. Udsagn: To uafhængige hændelser kan blive betinget afhængige, hvis en tredje hændelse indtræffer . Denne konklusion er kontraintuitiv for nogle mennesker og kan derfor beskrives som et paradoks . Den tredje hændelse, som kan gøre de to første hændelser betinget afhængige, kaldes en kolliderer . Berksons paradoks er ofte beskrevet inden for medicinsk statistik eller biostatistik . Det er en komplicerende faktor, der optræder i statistiske test af forhold.

Det samme paradoks er nævnt i teorien om kunstige neurale netværk som en forbigående forklaring , retfærdiggørelseseffekt eller reduktion af årsagen ( eng.  forklaring bort ) [1] [2] .

Formel definition

hvis 0 < P( A ) < 1 og 0 < P( B ) < 1, hvor A og B er nogle hændelser, og P( A | B ) = P( A ) (det vil sige, at begivenhederne er uafhængige), derefter P( A | B , C ) < P( A | C ) hvor C = A ∪ B (dvs. A eller B ).

En illustration baseret på et eksempel fra matematisk statistik

Vi vil undersøge statistikken for et tilfældigt udvalg af frimærker fra et sæt, idet vi tager to uafhængige frimærkeegenskaber i betragtning: "sjældenhed" og "skønhed".

Antag, at der er 1000 frimærker, blandt hvilke 300 er smukke, 100 er sjældne, og 30 er både smukke og sjældne. Det er klart, at ud af hele sættet er 10% af frimærkerne sjældne, men af ​​alle de smukke frimærker er 10% også sjældne, det vil sige, at frimærkets skønhed ikke siger noget om dets sjældenhed.

Men hvis vi fra hele sættet (1000) udvælger alle smukke frimærker og alle sjældne frimærker (der er 370 sådanne frimærker), så vil der i denne prøve af sjældne frimærker allerede være 27 % (100 ud af 370), men blandt de smukke frimærker vil der stadig kun være 10 % (30 ud af 300). Så vil observatøren, når han analyserer en sådan prøve (og ikke hele sættet), se et tilsyneladende omvendt forhold mellem mærkets skønhed og sjældenhed (hvis mærket er smukt, så er sandsynligheden for dets sjældenhed lavere). Men i virkeligheden er der ingen sådan sammenhæng.

Det beskrevne resultat er matematisk fuldstændig korrekt, dets "paradoksalitet" er forbundet med de særlige forhold ved opfattelsen af ​​mennesker, der har tendens til intuitivt at tro, at hvis to parametre er uafhængige, så forbliver de det i enhver prøve. I virkeligheden, i tilfælde af selektionsbias mellem uafhængige parametre, kan der opstå betingede afhængigheder, hvilket fører til grove fejl i analysen, når de udvides til hele populationen .

Illustration på et eksempel fra teorien om neurale netværk

Lad det enkleste Bayesianske kunstige neurale netværk med en sigmoid aktiveringsfunktion blive givet , indeholdende to uafhængige begivenheder (årsager) til, at en tredje begivenhed vil forekomme - huset vil ryste. En bias på -10 i jordskælvsbegivenhedsneuronen betyder, at i mangel af observationer og a priori-viden er det meget mere sandsynligt, at denne begivenhed ikke sker, end at den sker. Hvis der indtræffer et jordskælvshændelse, men ingen lastbilhændelse forekommer, så har husrystehændelsesneuronen et samlet input på 0, hvilket betyder, at sandsynligheden for, at hændelsen indtræffer (det vil sige neuronaktivering) er 0,5. Således, hvis vi har en observation af begivenheden "huset ryster", så er den bedste forklaring på dette faktum forekomsten af ​​en af ​​begivenhedsårsagerne. Det er dog ulogisk at antage, at begge årsagsbegivenheder indtraf på én gang for at forklare begivenheden med at ryste huset, da sandsynligheden for deres samtidige forekomst er lig med . Hvis vi således både observerer en hændelse af husrystelser og ved, hvad der skete, for eksempel en hændelse, der forårsagede jordskælv, så afslører dette en forklaring ( bortforklarer , reducerer årsagen), at lastbilen var skyld i, at huset rystede [3 ] .  

Noter

  1. Introduktion til Bayesianske netværk  / S. A. Terekhov // Videnskabelig session MEPhI-2003. V All-russisk videnskabelig og teknisk konference Neuroinformatik-2003: Forelæsninger om neuroinformatik / Ed. udg. Yu. V. Tyumensev (kandidat for tekniske videnskaber). - M.  : MEPhI, 2003. - Del 1. - S. 154. - 188 s. : syg. — SRNTI 28.23.27. - BBK  32.818ya5 . - UDC  004.81.032.26 (063) . — ISBN 5-7262-0471-9 .
  2. Foredrag 1 “Bayesian and Markov networks” Arkivkopi dateret 14. juli 2014 på Wayback Machine D. P. Vetrov D. A. Kropotov A. A. Osokin. - Moscow State University, VMiK, afdeling. MMP CC RAS-kursus "Grafiske modeller"
  3. Hinton, G.E.; Osindero, S.; Teh, Y. En hurtig læringsalgoritme til dybe trosnet  (ubestemt)  // Neural Computation. - 2006. - T. 18 , nr. 7 . - S. 1527-1554 . - doi : 10.1162/neco.2006.18.7.1527 . — PMID 16764513 .

Litteratur

Se også