Sandsynlighed er graden (relativt mål, kvantitativ vurdering) af muligheden for forekomsten af en eller anden begivenhed . Når årsagerne til, at en eventuel hændelse faktisk opstår, opvejer de modsatte årsager, kaldes denne hændelse for sandsynlig , ellers - usandsynlig eller usandsynlig . Overvægten af positive grunde frem for negative, og omvendt, kan være i varierende grad, som et resultat af, at sandsynligheden (og usandsynligheden ) er større eller mindre [1]. Derfor vurderes sandsynlighed ofte på et kvalitativt niveau, især i de tilfælde, hvor en mere eller mindre præcis kvantitativ vurdering er umulig eller yderst vanskelig. Forskellige gradueringer af "niveauer" af sandsynlighed er mulige [2] .
Studiet af sandsynlighed fra et matematisk synspunkt er en særlig disciplin - sandsynlighedsteorien [1] . I sandsynlighedsteori og matematisk statistik er begrebet sandsynlighed formaliseret som en numerisk karakteristik af en begivenhed - et sandsynlighedsmål (eller dets værdi) - et mål på et sæt begivenheder (undermængder af et sæt af elementære begivenheder), idet der tages værdier fra til . Værdien svarer til en gyldig hændelse. En umulig hændelse har en sandsynlighed på 0 (det modsatte er generelt ikke altid sandt). Hvis sandsynligheden for, at en begivenhed indtræffer, er lig med , så er sandsynligheden for, at den ikke forekommer (såvel som usandsynligheden for forekomst) lig med . Især betyder sandsynlighed lige sandsynlighed for, at en begivenhed indtræffer og ikke-forekomst.
Den klassiske definition af sandsynlighed er baseret på begrebet ligesandsynlighed for udfald. Sandsynligheden er forholdet mellem antallet af udfald, der favoriserer en given begivenhed, og det samlede antal lige sandsynlige udfald. For eksempel er sandsynligheden for at få "hoveder" eller "haler" i et tilfældigt kast med en mønt de samme og lige , sandsynligheden for at få en hvilken som helst side af en terning er den samme og lige . Denne klassiske "definition" af sandsynlighed kan generaliseres til tilfældet med et uendeligt antal mulige værdier - for eksempel hvis en begivenhed kan forekomme med lige stor sandsynlighed på et hvilket som helst punkt (antallet af point er uendeligt) af et begrænset område af rum (plan), så er sandsynligheden for, at det vil forekomme i en del af dette tilladte område, lig med forholdet mellem volumen (arealet) af denne del og volumenet (arealet) af arealet af alle mulige punkter .
Den empiriske "definition" af sandsynlighed er relateret til hyppigheden af forekomsten af en hændelse, baseret på det faktum, at med et tilstrækkeligt stort antal forsøg, bør frekvensen tendere til den objektive grad af mulighed for denne hændelse. I den moderne præsentation af sandsynlighedsteorien defineres sandsynlighed aksiomatisk som et specialtilfælde af den abstrakte teori om et sæts mål . Ikke desto mindre er forbindelsen mellem det abstrakte mål og sandsynligheden, som udtrykker graden af mulighed for en begivenhed, netop hyppigheden af dens observation.
Den probabilistiske beskrivelse af visse fænomener er blevet udbredt i moderne videnskab, især inden for økonometri , statistisk fysik af makroskopiske ( termodynamiske ) systemer, hvor selv i tilfælde af en klassisk deterministisk beskrivelse af partiklernes bevægelse, en deterministisk beskrivelse af hele systemet af partikler ikke er praktisk muligt og hensigtsmæssigt. I kvantefysikken er de beskrevne processer i sig selv af sandsynlighed.
Behovet for begrebet sandsynlighed og forskning i denne retning har historisk været forbundet med gambling , især terningespil. Før begrebet sandsynlighed dukkede op, blev kombinatoriske problemer hovedsageligt formuleret til at beregne antallet af mulige udfald, når man kaster flere terninger, samt problemet med at dele indsatsen mellem spillere, når spillet er afsluttet før tidsplanen. Det første problem, da man kastede tre terninger, blev "løst" i 960 af biskop Wiebold fra Cambrai [3] . Han talte 56 muligheder. Dette tal afspejler dog ikke antallet af lige sandsynlige muligheder, da hver af de 56 muligheder kan realiseres på forskellige måder. I første halvdel af det 13. århundrede blev disse aspekter taget i betragtning af Richard de Fornival . På trods af, at han også har tallet 56, tager han i sin begrundelse med i betragtning, at for eksempel "det samme antal point på tre terninger kan opnås på seks måder." Baseret på hans ræsonnement kan det allerede fastslås, at antallet af lige så mulige muligheder er 216. I fremtiden løste mange ikke dette problem helt korrekt. For første gang blev antallet af lige mulige udfald ved at kaste tre terninger klart beregnet af Galileo Galilei , der hævede de seks (antallet af muligheder for at tabe en terning) til 3 potens (antal terninger): 6³ = 216 . Han lavede også tabeller over antallet af måder at få forskellige mængder point på.
Problemer af den anden type i slutningen af det 15. århundrede blev formuleret og foreslået af den første (generelt set fejlagtige) løsning Luca Pacioli [3] . Hans løsning var at dele indsatsen i forhold til de spil, der allerede var vundet. Betydelige yderligere fremskridt i begyndelsen af det 16. århundrede er forbundet med navnene på de italienske videnskabsmænd Gerolamo Cardano og N. Tartaglia . Cardano gav en korrekt optælling af antallet af gange, der blev kastet to terninger (36). Han korrelerede også for første gang antallet af forekomster af et bestemt antal på mindst én terning (11) til det samlede antal udfald (som svarer til den klassiske definition af sandsynlighed) - 11/36. Tilsvarende mente han for eksempel for tre terninger, at ni point kan opnås på en række måder svarende til 1/9 af "hele serien" (det vil sige, at det samlede antal lige mulige udfald er 216). Cardano introducerede ikke formelt begrebet sandsynlighed, men overvejede i det væsentlige det relative antal udfald, hvilket i det væsentlige svarer til at overveje sandsynligheder. I sin vorden i Cardano kan man også finde ideer relateret til loven om store tal. Med hensyn til opgaven med at dele indsatsen, foreslog Cardano at tage højde for antallet af resterende spil, der skal vindes. N. Tartaglia kommenterede også Lukes beslutning og tilbød sin egen løsning (generelt set også fejlagtig).
Galileos fortjeneste ligger også i udvidelsen af forskningsfeltet til feltet observationsfejl. Han påpegede først uundgåeligheden af fejl og klassificerede dem i systematiske og tilfældige (denne klassifikation bruges stadig i dag).
De første værker om sandsynlighed går tilbage til det 17. århundrede. Såsom korrespondancen fra de franske videnskabsmænd B. Pascal , P. Fermat (1654) og den hollandske videnskabsmand X. Huygens (1657), der gav den tidligst kendte videnskabelige fortolkning af sandsynlighed [4] . I det væsentlige opererede Huygens allerede med begrebet forventning. Den schweiziske matematiker J. Bernoulli etablerede loven om store tal for et system af uafhængige forsøg med to udfald (resultatet blev offentliggjort i 1713, efter hans død).
I det XVIII århundrede. - begyndelsen af det 19. århundrede sandsynlighedsteorien er udviklet i værker af A. Moivre (England, 1718), P. Laplace (Frankrig), C. Gauss (Tyskland) og S. Poisson (Frankrig). Sandsynlighedsteorien begynder at blive anvendt i teorien om observationsfejl, som udviklede sig i forbindelse med behovene for geodæsi og astronomi, og i teorien om skydning. Loven om fordeling af fejl blev i det væsentlige foreslået af Laplace, først som en eksponentiel afhængighed af fejlen uden at tage hensyn til tegnet (i 1774), derefter som en eksponentiel funktion af kvadratet af fejlen (i 1778). Sidstnævnte lov kaldes normalt Gaussfordelingen eller normalfordelingen. Bernoulli (1778) introducerede princippet om produkt af sandsynligheder for samtidige begivenheder. Adrien Marie Legendre (1805) udviklede metoden med mindste kvadrater .
I anden halvdel af XIX århundrede. Udviklingen af sandsynlighedsteori er forbundet med arbejdet af russiske matematikere P. L. Chebyshev , A. M. Lyapunov og A. A. Markov (senior), såvel som arbejdet med matematisk statistik af A. Quetelet (Belgien) og F. Galton (England) fysik L. Boltzmann (i Østrig), som skabte grundlaget for en væsentlig udvidelse af sandsynlighedslærens problemer. Det mest udbredte logiske (aksiomatiske) skema til at konstruere grundlaget for sandsynlighedsteori blev udviklet i 1933 af den sovjetiske matematiker A. N. Kolmogorov .
Den klassiske "definition" af sandsynlighed udgår fra begrebet ligesandsynlighed som en objektiv egenskab ved de undersøgte fænomener. Ækvivalens er et udefinerbart begreb og er etableret ud fra generelle overvejelser om symmetrien af de fænomener, der undersøges. Når man f.eks. kaster en mønt, antages det, at der på grund af møntens formodede symmetri, materialets homogenitet og tilfældigheden (ikke-bias) af kastet, ikke er nogen grund til at foretrække "haler" frem for "ørne" eller omvendt, det vil sige, at tabet af disse sider kan betragtes som lige så sandsynligt (equiprobable) .
Sammen med begrebet ligesandsynlighed i det generelle tilfælde, kræver den klassiske definition også begrebet en elementær begivenhed (udfald), der favoriserer eller ikke favoriserer den undersøgte begivenhed A. Vi taler om udfald, hvis forekomst udelukker muligheden af forekomsten af andre udfald. Disse er uforenelige elementære begivenheder. For eksempel, når en terning kastes, udelukker det at få et bestemt tal resten af tallene.
Den klassiske definition af sandsynlighed kan formuleres som følger:
Sandsynligheden for en tilfældig begivenhed A er forholdet mellem antallet n af inkompatible lige sandsynlige elementære begivenheder, der udgør begivenheden A , og antallet af alle mulige elementære begivenheder N :
Antag for eksempel, at der kastes to terninger. Det samlede antal lige mulige udfald (elementære hændelser) er 36 (da der for hver af de 6 mulige udfald af den ene knogle er 6 mulige udfald af den anden). Estimer sandsynligheden for at få syv point. Du kan kun få 7 point med følgende kombinationer af resultater ved at kaste to terninger: 1+6, 2+5, 3+4, 4+3, 5+2, 6+1. Det vil sige i alt 6 lige sandsynlige udfald, der favoriserer at score 7 point ud af 36 mulige udfald af terningkastet. Derfor vil sandsynligheden være lig med 6/36, eller, hvis den forkortes, 1/6. Til sammenligning: sandsynligheden for at få 12 point eller 2 point er kun 1/36 - 6 gange mindre.
På trods af at den klassiske definition er intuitiv og afledt af praksis, kan den i det mindste ikke anvendes direkte, hvis antallet af lige så mulige udfald er uendeligt. Et slående eksempel på et uendeligt antal mulige udfald er et begrænset geometrisk område G, for eksempel på et plan, med et areal S. Et tilfældigt "kastet" "punkt" kan være ethvert punkt i denne region med lige stor sandsynlighed. Problemet er at bestemme sandsynligheden for, at et punkt falder ind i et eller andet underdomæne g med område s. I dette tilfælde, ved at generalisere den klassiske definition, kan vi komme til en geometrisk definition af sandsynligheden for at falde ind i underdomænet :
I lyset af den lige mulighed afhænger denne sandsynlighed ikke af formen af regionen g, den afhænger kun af dens areal. Denne definition kan naturligvis generaliseres til et rum af enhver dimension, hvor begrebet "volumen" bruges i stedet for areal. Desuden er det denne definition, der fører til den moderne aksiomatiske definition af sandsynlighed. Begrebet volumen er generaliseret til begrebet et mål for et eller andet abstrakt sæt, som kravene stilles til, som "volumenet" også har i den geometriske fortolkning - først og fremmest er disse ikke-negativitet og additivitet .
Den klassiske definition støder, når man betragter komplekse problemer, på vanskeligheder af uoverkommelig karakter. Især er det i nogle tilfælde muligvis ikke muligt at identificere lige så sandsynlige tilfælde. Selv når der er tale om en mønt, er der som bekendt en klart ikke lige sandsynlig mulighed for, at en "kant" falder ud, hvilket ikke kan estimeres ud fra teoretiske overvejelser (man kan kun sige, at det er usandsynligt, og denne betragtning er ret praktisk ). Derfor blev der ved begyndelsen af dannelsen af sandsynlighedsteorien foreslået en alternativ "frekvens" definition af sandsynlighed. Formelt kan sandsynligheden nemlig defineres som grænsen for hyppigheden af observationer af hændelsen A, under antagelse af homogeniteten af observationer (det vil sige ensartetheden af alle observationsbetingelser) og deres uafhængighed af hinanden:
hvor er antallet af observationer, og er antallet af forekomster af hændelsen .
På trods af at denne definition snarere peger på en måde at estimere en ukendt sandsynlighed på - ved hjælp af en lang række homogene og uafhængige observationer - afspejler denne definition alligevel indholdet af sandsynlighedsbegrebet. Nemlig, hvis en bestemt sandsynlighed tilskrives en begivenhed, som et objektivt mål for dens mulighed, så betyder det, at vi under faste forhold og flere gentagelser bør få en frekvens af dens forekomst tæt på (jo tættere, jo flere observationer). Faktisk er dette den oprindelige betydning af begrebet sandsynlighed. Den bygger på et objektivistisk syn på naturfænomener. Nedenfor vil vi overveje de såkaldte love for store tal, som giver et teoretisk grundlag (inden for rammerne af den moderne aksiomatiske tilgang præsenteret nedenfor), herunder for frekvensestimat af sandsynlighed.
På det tidspunkt, hvor sandsynlighedsteorien blev oprettet, var grundlaget for matematikken to klasser af objekter - tal og geometriske figurer. For sandsynlighedsteorien var det nødvendigt at tilføje et meget specielt objekt til denne liste: en tilfældig hændelse , såvel som begreber, der er tæt forbundet med den (sandsynlighed, tilfældig variabel osv.). Den nye videnskabs originalitet kom også til udtryk i, at dens udsagn ikke var ubetingede, som det tidligere var accepteret i matematikken, men formodentlig sandsynlighed. Derfor strides der i lang tid om, hvorvidt en idealiseret hændelse kan betragtes som et matematisk begreb (og så er sandsynlighedsteorien en del af matematikken) eller om det er en kendsgerning observeret i erfaring (og så burde sandsynlighedsteorien være henført til naturvidenskaberne) stoppede ikke.
Ifølge David Hilbert er sandsynlighedsteori relateret til mekanik, det vil sige, at det er en matematisk "fysisk disciplin" [5] . August de Morgan og hans tilhænger W. S. Jevons betragtede det grundlæggende begreb " subjektiv sandsynlighed ", det vil sige et kvantitativt mål for vores forståelse af studiets emne, og forbandt sandsynlighedsteorien med logik [6] . Problemer relateret til tvetydig subjektiv sandsynlighed er gentagne gange blevet diskuteret, de er ofte formuleret i form af "sandsynlighedsparadokser" (se f.eks. " paradokset med tre fanger " eller " en drengs og en piges paradoks "). En formalisering af subjektiv sandsynlighed forenelig med Kolmogorovs blev foreslået af Bruno de Finetti (1937) og Leonard Savage (1954).
I anden halvdel af det 20. århundrede undersøgte Alfred Renyi og A. N. Kolmogorov muligheden for at give en begrundelse for sandsynlighedsteorien på baggrund af informationsteori [7] . I vore dage "er der en klar forståelse af, at sandsynlighedsteorien er en sand matematisk videnskab, som samtidig har de tætteste og mest direkte forbindelser med en bred vifte af naturvidenskaber, såvel som med tekniske og socioøkonomiske discipliner" [8] .
På trods af effektiviteten af probabilistiske metoder bevist af praksis, er tilfældighedernes rolle i naturen, årsagen til og grænserne for statistisk stabilitet fortsat genstand for diskussion [9] . "I de 200 år, der er gået siden Laplace og Gauss tid, har videnskaben ikke gjort fremskridt med det grundlæggende spørgsmål - hvornår opstår statistisk stabilitet" [10] .
I den moderne matematiske tilgang er sandsynligheden givet af Kolmogorovs aksiomatik . Det antages, at der gives et vist rum af elementære begivenheder . Delmængder af dette rum fortolkes som tilfældige hændelser . Foreningen (summen) af nogle delmængder (hændelser) fortolkes som en hændelse, der består i forekomsten af mindst én af disse hændelser. Skæringspunktet (produktet) af delmængder (hændelser) fortolkes som en hændelse, der består i forekomsten af alle disse hændelser. Usammenhængende sæt tolkes som uforenelige hændelser (deres fælles forekomst er umulig). Derfor betyder et tomt sæt en umulig begivenhed.
Sandsynlighed ( sandsynlighedsmål ) er et mål (numerisk funktion) , givet på et sæt af hændelser, med følgende egenskaber:
Hvis rummet af elementære hændelser X er endeligt , så er den specificerede additivitetsbetingelse for vilkårlige to inkompatible hændelser tilstrækkelig, hvorfra additivitet vil følge for ethvert begrænset antal inkompatible hændelser. Men i tilfælde af et uendeligt ( tælleligt eller utalligt) rum af elementære begivenheder, er denne betingelse ikke nok. Den såkaldte tællelige eller sigma-additivitet er påkrævet , det vil sige opfyldelsen af additivitetsegenskaben for ikke mere end tællelige familier af parvise inkompatible hændelser. Dette er nødvendigt for at sikre "kontinuiteten" af sandsynlighedsmålingen.
Sandsynlighedsmålet er muligvis ikke defineret for alle delmængder af sættet . Det antages, at det er defineret på nogle sigma-algebra af delmængder [11] . Disse delmængder kaldes målbare med hensyn til det givne sandsynlighedsmål, og de er de tilfældige hændelser. Sættet - det vil sige sættet af elementære hændelser, sigma-algebraen af dets delmængder og sandsynlighedsmålet - kaldes sandsynlighedsrummet .
De grundlæggende egenskaber ved sandsynlighed er nemmest at bestemme ud fra den aksiomatiske definition af sandsynlighed.
1) sandsynligheden for en umulig hændelse (tomt sæt ) er lig med nul:
Dette følger af, at hver hændelse kan repræsenteres som summen af denne hændelse og en umulig hændelse, hvilket på grund af sandsynlighedsmålets additivitet og endelighed betyder, at sandsynligheden for en umulig hændelse skal være lig nul.
2) hvis hændelse A er inkluderet ("indtræder") i hændelse B, det vil sige, at forekomsten af hændelse A også medfører forekomsten af hændelse B, så:
Dette følger af sandsynlighedsmålingens ikke-negativitet og additivitet, da begivenheden sandsynligvis "indeholder" ud over begivenheden nogle andre begivenheder, der er uforenelige med .
3) sandsynligheden for hver hændelse er fra 0 til 1, det vil sige, at den opfylder ulighederne:
Den første del af uligheden (ikke-negativitet) hævdes aksiomatisk, og den anden følger af den tidligere egenskab, idet der tages højde for det faktum, at enhver begivenhed "inkluderer" i , mens det for aksiomatisk antages .
4) sandsynligheden for hændelsens indtræden , hvor , bestående i hændelsens indtræden med den samtidige manglende indtræden af hændelsen , er lig med:
Dette følger af additiviteten af sandsynligheden for uforenelige begivenheder og af det faktum, at begivenhederne og er betinget uforenelige, og deres sum er lig med begivenheden .
5) sandsynligheden for en begivenhed modsat begivenheden er lig med:
Dette følger af den tidligere egenskab, hvis vi bruger hele rummet som et sæt og tager højde for, at .
6) ( sætningen om tilføjelse af sandsynligheder ) sandsynligheden for forekomst af mindst én af (det vil sige summen af) vilkårlige (ikke nødvendigvis uforenelige) to begivenheder og er lig med:
Denne egenskab kan opnås, hvis vi repræsenterer foreningen af to vilkårlige mængder som foreningen af to ikke-skærende - den første og forskellen mellem den anden og skæringen af de oprindelige mængder: . Derfor, under hensyntagen til additiviteten af sandsynligheden for ikke-skærende mængder og formlen for sandsynligheden for forskellen (se egenskab 4) af mængder, opnår vi den nødvendige egenskab.
Sandsynligheden for, at begivenheden indtræffer , under forudsætning af, at begivenheden indtræffer , kaldes den betingede sandsynlighed (under den givne betingelse) og betegnes med . Den nemmeste måde er at udlede en formel til bestemmelse af betinget sandsynlighed baseret på den klassiske definition af sandsynlighed. For givet to hændelser og overvej følgende sæt af inkompatible hændelser: , som udtømmer alle mulige udfald (sådan et sæt hændelser kaldes komplet - se nedenfor). Det samlede antal lige sandsynlige udfald er . Hvis hændelsen allerede har fundet sted, er de lige mulige udfald begrænset til kun to hændelser , hvilket svarer til hændelsen . Lad antallet af disse resultater være . Af disse resultater er begivenheden kun begunstiget af dem, der er forbundet med begivenheden . Antallet af tilsvarende udfald vil blive angivet med . Derefter, ifølge den klassiske definition af sandsynlighed, vil sandsynligheden for en hændelse under betingelsen af hændelsens forekomst være lig med , ved at dividere tælleren og nævneren med det samlede antal lige mulige udfald og igen under hensyntagen til den klassiske definition , får vi endelig den betingede sandsynlighedsformel:
.Dette indebærer den såkaldte sandsynlighedsmultiplikationssætning :
.I kraft af symmetri kan det på samme måde vises, at også Bayes -formlen følger :
Hændelser A og B kaldes uafhængige , hvis sandsynligheden for, at en af dem indtræffer, ikke afhænger af, om den anden hændelse fandt sted. Under hensyntagen til begrebet betinget sandsynlighed betyder dette , at hvoraf det følger, at ligheden for uafhængige begivenheder
Inden for rammerne af den aksiomatiske tilgang tages denne formel som en definition af begrebet uafhængighed af to begivenheder. For et vilkårligt (finite) sæt af hændelser betyder deres uafhængighed i aggregatet , at sandsynligheden for deres fælles forekomst er lig med produktet af deres sandsynligheder:
Den betingede sandsynlighedsformel, der er afledt (inden for rammerne af den klassiske definition af sandsynlighed) ovenfor i den aksiomatiske definition af sandsynlighed, er definitionen af betinget sandsynlighed. Som en konsekvens af definitionerne af uafhængige hændelser og betinget sandsynlighed er de betingede og ubetingede sandsynligheder for en hændelse ens.
Et sæt hændelser , hvoraf mindst én nødvendigvis (med en enkelt sandsynlighed) vil forekomme som et resultat af testen, kaldes komplet . Det betyder, at sættet af sådanne begivenheder udtømmer alle mulige udfald. Formelt set betyder det inden for rammerne af den aksiomatiske tilgang, at . Hvis disse hændelser er uforenelige, betyder det inden for rammerne af den klassiske definition, at summen af antallet af elementære hændelser, der favoriserer en eller anden hændelse, er lig med det samlede antal lige mulige udfald.
Lad der være et komplet sæt af parvis inkompatible hændelser . Så for enhver hændelse er følgende formel til beregning af dens sandsynlighed sand ( samlet sandsynlighedsformel ):
Derefter kan Bayes-formlen beskrevet ovenfor, under hensyntagen til den samlede sandsynlighed, skrives i følgende form:
Denne formel er grundlaget for en alternativ tilgang til sandsynlighed - den Bayesianske eller subjektive tilgang (se nedenfor).
Det vigtigste særlige tilfælde af anvendelsen af "sandsynlighed" er sandsynligheden for at opnå som et resultat af test eller observation af en eller anden numerisk værdi af en målt (observeret) størrelse. Det antages, at før testen (observation) er den nøjagtige værdi af denne mængde ukendt, det vil sige, at der normalt (med undtagelse af kvantefysik) er en klar usikkerhed forbundet med umuligheden af at tage højde for alle de faktorer, der påvirker resultatet . Sådanne mængder kaldes tilfældige . I moderne sandsynlighedsteori er begrebet en stokastisk variabel formaliseret, og det defineres som en funktion af "tilfældighed" - en funktion på elementære begivenheders rum. Med en sådan definition er det ikke de elementære begivenheder i sig selv, der observeres, men "erkendelser", specifikke værdier af en tilfældig variabel. For eksempel, når en mønt kastes, kommer den op i hoveder eller haler. Hvis vi introducerer en funktion, der forbinder "haler" med tallet 1, og "ørne" med 0, så får vi en stokastisk variabel som funktion af de angivne udfald. I dette tilfælde generaliseres begrebet tilfældig variabel til funktioner, der kortlægger rummet af elementære begivenheder til et eller andet rum af vilkårlig karakter, henholdsvis, vi kan introducere begreberne en tilfældig vektor , et tilfældigt sæt osv. Men normalt Ved en stokastisk variabel forstås præcis en numerisk funktion (værdi).
Abstraheret fra den beskrevne formalisering kan rummet af elementære begivenheder forstås som sættet af mulige værdier af en tilfældig variabel. Sigma-algebraen af delmængder er vilkårlige intervaller på den reelle akse, deres mulige (tællelige) foreninger og skæringspunkter. Sandsynlighedsmålet kaldes i dette tilfælde fordelingen af en stokastisk variabel. Det er tilstrækkeligt at specificere et sandsynlighedsmål for intervaller af formen , da et vilkårligt interval kan repræsenteres som en forening eller skæring af sådanne intervaller. Det antages, at hvert interval af ovenstående type er forbundet med en vis sandsynlighed , det vil sige en bestemt funktion af mulige værdier . En sådan funktion kaldes en integral, kumulativ eller blot en fordelingsfunktion af en tilfældig variabel. I tilfælde af differentiabilitet af denne funktion (i dette tilfælde kaldes de tilsvarende stokastiske variable kontinuert ), introducerer vi også en analytisk ofte mere bekvem funktion - fordelingstætheden - den afledte af fordelingsfunktionen: . I tilfælde af diskrete stokastiske variable kan man i stedet for tæthed (som ikke eksisterer i dette tilfælde) direkte bruge fordelingsrækken - sandsynligheden for den -th værdi. Den tilsvarende distributionsfunktion vil være relateret til distributionsserien som: . Sandsynligheden for, at en stokastisk variabel vil være i et bestemt interval, er defineret som forskellen mellem værdierne af fordelingsfunktionen i enderne af dette interval. Med hensyn til fordelingstætheden er dette det tilsvarende integral af tætheden på et givet interval (for en diskret tilfældig variabel er det simpelthen summen af sandsynligheden for værdier fra dette interval).
Fordelingen af en stokastisk variabel giver dens fuldstændige karakteristik. Individuelle karakteristika ved denne fordeling bruges dog ofte. Først og fremmest er dette den matematiske forventning til en tilfældig variabel - den gennemsnitlige forventede værdi af en tilfældig variabel, under hensyntagen til vægtningen af sandsynligheden for forekomsten af visse værdier, og variansen eller variationen - den gennemsnitlige kvadrat af afvigelsen af en tilfældig variabel fra dens matematiske forventning. I nogle tilfælde bruges andre egenskaber, blandt hvilke asymmetri og kurtosis er vigtige . De beskrevne indikatorer er særlige tilfælde af de såkaldte distributionsmomenter .
Der er nogle standard distributionslove, som ofte bruges i praksis. Først og fremmest er dette en normalfordeling (gaussisk fordeling). Det er fuldt ud karakteriseret ved to parametre - matematisk forventning og varians. Dens brede anvendelse er især forbundet med de såkaldte grænsesætninger (se nedenfor). Når hypoteser testes, opstår der ofte chi-kvadratfordelinger , Students fordelinger og Fishers fordelinger . Ved analyse af diskrete stokastiske variable tages der hensyn til binomialfordelingen , Poisson -fordelingen osv. Gammafordelingen tages også ofte i betragtning , hvoraf et særligt tilfælde er den eksponentielle fordeling samt Chi-kvadratfordelingen angivet ovenfor. Naturligvis er fordelingerne brugt i praksis er ikke begrænset til disse distributioner.
Ofte antages det i praksis ud fra a priori overvejelser, at sandsynlighedsfordelingen af en given stokastisk variabel refererer til en eller anden fordeling kendt op til parametre. For eksempel til den samme normalfordeling, men med en ukendt matematisk forventning og varians (disse to parametre bestemmer entydigt hele normalfordelingen). Opgaven for de statistiske videnskaber (matematisk statistik, økonometri osv.) er i dette tilfælde at estimere værdierne af disse parametre på den mest effektive (nøjagtige) måde. Der er kriterier, ud fra hvilke man kan fastslå graden af "sandhed" af de respektive evalueringsmetoder. Normalt kræves i det mindste validiteten af estimatoren , upartiskhed og effektivitet i nogle klasse af estimatorer.
I praksis anvendes også ikke-parametriske metoder til at estimere fordelinger.
Af afgørende betydning i sandsynlighedsteorien og i dens anvendelser er en gruppe af sætninger, normalt kombineret under navnet " lov om store tal " eller grænsesætninger . Uden at ty til strenge formuleringer kan vi f.eks. sige, at under visse svage forhold tenderer gennemsnitsværdien af uafhængige identisk fordelte stokastiske variabler til deres matematiske forventning til et tilstrækkeligt stort antal af disse stokastiske variable. Hvis vi betragter uafhængige observationer af den samme tilfældige variabel som et sæt af tilfældige variable, betyder det, at gennemsnittet over stikprøveobservationer bør vende til den sande (ukendte) matematiske forventning af denne tilfældige variabel. Dette er loven om store tal i Chebyshev- form . Dette giver grundlag for at opnå passende skøn.
Et meget specielt, men meget vigtigt tilfælde er Bernoulli -ordningen - uafhængige tests, som et resultat af hvilke en begivenhed enten opstår eller ej. Det antages, at i hvert forsøg er sandsynligheden for, at hændelsen indtræffer, den samme og ens (men den er ukendt). Dette skema kan reduceres til en gennemsnitsværdi, hvis vi indfører en formel stokastisk variabel X, som er en indikator for forekomsten af en begivenhed: den er lig med 1, når begivenheden indtræffer, og 0, når begivenheden ikke indtræffer. For en sådan stokastisk variabel er den matematiske forventning også lig med . Så er gennemsnitsværdien af en sådan tilfældig variabel faktisk hyppigheden af hændelsens forekomst . Ifølge ovenstående sætning skal dette gennemsnit (frekvens) vende til den sande matematiske forventning af denne tilfældige variabel, det vil sige til den ukendte sandsynlighed . Når antallet af observationer stiger, kan frekvensen af hændelsen således bruges som et godt skøn over den ukendte sandsynlighed. Dette er den såkaldte Bernoullis lov om store tal. Denne lov var historisk set den første lov af store tal. Mere stringent kan man i det mindste hævde, at sandsynligheden for, at frekvensen vil afvige med en vis mængde, har en tendens til nul for alle værdier på . Et mere generelt resultat ( Glivenko-Cantelli-sætningen ) er, at den empiriske fordeling generelt tenderer til en sand sandsynlighedsfordeling, når antallet af observationer stiger.
Sammen med disse sætninger findes den såkaldte centrale grænsesætning , som giver den begrænsende sandsynlighedsfordeling for middelværdien, nemlig under visse svage forhold har middelværdien af observationer af en stokastisk variabel med et tilstrækkeligt stort antal observationer en normalfordeling ( uanset den indledende fordeling af selve den stokastiske variabel). For eksempel er dette tilfældet for middelværdien af uafhængige identisk fordelte stokastiske variable. Især er dette teorem også anvendeligt til Bernoulli-skemaet. Generelt har antallet af forekomster af hændelse A i n forsøg en binomialfordeling , men med et tilstrækkeligt stort antal observationer tenderer denne fordeling ifølge den angivne sætning til en normalfordeling i dette tilfælde med forventningen og variansen , hvor er sandsynligheden for forekomst af hændelse A i hvert forsøg. Dette er angivet i Moivre-Laplaces lokale og integralsætninger . Ovenstående konklusion følger også herfra, nemlig: gennemsnitsværdien af hændelsens tilfældige variabel-indikator - det vil sige hyppigheden af hændelsens forekomst i testene - vil i grænsen have den matematiske forventning og variansen , som har en tendens til nul med en stigning i antallet af tests. Frekvensen tenderer således til den sande sandsynlighed for, at hændelsen indtræffer med en stigning i antallet af uafhængige forsøg, og vi kender frekvensfordelingen med et tilstrækkeligt stort antal observationer (strengt taget, i grænsen, ophører frekvensen med at være en tilfældig variabel, så det er mere korrekt at tale om fordelingen af ikke frekvensen, men størrelsen - det er den i grænsen har en normalfordeling med nul matematisk forventning og varians ).
Den objektive (frekvens) tilgang beskrevet ovenfor er baseret på antagelsen om, at der er en objektiv usikkerhed iboende i de undersøgte fænomener. I den alternative Bayesianske tilgang tolkes usikkerhed subjektivt - som et mål for vores uvidenhed. Inden for rammerne af den Bayesianske tilgang forstås sandsynlighed som graden af tillid til sandheden af en påstand - subjektiv sandsynlighed.
Ideen med den Bayesianske tilgang er at bevæge sig fra a priori til a posteriori viden under hensyntagen til de observerede fænomener. Essensen af den Bayesianske tilgang følger af Bayes-formlen beskrevet ovenfor. Lad der være et komplet sæt af hypoteser , og ud fra a priori overvejelser estimeres sandsynligheden for gyldigheden af disse hypoteser (graden af tillid til dem). Fuldstændigheden af sættet betyder, at mindst én af disse hypoteser er sande, og summen af a priori sandsynligheder er lig med 1. Også for den undersøgte begivenhed, ud fra a priori overvejelser, er sandsynligheden kendt - sandsynligheden for hændelsen af begivenheden , forudsat at hypotesen er sand . Derefter kan du ved hjælp af Bayes-formlen bestemme de posteriore sandsynligheder - det vil sige graden af tillid til hypotesens gyldighed efter hændelsen er indtruffet. Faktisk kan proceduren gentages ved at tage de nye sandsynligheder som a priori og igen udføre testen og derved iterativt forfine hypotesernes posteriore sandsynligheder.
Især, i modsætning til den grundlæggende tilgang til estimering af fordelinger af stokastiske variable, hvor det antages, at værdierne af ukendte fordelingsparametre estimeres baseret på observationer, antager den bayesianske tilgang, at parametrene også er stokastiske variable (set fra et synspunkt vores uvidenhed om deres værdier). Disse eller de mulige værdier af parametre fungerer som hypoteser, og nogle a priori tætheder af ukendte parametre antages af dataene . Den posteriore fordeling tjener som et estimat af de ukendte parametre. Lad nogle værdier af den undersøgte stokastiske variabel opnås som et resultat af observationer. Derefter, for værdierne af denne prøve, forudsat at sandsynligheden er kendt - sandsynligheden (densiteten) for at opnå denne prøve for givne værdier af parametrene i henhold til Bayes-formlen (i dette tilfælde en kontinuerlig analog til denne formel, hvor tætheder er involveret i stedet for sandsynligheder, og summering erstattes af integration), opnår vi a posteriori sandsynlighed (densitet) parametre for denne prøve.
Lad der være lige så sandsynlige udfald. Graden af erfaringsusikkerhed i denne situation kan karakteriseres ved et antal . Denne indikator, som blev introduceret af kommunikationsingeniøren Hartley i 1928, karakteriserer den information, du skal have for at vide, hvilke af de lige så mulige muligheder der finder sted, det vil sige at reducere erfaringens usikkerhed til nul. Den nemmeste måde at finde ud af det på er at stille spørgsmål som "tallet på resultatet er mindre end halvdelen af N", hvis ja, så kan et lignende spørgsmål stilles til en af halvdelene (afhængigt af svaret på spørgsmålet), osv. Besvarelse af hvert sådant spørgsmål reducerer usikkerheden. I alt vil sådanne spørgsmål for fuldstændig fjernelse af usikkerhed være nødvendige bare . Mere formelt kan antallet af udfald repræsenteres i et binært talsystem, så - dette er antallet af nødvendige bits til en sådan repræsentation, det vil sige mængden af information i bit , som du kan kode implementeringen af lige så evt. resultater. Generelt kan informationsenheden være forskellig, så logaritmen kan teoretisk bruges med en hvilken som helst base (hvis vi f.eks. vil ændre information i bytes, så skal vi bruge logaritmen i base 256).
Lad nu en tilfældig variabel α blive givet, fordelt på udfald med sandsynligheder , , så bestemmes mængden af information i den stokastiske variabel α som følger ( Shannon-formel ):
hvor er tegnet på matematisk forventning .
Med ligesandsynlige udfald ( ) får vi den allerede kendte relation . For en kontinuert stokastisk variabel i denne formel, i stedet for sandsynligheder, er det nødvendigt at bruge fordelingstæthedsfunktionen og i stedet for summen, det tilsvarende integral.
Den angivne værdi kaldes information, informationsmængde, informationsentropi osv. En sådan definition af information er abstraheret fra ethvert indhold af information, indholdet af specifikke resultater. Informationsmængden bestemmes kun ud fra sandsynligheder. Shannon kaldte mængden entropi på grund af dens lighed med termodynamisk entropi. Sidstnævnte koncept blev først introduceret af Rudolf Clausis i 1865, og den probabilistiske fortolkning af entropi blev givet af Ludwig Boltzmann i 1877. Entropien af et makroskopisk system er et mål for antallet af mulige mikrotilstande for en given makrotilstand (mere specifikt er den proportional med logaritmen af antallet af mikrotilstande - statistisk vægt ) eller et mål for makrosystemets "indre forstyrrelse" .
I kvantemekanikken er tilstanden af et system (partikel) karakteriseret ved en bølgefunktion (generelt talt en tilstandsvektor) - en komplekst værdisat funktion af "koordinater", hvis kvadrat af modulet fortolkes som sandsynlighedstætheden at opnå givne værdier af "koordinater". Ifølge moderne begreber er den probabilistiske definition af staten fuldstændig, og årsagen til kvantefysikkens sandsynlighed er ikke nogen "skjulte" faktorer - dette skyldes selve processernes natur. I kvantefysikken er enhver indbyrdes omdannelse af forskellige partikler mulige, som ikke er forbudt af den ene eller anden bevaringslov. Og disse gensidige transformationer er underlagt regelmæssigheder - sandsynlige regelmæssigheder. Ifølge moderne begreber er det grundlæggende umuligt at forudsige hverken tidspunktet for gensidig transformation eller det specifikke resultat. Man kan kun tale om sandsynligheden for visse transformationsprocesser. I stedet for nøjagtige klassiske størrelser i kvantefysikken er kun et estimat af gennemsnitsværdierne (matematiske forventninger) af disse mængder muligt, for eksempel en partikels gennemsnitlige levetid.
Ud over spørgsmålet om sandsynligheden for en kendsgerning kan der både på retsområdet og på det moralske område (med et vist etisk synspunkt) opstå spørgsmålet om, hvor sandsynligt det er, at en given kendsgerning udgør en overtrædelse af den almindelige lov. Dette spørgsmål, der tjener som hovedmotivet i Talmuds religiøse retspraksis , gav anledning til i den romersk -katolske moralteologi (især fra slutningen af det 16. århundrede) til meget komplekse systematiske konstruktioner og en enorm litteratur, dogmatisk og polemisk (se Probabilisme ). ) [1] .
![]() |
|
---|---|
I bibliografiske kataloger |
|
Logikker | |||||||||
---|---|---|---|---|---|---|---|---|---|
Filosofi • Semantik • Syntaks • Historie | |||||||||
Logiske grupper |
| ||||||||
Komponenter |
| ||||||||
Liste over booleske symboler |