I informationsteorien er Rényi-entropien , en generalisering af Shannon -entropien , en familie af funktionaler, der bruges som et mål for den kvantitative mangfoldighed, usikkerhed eller tilfældighed i et eller andet system. Opkaldt efter Alfred Renyi .
Hvis et system har et diskret sæt af tilgængelige tilstande , som svarer til sandsynlighedsfordelingen for (det vil sige sandsynligheden for, at systemet er i tilstande ), så defineres Rényi-entropien med parameteren (at og ) for systemet som
,hvor vinkelparenteser angiver den matematiske forventning ved fordeling ( er sandsynligheden for, at systemet er i en bestemt tilstand som en tilfældig variabel ), tages logaritmen i grundtal 2 (til at tælle i bit) eller i en anden bekvem base (den skal være større end 1). Grundlaget for logaritmen bestemmer entropienheden. Så i matematisk statistik bruges den naturlige logaritme normalt .
Hvis alle sandsynligheder er , så er Rényi entropien for enhver . Ellers falder -entropien som funktion af . Desuden giver højere værdier (som går til det uendelige) Renyi-entropiværdierne, der stort set kun bestemmes af de højeste sandsynligheder for begivenheder (det vil sige, at bidraget fra tilstande med lav sandsynlighed til entropien falder). Det mellemliggende tilfælde i grænsen giver Shannon-entropien, som har særlige egenskaber. Lavere værdier (går til nul) giver en Rényi-entropiværdi, der vægter mulige hændelser mere jævnt, mindre afhængig af deres sandsynligheder. Og når vi får den maksimalt mulige -entropi lig uanset fordelingen (hvis kun ).
Betydningen af parameteren kan, uformelt talt, beskrives som den funktionelles modtagelighed for afvigelsen af systemets tilstand fra ligevægtstilstanden: jo større , jo hurtigere falder entropien, når systemet afviger fra ligevægtstilstanden. Betydningen af begrænsningen er at give en stigning i entropi, når systemet nærmer sig en ligevægtstilstand (mere sandsynlig). Dette krav er naturligt for begrebet entropi . Det skal bemærkes, at for Tsallis-entropien , som svarer til Renyi-entropien op til en monoton transformation uafhængig af , udelades den tilsvarende begrænsning ofte, mens dens minimering for negative værdier af parameteren i stedet for at maksimere entropien anvendes.
Rényi-entropien spiller en vigtig rolle i økologi og statistik, idet den definerer de såkaldte diversitetsindekser . Rényi-entropien er også vigtig i kvanteinformation og kan bruges som et mål for kompleksitet . I Heisenberg-kæden blev Rényi-entropien beregnet i form af modulære funktioner afhængigt af . De fører også til et spektrum af fraktale dimensionseksponenter .
Denne entropi kaldes nogle gange for Hartley-entropien . Det bruges for eksempel i formuleringen af Boltzmann-princippet .
hvor og er uafhængige stokastiske variable ligeligt fordelt på mængden med sandsynligheder ( ). Kvadratisk entropi bruges i fysik , signalbehandling , økonomi .
som kaldes min-entropi , fordi det er den mindste værdi af . Denne entropi er også et degenereret tilfælde, da dens værdi kun bestemmes af den mest sandsynlige tilstand.
De sidste to sager er relateret til . På den anden side kan Shannon-entropien være vilkårligt høj for en fordeling X med en fast min-entropi.
fordi . , fordi . ifølge Jensens ulighed .Ud over entropifamilien definerede Rényi også en række divergensmål (divergenser), der generaliserer Kullback-Leibler divergensen . Formlerne i dette afsnit er skrevet i en generel form - gennem en logaritme i en vilkårlig base. Derfor skal du forstå, at hver given formel er en familie af ækvivalente funktionaler defineret op til en konstant (positiv) faktor.
Rényi divergensen med parameter , hvor og , fordeling i forhold til fordeling (eller "afstand fra til ") er defineret som
eller (formelt uden at tage højde for normaliseringen af sandsynligheder)
, .Ligesom Kullback-Leibler-divergensen af , er Rényi-divergensen ikke-negativ for .
Overvej et spil (lotteri) ved at gætte en tilfældig variabel. De officielle vinderrater er kendt og offentliggjort som en sandsynlighedsfordeling . I mellemtiden falder den sande sandsynlighedsfordeling muligvis ikke sammen med . At kende den sande fordeling gør det muligt for spilleren at tjene. Den forventede kapitalvækst er eksponentiel. I betragtning af at fordelingen er korrekt , kan spilleren beregne (hans) matematiske forventninger til den eksponentielle vækstrate for kapital (pr. spillets runde) [Soklakov2020 ]:
Forventet vækst
hvor angiver det relative mål for Arrow-Pratt risikoaversion.
Ved at angive den sande fordeling (der ikke nødvendigvis falder sammen med spillerens mening ), kan den faktisk opnåede vækst beregnes i grænsen for et spil med flere spil [Soklakov2020 ]:
Faktisk højdeVærdien af , som svarer til Shannon-entropien og Kullback-Leibler divergensen , er speciel, fordi kun i dette tilfælde kan man udtrække variablerne A og X fra den fælles sandsynlighedsfordeling, således at
for entropi, og
—for divergens.
Sidstnævnte betyder, at hvis vi leder efter en fordeling , der minimerer afvigelserne i nogle underliggende mål , og vi får ny information, som kun påvirker fordelingen , så vil fordelingen ikke blive påvirket af ændringer i .
I det generelle tilfælde opfylder Rényi divergenser med vilkårlige værdier betingelserne for ikke-negativitet, kontinuitet og invarians under transformation af koordinater af tilfældige variable. En vigtig egenskab ved enhver Rényi-entropi og divergens er additivitet: når og er uafhængige, følger det, at
og
.De stærkeste case-egenskaber , som involverer definitionen af betinget information og gensidig information fra kommunikationsteori, kan være meget vigtige i andre applikationer, eller slet ikke vigtige, afhængigt af kravene til disse applikationer.
Krydsentropien af to fordelinger med sandsynligheder og ( ) i det generelle tilfælde kan defineres på forskellige måder (afhængigt af applikationen), men skal opfylde betingelsen . En af definitionerne ( Shannon-krydsentropien har en lignende egenskab ):
.En anden definition foreslået af A. Renyi kan fås ud fra følgende betragtninger. Vi definerer det effektive antal systemtilstande som det geometriske vægtede gennemsnit af værdier med vægte :
.Dette indebærer udtrykket for Shannons krydsentropi
.Argumenterer på en lignende måde, definerer vi det effektive antal systemtilstande som et vægtet effektlovgennemsnit af værdier med vægte og parameter :
.Således har Renyi krydsentropien formen
.For en formel generalisering af Shannon-entropien til tilfældet med en kontinuerlig fordeling, bruges begrebet differentiel entropi . Rényi differentialentropien er defineret på nøjagtig samme måde:
.Rényi divergensen i det kontinuerlige tilfælde er også en generalisering af Kullback-Leibler divergensen og har formen
.Definitionen af krydsentropi, foreslået af A. Renyi, i det kontinuerlige tilfælde har formen
.I ovenstående formler , og er nogle sandsynlighedstæthedsfunktioner , defineret på intervallet , og det antages , at .