Renyi entropi

I informationsteorien er Rényi-entropien , en generalisering af Shannon -entropien , en familie af funktionaler, der bruges som et mål for den kvantitative mangfoldighed, usikkerhed eller tilfældighed i et eller andet system. Opkaldt efter Alfred Renyi .

Hvis et system har et diskret sæt af tilgængelige tilstande , som svarer til sandsynlighedsfordelingen for (det vil sige sandsynligheden for, at systemet er i tilstande ), så defineres Rényi-entropien med parameteren (at og ) for systemet som

,

hvor vinkelparenteser angiver den matematiske forventning ved fordeling ( er sandsynligheden for, at systemet er i en bestemt tilstand som en tilfældig variabel ), tages logaritmen i grundtal 2 (til at tælle i bit) eller i en anden bekvem base (den skal være større end 1). Grundlaget for logaritmen bestemmer entropienheden. Så i matematisk statistik bruges den naturlige logaritme normalt .

Hvis alle sandsynligheder er , så er Rényi entropien for enhver . Ellers falder -entropien som funktion af . Desuden giver højere værdier (som går til det uendelige) Renyi-entropiværdierne, der stort set kun bestemmes af de højeste sandsynligheder for begivenheder (det vil sige, at bidraget fra tilstande med lav sandsynlighed til entropien falder). Det mellemliggende tilfælde i grænsen giver Shannon-entropien, som har særlige egenskaber. Lavere værdier (går til nul) giver en Rényi-entropiværdi, der vægter mulige hændelser mere jævnt, mindre afhængig af deres sandsynligheder. Og når vi får den maksimalt mulige -entropi lig uanset fordelingen (hvis kun ).

Betydningen af ​​parameteren kan, uformelt talt, beskrives som den funktionelles modtagelighed for afvigelsen af ​​systemets tilstand fra ligevægtstilstanden: jo større , jo hurtigere falder entropien, når systemet afviger fra ligevægtstilstanden. Betydningen af ​​begrænsningen er at give en stigning i entropi, når systemet nærmer sig en ligevægtstilstand (mere sandsynlig). Dette krav er naturligt for begrebet entropi . Det skal bemærkes, at for Tsallis-entropien , som svarer til Renyi-entropien op til en monoton transformation uafhængig af , udelades den tilsvarende begrænsning ofte, mens dens minimering for negative værdier af parameteren i stedet for at maksimere entropien anvendes.

Rényi-entropien spiller en vigtig rolle i økologi og statistik, idet den definerer de såkaldte diversitetsindekser . Rényi-entropien er også vigtig i kvanteinformation og kan bruges som et mål for kompleksitet . I Heisenberg-kæden blev Rényi-entropien beregnet i form af modulære funktioner afhængigt af . De fører også til et spektrum af fraktale dimensionseksponenter .

H α for nogle specifikke værdier af α

Nogle særlige tilfælde

.

Denne entropi kaldes nogle gange for Hartley-entropien . Det bruges for eksempel i formuleringen af ​​Boltzmann-princippet .

. ,

hvor og er uafhængige stokastiske variable ligeligt fordelt på mængden med sandsynligheder ( ). Kvadratisk entropi bruges i fysik , signalbehandling , økonomi .

,

som kaldes min-entropi , fordi det er den mindste værdi af . Denne entropi er også et degenereret tilfælde, da dens værdi kun bestemmes af den mest sandsynlige tilstand.

Uligheder for forskellige værdier af α

De sidste to sager er relateret til . På den anden side kan Shannon-entropien være vilkårligt høj for en fordeling X med en fast min-entropi.

fordi . , fordi . ifølge Jensens ulighed .

Afvigelser (divergenser) af Renyi

Ud over entropifamilien definerede Rényi også en række divergensmål (divergenser), der generaliserer Kullback-Leibler divergensen . Formlerne i dette afsnit er skrevet i en generel form - gennem en logaritme i en vilkårlig base. Derfor skal du forstå, at hver given formel er en familie af ækvivalente funktionaler defineret op til en konstant (positiv) faktor.

Rényi divergensen med parameter , hvor og , fordeling i forhold til fordeling (eller "afstand fra til ") er defineret som

eller (formelt uden at tage højde for normaliseringen af ​​sandsynligheder)

, .

Ligesom Kullback-Leibler-divergensen af ​​, er Rényi-divergensen ikke-negativ for .

Nogle særlige tilfælde

 : minus logaritmen af ​​summen af ​​sandsynligheder således at den tilsvarende .

Finansiel (spil) fortolkning

Overvej et spil (lotteri) ved at gætte en tilfældig variabel. De officielle vinderrater er kendt og offentliggjort som en sandsynlighedsfordeling . I mellemtiden falder den sande sandsynlighedsfordeling muligvis ikke sammen med . At kende den sande fordeling gør det muligt for spilleren at tjene. Den forventede kapitalvækst er eksponentiel. I betragtning af at fordelingen er korrekt , kan spilleren beregne (hans) matematiske forventninger til den eksponentielle vækstrate for kapital (pr. spillets runde) [Soklakov2020 ]:

Forventet vækst


hvor angiver det relative mål for Arrow-Pratt risikoaversion.

Ved at angive den sande fordeling (der ikke nødvendigvis falder sammen med spillerens mening ), kan den faktisk opnåede vækst beregnes i grænsen for et spil med flere spil [Soklakov2020 ]:

Faktisk højde

Hvorfor er tilfældet α = 1 speciel

Værdien af ​​, som svarer til Shannon-entropien og Kullback-Leibler divergensen , er speciel, fordi kun i dette tilfælde kan man udtrække variablerne A og X fra den fælles sandsynlighedsfordeling, således at

for entropi, og

for divergens.

Sidstnævnte betyder, at hvis vi leder efter en fordeling , der minimerer afvigelserne i nogle underliggende mål , og vi får ny information, som kun påvirker fordelingen , så vil fordelingen ikke blive påvirket af ændringer i .

I det generelle tilfælde opfylder Rényi divergenser med vilkårlige værdier betingelserne for ikke-negativitet, kontinuitet og invarians under transformation af koordinater af tilfældige variable. En vigtig egenskab ved enhver Rényi-entropi og divergens er additivitet: når og er uafhængige, følger det, at

og

.

De stærkeste case-egenskaber , som involverer definitionen af ​​betinget information og gensidig information fra kommunikationsteori, kan være meget vigtige i andre applikationer, eller slet ikke vigtige, afhængigt af kravene til disse applikationer.

Renyi krydsentropi

Krydsentropien af ​​to fordelinger med sandsynligheder og ( ) i det generelle tilfælde kan defineres på forskellige måder (afhængigt af applikationen), men skal opfylde betingelsen . En af definitionerne ( Shannon-krydsentropien har en lignende egenskab ):

.

En anden definition foreslået af A. Renyi kan fås ud fra følgende betragtninger. Vi definerer det effektive antal systemtilstande som det geometriske vægtede gennemsnit af værdier med vægte :

.

Dette indebærer udtrykket for Shannons krydsentropi

.

Argumenterer på en lignende måde, definerer vi det effektive antal systemtilstande som et vægtet effektlovgennemsnit af værdier med vægte og parameter :

.

Således har Renyi krydsentropien formen

.

Kontinuerlig kasus

For en formel generalisering af Shannon-entropien til tilfældet med en kontinuerlig fordeling, bruges begrebet differentiel entropi . Rényi differentialentropien er defineret på nøjagtig samme måde:

.

Rényi divergensen i det kontinuerlige tilfælde er også en generalisering af Kullback-Leibler divergensen og har formen

.

Definitionen af ​​krydsentropi, foreslået af A. Renyi, i det kontinuerlige tilfælde har formen

.

I ovenstående formler , og er nogle sandsynlighedstæthedsfunktioner , defineret på intervallet , og det antages , at .

Litteratur