Informationsteori

Informationsteori  er en gren af ​​anvendt matematik , radioteknik (signalbehandlingsteori ) og datalogi , der vedrører måling af mængden af ​​information , dens egenskaber og etablering af begrænsende forhold for datatransmissionssystemer. Som enhver matematisk teori opererer teorien med matematiske modeller og ikke med rigtige fysiske objekter (kilder og kommunikationskanaler ). Anvender hovedsageligt det matematiske apparat for sandsynlighedsteori og matematisk statistik .

De vigtigste grene af informationsteori er kildekodning ( komprimerende kodning ) og kanalkodning ( støjkorrigerende ). Informationsteori er tæt forbundet med informationsentropi , kommunikationssystemer, kryptografi og andre relaterede discipliner.

Feltet er i skæringspunktet mellem matematik , statistik , datalogi , fysik , neurovidenskab , informationsteknik og elektroteknik . Teorien har også fundet anvendelser på andre områder, herunder statistisk inferens , naturlig sprogbehandling , kryptografi , neurovidenskab [1] , menneskesyn [2] , evolution [3] og funktionen [4] af molekylære koder ( bioinformatik ), statistisk model selektion [5] , termisk fysik [6] , kvanteberegning , lingvistik , plagiatdetektion [7] , mønstergenkendelse og anomalidetektion [8] . Vigtige underområder af informationsteori omfatter datakomprimering , kanalkodning , algoritmisk kompleksitetsteori , algoritmisk informationsteori , informationsteoretisk sikkerhed, Gray's relationelle analyse og informationsmåling.

Introduktion

Fremkomsten af ​​informationsteori er forbundet med udgivelsen af ​​Claude Shannon af værket " Matematical Theory of Communication " i 1948 . Fra Shannons synspunkt er informationsteori en gren af ​​den matematiske kommunikationsteori. Informationsteori sætter hovedgrænserne for mulighederne for informationstransmissionssystemer, sætter de indledende principper for deres udvikling og praktiske implementering. Rækken af ​​problemer med informationsteori præsenteres ved hjælp af et blokdiagram, et typisk system til transmission eller lagring af information.

I skemaet er en kilde ethvert objekt i universet , der genererer beskeder, der skal flyttes i rum og tid . Uanset den oprindelige fysiske karakter konverteres alle meddelelser, der skal transmitteres, normalt til form af elektriske signaler , sådanne signaler betragtes som output fra kilden. Kildekoderen repræsenterer informationen i den mest kompakte form. Kanalkoderen behandler informationen for at beskytte meddelelser mod interferens under transmission over kommunikationskanalen eller mulige forvrængninger under informationslagring. Modulatoren konverterer meddelelserne genereret af kanalkoderen til signaler i overensstemmelse med den fysiske natur af kommunikationskanalen eller informationslagringsmediet. Informationsformidlingsmediet ( kommunikationskanalen ) introducerer tilfældig støj i informationstransmissionsprocessen, som forvrænger budskabet og derved gør det svært at læse. Blokkene placeret på modtagersiden udfører de omvendte operationer og giver modtageren information i en form, der er let at forstå .

Historie

Informationsteoriens fødsel forbindes ofte med Claude Shannon 's placering i juli-oktober 1948 af et værk i det amerikanske telefonselskab Bell Systems tidsskrift under titlen "Mathematical Theory of Communication". Men det er værd at nævne, at bidraget til formuleringen og konstruktionen af ​​informationsteori også blev givet af mange andre fremtrædende videnskabsmænd. Shannon selv skrev i begyndelsen af ​​sin artikel "Nogle af de vigtigste bestemmelser i denne teori findes i de vigtige værker af Nyquist og Hartley . På nuværende tidspunkt er teorien blevet udvidet til at omfatte en række nye faktorer, især påvirkningen af ​​støj i kanalen.

Grundlæggende udviklede Shannon retningen for Hartleys arbejde, ved at bruge begrebet "information", men udtrykket i sig selv forklarer ikke, det foreskriver kun, at beskeder kan have en form for "betydning", det vil sige henvise til et system, der har sin egen fysisk eller spekulativ essens ( kybernetisk system). Shannons teori blev oprindeligt betragtet som et præcist formuleret matematisk problem og gjorde det muligt at bestemme gennemløbet af en støjende kommunikationskanal.

Datakodning

Kodning er processen med at overføre en meddelelse ved input af en kommunikationskanal til en meddelelseskode ved output, mens meddelelsens informationsværdi skal forblive uændret. I informationsteori kan der skelnes mellem følgende afsnit:

1. Kodning af diskrete kilder (tabsfri datakodningsmodel).

2. Datakodning, der sikrer deres fejlfri transmission over en støjende kanal.

En kode er unikt afkodebar, hvis en sekvens af tegn fra kodens alfabet (og for det meste 0'er og 1'er) er opdelt i separate ord. Hvis ingen af ​​kodeordene er begyndelsen på et andet, kaldes koden en præfikskode, og den er unikt afkodelig. Derfor er præfiks en tilstrækkelig, men ikke nødvendig betingelse for unik afkodning. Præfikskravet begrænser mængden af ​​længder af kodeord og gør det ikke muligt at vælge kodeord, der er for korte. En nødvendig og tilstrækkelig betingelse for eksistensen af ​​en præfiksvolumenkode med kodeordslængder er opfyldelsen af ​​Krafts ulighed:

Det er også nødvendigt at overveje Shannon-Fano-koden  - en algoritme til præfiks ikke-ensartet kodning. Denne indkodningsmetode bruger redundansen af ​​meddelelsen, som ligger i den uensartede frekvensfordeling af tegnene i dets alfabet, det vil sige, den erstatter koderne for hyppigere tegn med korte binære sekvenser og koderne for sjældnere tegn med længere binære sekvenser. Overvej en kilde, der vælger bogstaver fra et sæt med sandsynligheder . Vi antager, at bogstaverne er ordnet i faldende rækkefølge af sandsynligheder ( ). Kodeordet i Shannon-koden for en besked med et tal er en binær sekvens, som er de første cifre efter decimaltegnet i den binære notation af tallet :

3. Datakodning for systemer med mange brugere beskriver den optimale interaktion mellem abonnenter ved hjælp af en fælles ressource, for eksempel en kommunikationskanal.

Se også

Noter

  1. F. Rieke; D. Krigsland; R Ruyter van Steveninck; W Bialek. Spikes: Exploring the Neural Code  (ubestemt) . - The MIT press, 1997. - ISBN 978-0262681087 .
  2. Delgado-Bonal, Alfonso; Martin-Torres, Javier. Menneskets syn bestemmes ud fra informationsteori  // Videnskabelige  rapporter. - 2016. - 3. november ( bind 6 , nr. 1 ). — ISSN 2045-2322 . - doi : 10.1038/srep36038 . - . Arkiveret fra originalen den 24. februar 2021.
  3. jf; Huelsenbeck, JP; Ronquist, F.; Nielsen, R.; Bollback, JP Bayesiansk slutning om fylogeni og dens indvirkning på evolutionær biologi  (engelsk)  // Science : journal. - 2001. - Bd. 294 , nr. 5550 . - S. 2310-2314 . - doi : 10.1126/science.1065889 . - .
  4. Allikmets, Rando; Wasserman, Wyeth W.; Hutchinson, Amy; Smallwood, Philip; Nathans, Jeremy; Rogan, Peter K. Thomas D. Schneider , Michael Dean (1998) Organisation af ABCR-genet: analyse af promotor- og splejsningsforbindelsessekvenser  ]  // Gene : journal. - Elsevier , 1998. - Vol. 215 , nr. 1 . - S. 111-122 . - doi : 10.1016/s0378-1119(98)00269-8 . Arkiveret fra originalen den 21. august 2008.
  5. Burnham, KP og Anderson DR (2002) Model Selection and Multimodel Inference: A Practical Information-Theoretic Approach, Second Edition (Springer Science, New York) ISBN 978-0-387-95364-9 .
  6. Jaynes, ET Informationsteori og statistisk mekanik   // Phys . Rev.  : journal. - 1957. - Bd. 106 , nr. 4 . — S. 620 . - doi : 10.1103/physrev.106.620 . - . Arkiveret fra originalen den 30. august 2011.
  7. Bennett, Charles H.; Li, Ming; Mor, Bin. Kædebreve og evolutionære historier  (engelsk)  // Scientific American . - Springer Nature , 2003. - Vol. 288 , nr. 6 . - S. 76-81 . - doi : 10.1038/scientificamerican0603-76 . — . — PMID 12764940 . Arkiveret fra originalen den 7. oktober 2007.
  8. David R. Anderson. Lidt baggrund om, hvorfor folk i de empiriske videnskaber måske ønsker at forstå de informationsteoretiske metoder bedre (pdf) (1. november 2003). Hentet 23. juni 2010. Arkiveret fra originalen 23. juli 2011.

Litteratur

Links