Claude Elwood Shannon | |
---|---|
Claude Elwood Shannon | |
Fødselsdato | 30. april 1916 [1] [2] [3] […] |
Fødselssted | |
Dødsdato | 24. februar 2001 [1] [2] [3] […] (84 år) |
Et dødssted |
|
Land | |
Videnskabelig sfære | elektroteknik , informationsteori , kybernetik , matematik , kryptografi |
Arbejdsplads | |
Alma Mater |
|
Akademisk grad | PhD [8] ( 1940 ), B.Sc. [6] ( 1936 ) og M.Sc. [d] [6] ( 1937 ) |
videnskabelig rådgiver |
Vanivar Bush Frank Hitchcock |
Kendt som | forfatter til grundlæggende værker om informationsteori, elektroteknik og kryptografi |
Priser og præmier |
|
Mediefiler på Wikimedia Commons |
Claude Elwood Shannon ( engelsk Claude Elwood Shannon ; 30. april 1916 , Petoskey , Michigan , USA - 24. februar 2001 , Medford , Massachusetts , USA ) er en amerikansk ingeniør , kryptoanalytiker og matematiker . Betragtes som " informationsalderens fader " [9] .
Han er grundlæggeren af informationsteori , som har fundet anvendelse i moderne højteknologiske kommunikationssystemer. Han leverede grundlæggende begreber, ideer og deres matematiske formuleringer, som i dag danner grundlaget for moderne kommunikationsteknologier. I 1948 foreslog han at bruge ordet " bit " til at henvise til den mindste informationsenhed (i artiklen " Matematisk teori om kommunikation "). Derudover var begrebet entropi et vigtigt træk ved Shannons teori. Han demonstrerede, at den entropi, som han indførte, svarer til målet for informationsusikkerheden i den transmitterede meddelelse. Shannons artikler " Matematical Theory of Communication " og " Theory of Communication in Secret Systems " betragtes som grundlæggende for informationsteori og kryptografi [10] . Claude Shannon var en af de første, der nærmede sig kryptografi fra et videnskabeligt synspunkt, han var den første til at formulere dets teoretiske grundlag og introducerede mange grundlæggende begreber i betragtning. Shannon gav vigtige bidrag til teorien om sandsynlighedsskemaer, spilteori , automatteori og kontrolsystemteori - videnskabsområder inkluderet i begrebet " kybernetik ".
Claude Shannon blev født 30. april 1916 i Petoskey, Michigan , USA . Hans far, Claude Sr. (1862-1934), var en selvstændig forretningsmand, advokat og i nogen tid dommer. Shannons mor, Mabel Wolfe Shannon (1890-1945), var lærer i fremmedsprog og blev senere rektor på Gaylord High School. Shannons far havde en matematisk tankegang. Kærligheden til videnskab blev indpodet i Shannon af hans bedstefar. Shannons bedstefar var opfinder og landmand. Han opfandt vaskemaskinen sammen med andet nyttigt landbrugsudstyr [11] . Thomas Edison var en fjern slægtning til Shannons [12] [13] .
Claude tilbragte de første seksten år af sit liv i Gaylord, Michigan, hvor han dimitterede fra Gaylord Comprehensive High School i 1932. I sin ungdom arbejdede han som Western Union- kurer . Unge Claude var glad for at designe mekaniske og automatiske enheder. Han samlede modelfly og radiokredsløb, skabte en radiostyret båd og et telegrafsystem mellem en vens hus og hans eget. Til tider måtte han reparere radiostationer til det lokale stormagasin [10] .
Shannon var med sine egne ord en apolitisk person og ateist [14] .
I 1932 blev Shannon indskrevet ved University of Michigan , hvor han på et af kurserne stiftede bekendtskab med George Booles arbejde . I 1936 dimitterede Claude fra University of Michigan , hvor han fik en bachelorgrad i to hovedfag (matematik og elektroteknik), og tog et job ved Massachusetts Institute of Technology (MIT), hvor han arbejdede som forskningsassistent. Han fungerede som operatør på en mekanisk computerenhed, en analog computer kaldet en "differentialanalysator", udviklet af hans specialevejleder Vanivar Bush . Ved at studere det komplekse, højt specialiserede kredsløb i en differentialanalysator , så Shannon, at Booles koncepter kunne bruges godt. Efter at han arbejdede i sommeren 1937 på Bell Telephone Laboratories , skrev han et papir baseret på hans kandidatafhandling fra det år, "The Symbolic Analysis of Relay and Switching Circuits". Det skal bemærkes, at Frank Lauren Hitchcock superviserede masterafhandlingen, gav nyttige råd og kritik. Selve artiklen blev offentliggjort i 1938 i en publikation fra American Institute of Electrical Engineers (AIEE) [15] [16] . I dette arbejde viste Shannon, at omskifterkredsløb kunne bruges til at erstatte de elektromekaniske relækredsløb, der dengang blev brugt til at dirigere telefonopkald. Han udvidede derefter dette koncept ved at vise, at disse kredsløb kunne løse alle de problemer, som boolsk algebra kan løse . Også i det sidste kapitel præsenterer han blanks for flere kredsløb, for eksempel en 4-bit adder [16] . For denne artikel blev Shannon tildelt Alfred Nobelprisen fra American Institute of Electrical Engineers i 1940. Den dokumenterede evne til at implementere alle logiske beregninger i elektriske kredsløb dannede grundlaget for design af digitale kredsløb. Og digitale kredsløb er som bekendt grundlaget for moderne databehandling, så resultaterne af hans arbejde er blandt de vigtigste videnskabelige resultater i det 20. århundrede. Howard Gardner fra Harvard University omtalte Shannons arbejde som "uden tvivl det vigtigste og også det mest berømte mesterværk i århundredet".
På Bushs råd besluttede Shannon at arbejde på sin ph.d.-grad i matematik ved MIT . Bush blev udnævnt til præsident for Carnegie Institution of Washington og inviterede Shannon til at deltage i arbejdet med genetik, som blev ledet af Barbara Burks . Det var genetik, ifølge Bush, der kunne tjene som genstand for Shannons indsats. Shannon selv, efter at have tilbragt en sommer i Woods Hole, Massachusetts , blev interesseret i at finde det matematiske grundlag for Mendels arvelove . Shannons doktorafhandling, med titlen "The Algebra of Theoretical Genetics", blev afsluttet i foråret 1940 [17] . Dette værk så dog først dagens lys i 1993, da det dukkede op i Shannons Samlede papirer. Hans forskning kunne have været meget vigtig ellers, men de fleste af disse resultater blev opnået uafhængigt af ham. Shannon forfølger en ph.d. i matematik og en kandidatgrad i elektroteknik. Derefter vendte han ikke tilbage til forskning i biologi [18] .
Shannon var også interesseret i anvendelsen af matematik til informationssystemer såsom kommunikationssystemer. Efter endnu en sommer tilbragt på Bell Labs , i 1940, blev Shannon forskningsassistent ved Institute for Advanced Study i Princeton , New Jersey , USA i et akademisk år [18] . Der arbejdede han under den berømte matematiker Hermann Weyl , og havde også mulighed for at diskutere sine ideer med indflydelsesrige videnskabsmænd og matematikere, blandt hvem var John von Neumann . Han havde også tilfældige møder med Albert Einstein og Kurt Gödel . Shannon arbejdede frit inden for forskellige discipliner, og denne evne kan have bidraget til videreudviklingen af hans matematiske informationsteori [19] .
I foråret 1941 vendte han tilbage til Bell Labs som en del af en kontrakt med Section D-2 (Control Systems Section) i US National Defense Research Committee (NDRC), hvor han ville arbejde indtil 1956. Med USAs indtræden i Anden Verdenskrig ledede T. Fry arbejdet med et program for ildkontrolsystemer til luftforsvar. Shannon sluttede sig til Frys gruppe og arbejdede på enheder til at opdage fjendtlige fly og sigte antiluftskyts-installationer mod dem, han udviklede også kryptografiske systemer, herunder regeringskommunikation, som sørgede for Churchill og Roosevelts forhandlinger på tværs af havet. Som Shannon selv sagde, fik arbejdet inden for kryptografi ham til at skabe informationsteori.
Også hos Bell Labs opdager Shannon, mens han forsker i koblingskredsløb, en ny metode til at organisere kredsløb, der reducerer antallet af relækontakter, der er nødvendige for at implementere komplekse logiske funktioner. Han udgav et papir med titlen "Organisation of Bipolar Switching Circuits". I slutningen af 1940 modtog Shannon National Research Award.
Shannon er krediteret for at opfinde signalstyrede grafer i 1942. Han udledte grænseformlen for amplifikation i studiet af den funktionelle drift af en analog computer [20] .
I begyndelsen af 1943 kom Shannon i kontakt med den førende britiske matematiker Alan Turing . Turing ankom til Washington for at dele med U.S. Cryptanalytic Service de metoder, der dengang var i brug ved Government Communications Center i Bletchley Park til at knække den chiffer, der blev brugt på Kriegsmarine - ubåde i Nordatlanten [21] . Han blev også interesseret i talekryptering og brugte noget tid på " Bell Labs " til dette formål. Shannon og Turing mødtes til te [21] . Turing viste Shannon dokumentet nu kendt som " Turing Universal Machine " [22] . Dette imponerede Shannon, da mange af Turings ideer komplementerede hans egne.
I 1945, da krigen nærmede sig sin afslutning, udsendte US National Defense Research Committee et resumé af tekniske rapporter som det sidste skridt inden dens endelige lukning. Det indeholdt et særligt essay med titlen "Data Averaging and Prediction for Fire Control Systems" medforfatter af Shannon, Ralph Beebe Blackman og Hendrik Bode , der formelt refererede til problemet med datagennemsnit i brandkontrolsystemer i analogi med "adskillelsesproblemsignalet fra interferens i kommunikationssystemer. Med andre ord modellerede de dette problem i form af data og signalbehandling og indledte dermed informationsalderen [23] .
I slutningen af krigen udarbejdede han et hemmeligt memorandum til Bell Labs med titlen "The Mathematical Theory of Cryptography", dateret september 1945. Dette papir blev afklassificeret og offentliggjort i 1949 som " Communication Theory in Secret Systems " i Bell System Technical Journal. Det vil ikke være en overdrivelse at sige, at denne artikel ved sin udseende markerede kryptografiens overgang fra kunst til en fuldgyldig videnskab [18] . Shannon beviste, at engangspudekryptosystemer er kryptografisk ubrydelige. Han beviste også, at ethvert kryptografisk ubrydeligt system i det væsentlige skal have de samme egenskaber som en engangsblok: nøglen skal vælges tilfældigt, skal være lige så stor som klarteksten og må aldrig genbruges helt eller delvist. naturligvis hemmeligholdt [24] . Kommunikationsteori og kryptografi udviklede sig samtidigt, og "de var så tæt på hinanden, at det var umuligt at adskille dem" [25] . Shannon annoncerede sin hensigt om at "udvikle disse resultater ... i et kommende kommunikationsmemorandum" [26] .
I 1948 udkom det lovede memorandum som papiret "A Mathematical Theory of Communication" i to dele, henholdsvis i juli og oktober i Bell System Technical Journal. Dette arbejde er afsat til problemet med kodning af transmitteret information. I dette skelsættende arbejde brugte Shannon værktøjerne til sandsynlighedsteori udviklet af Norbert Wiener , som var i deres vorden med hensyn til deres anvendelse på kommunikationsteori på det tidspunkt. Shannon introducerede også en vigtig definition af informationsentropi som et mål for usikkerheden af information i meddelelser. Denne artikel markerede i det væsentlige begyndelsen på en sådan videnskab som informationsteori [18] [27] .
Efter 1948 lavede Shannon en masse betydningsfuld forskning i informationsteori.
Shannon studerede også spilteori. Han forsøgte at skabe alle slags maskiner, som altid skulle følge de mest vindende strategier. For eksempel var Shannon engageret i udviklingen af principper til at konstruere skakprogrammer (længe før sådanne programmer begyndte at blive praktisk taget implementeret af specialister fra forskellige lande) [28] . I slutningen af 1940'erne og begyndelsen af 1950'erne foreslog han to strategier til at finde det bedste træk i en given position. Den ene bestemte den samlede opregning af mulige træk med konstruktionen af et forgrenet træ af muligheder, og den anden - brugen af skakviden til at afskære ulovende muligheder [27] .
Et andet anvendelsesområde for Claude Shannons interesser i spilteori var roulettespillet . Sammen med Ed Thorp , en MIT - professor , skabte Shannon i 1961 en analog computerenhed på størrelse med en pakke cigaretter, styret af fire knapper til at indtaste information om hastigheden af et roulettehjul, hvilket hjalp spilleren til at "korrekt" placere en vædde. Ifølge Ed Thorpe blev denne enhed testet af dem i 1961 i et kasino i Las Vegas, hvilket gav en gevinst på 44% (mens selve eksistensen af en sådan enhed blev holdt hemmelig af forfatterne indtil 1966). Nogle (men på ingen måde alle) af detaljerne om denne enhed blev beskrevet i en artikel offentliggjort i Review of the Statistical Institute, 1969, vol. 37:3 [27] .
I de samme 1950'ere skabte Shannon en maskine, der "læser tanker", når han spiller "mønt": en person gættede "ørne" eller "haler", og maskinen gættede med en sandsynlighed højere end 1/2, fordi en person ikke kan undgå nogen mønstre, som maskinen kan bruge [29] .
Fra 1950 til 1956 var Shannon involveret i spilteori, herunder skabelsen af logiske maskiner, og fortsatte således von Neumanns og Turings bestræbelser . I 1952 udviklede Shannon en oplærbar mekanisk mus, der kunne finde en vej ud af en labyrint [30] . Han implementerede også "Ultimate Machine" spøgemaskine, et andet navn er "Useless Machine". Ideen med denne maskine er, at når kontakten skiftes til "On"-positionen, vises en "finger", som returnerer denne vippekontakt til sin oprindelige "Off"-position [31] . Derudover byggede han en enhed, der kan løse en Rubiks terning [12] .
Shannon betragtes også som grundlæggeren af ideen om tabsfri komprimering og dekomprimering af information. Han udviklede teorier, der giver dig mulighed for at fjerne al unødvendig redundans i adresserens beskeder. Desuden, hvis de sendes gennem en støjende kanal, kan alle former for information, der kun har til formål at finde fejl i transmissionen af en meddelelse, tilføjes tilbage til meddelelsen.
Shannon forlader Bell Labs i 1956, men han fortsætter med at rådføre sig med dem. Interesseret i anvendelsen af informationsteori til spilteori og finansiel matematik. Han fortsatte også med at arbejde på MIT indtil 1978. Shannon efterlod en skole af lærlinge. Der var en informationsteorigruppe på MIT, som Shannon havde tilsyn med. Eleverne så ham som et idol. Shannon underviste dog ikke universitetskurser med forelæsninger, men holdt ret ofte seminarer, hvor han heller ikke kunne lide at give standardting, han havde lært af sig selv. Men han improviserede på dem, og hver gang modtog han noget nyt eller betragtede gamle problemer fra en anden, ny side [18] . Shannon kunne i øvrigt ikke lide at skrive videnskabelige artikler af samme grund, men han forstod, at det var nødvendigt at gøre dette for videnskabens udvikling [18] .
I slutningen af 1960'erne - 1970'erne var han frugtbart engageret i finansiel matematik [18] . Først studerede han offentliggjorte data om pensioner og andre fonde og byggede til sidst et elektrisk kredsløb, der viste "pengeflow" i USA. Men han var især interesseret i teorien om valg af investeringsportefølje . I denne disciplin forsøgte Shannon, sammen med John Kelly , at løse problemet med aktivallokering , hvis essens er: "Hvordan man bedst diversificerer en investeringsportefølje med forskellige investeringsmuligheder."
Efter at have gået på pension i 1978, viede Shannon meget tid til sin gamle passion - jonglering. Han byggede adskillige jongleringsmaskiner og skabte endda en generel teori om jonglering (tilbage i 1940'erne kørte han på en cykel langs Bell Labs ' korridorer, mens han jonglerede ) [27] . For eksempel designet Shannon i 1983 en jongleringsmaskine, lavet bogstaveligt talt af skrotmaterialer, der var klædt på til at ligne Fields William . Maskinen var i stand til at jonglere med tre metalkugler [18] .
I 1985 deltager Claude Shannon og hans kone Betty i det internationale symposium om informationsteori i Brighton. Shannon deltog ikke i internationale konferencer i ret lang tid, og i starten blev han ikke engang anerkendt. Ved banketten holdt Claude Shannon en kort tale, jonglerede med tre bolde og skrev derefter hundreder og atter hundrede af autografer til videnskabsmænd og ingeniører, der var forbløffet over hans tilstedeværelse, som stod i den længste række og oplevede sitrende følelser over for den store videnskabsmand. En af deltagerne sagde så: "Det var som om Sir Isaac Newton dukkede op til en konference om fysik" [32] .
I 1993 udgav han Collected Papers, hvori han samler 127 artikler, han skrev fra 1938 til 1982 [13] .
Shannon udviklede Alzheimers sygdom og tilbragte de sidste par år af sit liv på et plejehjem i Massachusetts. Hele familien tog sig af ham [33] . Claude Shannon døde den 24. februar 2001. Hans kone, Mary Elizabeth Moore Shannon, udtalte i sin nekrolog, at hvis det ikke var nødvendigt at forske i behandlinger for Alzheimers, "ville han blive flov" over alt dette [34] .
Den 27. marts 1949 giftede Shannon sig med Mary Elizabeth Moore Shannon . Han mødte hende, da hun arbejdede som analytiker hos Bell Labs . Mary og Claude havde tre børn: Robert James, Andrew Moore og Marguerite Katherine.
Shannons værk " Theory of Communication in Secret Systems " (1945), klassificeret som "hemmeligt", som blev afklassificeret og først offentliggjort i 1949, tjente som begyndelsen på omfattende forskning i teorien om kodning (kryptering) og informationstransmission. Det var Claude Shannon, der først begyndte at studere kryptografi ved hjælp af en videnskabelig tilgang. Dette papir beskriver kommunikationssystemer fra et matematisk synspunkt og har været en stor succes inden for kryptografi [10] .
Også i artiklen definerede Shannon de grundlæggende begreber i teorien om kryptografi, uden hvilke kryptografi allerede er utænkeligt. En vigtig fordel ved Shannon er studiet af absolut krypto-resistente systemer og beviset for deres eksistens, såvel som eksistensen af krypto-resistente ciphers og de betingelser, der kræves for dette [18] . Shannon formulerede også de grundlæggende krav til stærke cifre. Han introducerede de allerede velkendte begreber spredning og blanding, samt metoder til at skabe kryptografisk stærke krypteringssystemer baseret på simple operationer.
Artiklen " Mathematical Theory of Communication " blev offentliggjort i 1948 og gjorde Claude Shannon verdensberømt. I den skitserede Shannon sine ideer, som senere blev grundlaget for moderne teorier og teknikker til behandling, transmission og lagring af information. Før han skrev artiklen, stiftede Shannon bekendtskab med Hartleys og Nyquists arbejde [18] . I artiklen generaliserede Shannon deres ideer, introducerede begrebet information indeholdt i transmitterede meddelelser. Hartley og Nyquist foreslog at bruge den logaritmiske funktion som et mål for informationen i den transmitterede meddelelse .
Shannon opdelte kommunikationssystemer i flere dele som følger :
Shannon grupperede kommunikationssystemer i tre kategorier: diskrete, kontinuerlige og blandede, idet han hævdede, at den diskrete sag er grundlaget for de to andre, men har mere anvendelse [37] .
Shannon var den første til at overveje transmitterede meddelelser og støj i kommunikationskanaler i form af statistik, idet han overvejede både endelige og kontinuerlige sæt af meddelelser. Shannon begyndte at betragte kilden til beskeder som et sæt af alle mulige beskeder, og kanalen som et sæt af alle mulige støj [18] .
Shannon introducerede begrebet informationsentropi , svarende til entropi fra termodynamikken , som er et mål for informationens usikkerhed. Shannon definerede også lidt som mængden af modtaget information (eller reduceret entropi), når man finder et svar på et spørgsmål, hvor kun to mulige svar er mulige (for eksempel "ja" eller "nej"), begge med samme sandsynlighed ( hvis ikke, så vil antallet af modtagne informationer være mindre end en bit) [18] .
Den første sætning i hans papir beskriver kommunikation over en støjende kanal som følger [37] :
Lad meddelelseskilden have entropi (bits pr. symbol) og - kanalbåndbredde (bits pr. sekund). Så er det muligt at indkode information på en sådan måde, at den gennemsnitlige transmissionshastighed gennem en given kanal vil være lig med symboler pr. sekund, hvor er en vilkårlig lille værdi. Derudover kan den gennemsnitlige datahastighed ikke være større end
Hovedideen med denne sætning er, at mængden af information, der kan transmitteres, afhænger af entropien eller med andre ord tilfældigheden af kildemeddelelserne. Derfor er det, baseret på den statistiske karakteristik af meddelelseskilden, muligt at indkode informationen for at opnå den maksimale hastighed, som kanalen kan opnå, det vil sige den ønskede kanalkapacitet. Dette var et revolutionerende udsagn, eftersom ingeniører tidligere troede, at den maksimale information af det originale signal, der kan transmitteres gennem mediet, afhænger af faktorer såsom frekvens, for eksempel, men ikke af signalets egenskaber [37] .
Shannons anden sætning beskriver kommunikation i en støjende kanal. Shannon udtaler [37] :
Lad meddelelseskilden have entropi i et sekund, og - kanalkapacitet. Hvis , så er en sådan kodning af information mulig, hvor kildedataene vil blive transmitteret gennem kanalen med et vilkårligt lille antal fejl. Hvis , så er kodning mulig, hvor tvetydigheden af den modtagne information vil være mindre end , hvor er en vilkårligt lille værdi. Derudover er der ingen kodningsmetoder, der giver en tvetydighed mindre end .
Ideen, som Shannon udtrykte, er, at uanset hvor "støjende" kanalen er, er der stadig en kodningsmetode, der giver dig mulighed for nøjagtigt at transmittere information gennem kanalen (mens ). Og denne idé er revolutionær, da folk før det troede, at der var en eller anden tærskel for støjværdien i kanalen, at transmissionen af den ønskede information blev umulig [37] .
Han udledte en formel for hastigheden af informationstransmission af meddelelseskilden og for kanalbåndbredden , dimensionen af hver hastighed er bits per sekund . Som en konsekvens af den foregående sætning er følgende udsagn sand:
Lad være informationsoverførselshastigheden for meddelelseskilden, og være kanalkapaciteten. Så , og at en sådan kodning af information er mulig, hvor antallet af fejlagtige bits pr. tidsenhed vil være mindre end enhver forudvalgt positiv konstant . Hans bevis involverer et sæt mulige indkodninger af kildemeddelelser til bitstrømme, og han viste, at en tilfældigt valgt kodning fra dette sæt vil have den ønskede egenskab angivet ovenfor med høj sandsynlighed [18]
.
Med andre ord: enhver kanal med støj er karakteriseret ved en maksimal informationsoverførselshastighed, denne grænse er opkaldt efter Shannon. Ved transmission af information med hastigheder, der overstiger denne grænse, opstår der uundgåelige dataforvrængninger, men denne grænse kan nærmes nedefra med den nødvendige nøjagtighed, hvilket giver en vilkårligt lille sandsynlighed for informationstransmissionsfejl i en støjende kanal.
Siden offentliggørelsen af denne artikel har videnskabsmænd forsøgt at finde kodninger, der fungerer lige så godt som Shannons tilfældige kodning [18] . Selvfølgelig er der i øjeblikket kodninger, der giver gennemløb tæt på Shannon-grænsen.
Teorien om information udviklet af Shannon hjalp med at løse de vigtigste problemer forbundet med transmission af beskeder, nemlig: at eliminere redundansen af transmitterede beskeder, at kode og transmittere beskeder over kommunikationskanaler med støj. Løsning af problemet med redundans af meddelelsen, der skal transmitteres, muliggør den mest effektive brug af kommunikationskanalen. For eksempel tillader moderne almindeligt anvendte redundansreduktionsteknikker i tv-udsendelsessystemer i dag transmission af op til seks digitale tv-programmer i frekvensbåndet optaget af et konventionelt analogt tv-signal [38] .
Løsningen på problemet med at transmittere en besked over kommunikationskanaler med støj i et givet forhold mellem effekten af det nyttige signal og effekten af interferenssignalet ved modtagepunktet gør det muligt at transmittere beskeder over kommunikationskanalen med en vilkårlig lille sandsynlighed for fejlagtig transmission. Dette forhold bestemmer også båndbredden af kanalen. Dette sikres ved brug af koder, der er modstandsdygtige over for interferens, mens hastigheden for meddelelsestransmission over en given kanal bør være lavere end dens kapacitet [38] .
I sine værker beviste Shannon den grundlæggende mulighed for at løse de identificerede problemer; dette var en sand sensation i videnskabelige kredse i slutningen af 1940'erne. Dette arbejde, såvel som de værker, hvor den potentielle støjimmunitet blev undersøgt, gav anledning til et stort antal undersøgelser, der har fortsat den dag i dag i mere end et halvt århundrede. Forskere fra USSR og USA (USSR - Pinsker , Khinchin , Dobrushin , Kolmogorov ; USA - Gallagher , Wolfowitz , Feinstein ) gav en streng fortolkning af teorien præsenteret af Shannon [38] .
Til dato er alle digitale kommunikationssystemer designet på grundlag af de grundlæggende principper og love for informationstransmission udviklet af Shannon. Ifølge informationsteorien fjernes redundans først fra beskeden, derefter kodes informationen ved hjælp af støjbestandige koder, og først derefter sendes beskeden over kanalen til forbrugeren. Det var takket være informationsteorien, at redundansen af fjernsyns-, tale- og faxmeddelelser blev væsentligt reduceret [38] .
En stor mængde forskning er blevet afsat til at skabe støjbestandige koder og enkle metoder til afkodning af beskeder. Forskning udført i løbet af de sidste halvtreds år dannede grundlaget for ITU's henstilling om brugen af fejlkorrigerende kodning og informationskildekodningsmetoder i moderne digitale systemer [38] .
I informationsteorien kaldes udsagn som "for enhver kode en bestemt egenskab har" inverse sætninger, og udsagn som " Der er en kode med en given egenskab" kaldes direkte sætninger [39] .
Victor Shestakov fra Moscow State University formulerede teorien om relækredsløb baseret på boolsk algebra i 1935, før Shannon. Udgivelsen af Shestakovs værker fandt imidlertid sted i 1941, det vil sige senere end udgivelsen af Shannons teser (1938) [43] [44] .
Shannons sammenligning med Einstein ville være meget lort. Einsteins bidrag er skræmmende. Vi lever dog ikke i relativismens tidsalder, men i informationens tidsalder. Shannon har sat sit præg på enhver digital enhed, vi bruger, hver skærm, vi ser på, alle midler til digital kommunikation. Han er en af de mennesker, der ændrer verden så meget, at den gamle verden efter ændringerne bliver glemt af alle [45] .
Originaltekst (engelsk)[ Visskjule]Det ville være kækt at sammenligne ham med Einstein. Einstein truer stort, og det med rette. Men vi lever ikke i relativitetsalderen, vi lever i informationsalderen. Det er Shannon, hvis fingeraftryk er på hver elektronisk enhed, vi ejer, hver computerskærm, vi kigger ind i, alle midler til digital kommunikation. Han er en af disse mennesker, der forvandler verden så meget, at den gamle verden efter forvandlingen er glemt.
James Gleick, The New Yorker
Claude Shannon var mere en ingeniør end en matematiker, og mange af hans værker havde et fysisk snarere end et matematisk fundament. I USSR blev Shannons værker klassificeret som sektioner af kybernetik, som dengang blev betragtet som "obskurantisternes pseudovidenskab". Selv udgivelsen af oversættelser krævede en betydelig indsats. Men den store matematiker A. N. Kolmogorov var henrykt efter at have læst Shannons værker og organiserede et uformelt seminar om Shannons ideer i 1954 [18] . I forordet til den russiske oversættelse af Shannons værker skrev A. N. Kolmogorov [27] :
Betydningen af Shannons arbejde for ren matematik blev ikke umiddelbart tilstrækkeligt værdsat. Jeg husker, at selv på International Congress of Mathematicians i Amsterdam (1954) anså mine amerikanske kolleger, specialister i sandsynlighedsteori, min interesse for Shannons arbejde noget overdrevet, da det er mere teknik end matematik. Nu behøver sådanne meninger næppe at blive gendrivet. Sandt nok overlod Shannon i nogle vanskelige tilfælde en streng matematisk "underbygning" af sine ideer til sine efterfølgere. Men hans matematiske intuition er utroligt præcis...Andrey Nikolaevich Kolmogorov
Tematiske steder | ||||
---|---|---|---|---|
Ordbøger og encyklopædier | ||||
Slægtsforskning og nekropolis | ||||
|