Naturlig informatik er et videnskabeligt område, der studerer de informationsbehandlingsprocesser, der finder sted i naturen, hjernen og det menneskelige samfund. Den er baseret på klassiske videnskabelige områder som evolutionsteorier , morfogenese og udviklingsbiologi , systemforskning , forskning i hjernen , DNA , immunsystem og cellemembraner , ledelsesteori og gruppeadfærd , historie og andre [1] . Den sekundære opgave for denne retning er implementeringen af den erhvervede viden i tekniske systemer. En mellemplads mellem disse to tilgange er optaget af computermodellering af naturlige informationsprocesser.
Kybernetik , defineret som "videnskaben om de generelle love, der styrer processerne for kontrol og transmission af information i forskellige systemer, hvad enten det er maskiner, levende organismer eller samfund" [2] er en tæt, men noget anderledes videnskabelig retning. Ligesom matematik og hoveddelen af moderne datalogi kan den næppe tilskrives naturvidenskaberne , da den adskiller sig markant fra dem i sin metodologi. (På trods af den bredeste brug af matematisk og computermodellering i moderne naturvidenskab.)
Informatik betragtes normalt som en rent teknisk disciplin, hvis den ikke er ved at opstå, så udviklet med fremkomsten af computere i midten af forrige århundrede. Selvom ældgamle computerenheder som abacus , udviklingen af et system af hieroglyffer eller opfindelsen af typografi også kan tilskrives emnet for denne disciplin. Nogle[ hvem? ] forskere holder dog fast i den opfattelse, at det ikke var mennesker, der skabte datalogi, men datalogi skabte mennesker. Især evolutionsteorien kan ikke tolkes anderledes end som et grandiost CAD -projekt, der kulminerede i skabelsen af en så perfekt selvreplikerende computerenhed som en person. . Det er klart, at principperne for denne udvikling enten er fuldstændig uforståelige for os eller meget dårligt forståede. Men det betyder ikke, at de ikke eksisterer, eller at de ikke er værdige til at studere.
Mange processer, der forekommer i naturen, kan betragtes som informationsmæssige. Det er for eksempel udviklingsprocesser , biologisk transport , processer i encellede organismer . Når de studerer disse processer, udpeger videnskabsmænd nogle principper, fænomener, processer, der fortjener at blive abstraheret fra den naturvidenskabelige kontekst, hvori de blev observeret (fysiologi, genetik, kvantefysik) og betragtet i forhold til de universelle principper for informationsbehandling i naturen. . Det er især interessant at observere, hvilke af dem der allerede er gået ind i begrebssystemet for moderne computervidenskab. Fra dette synspunkt blev den efterfølgende gennemgang af videnskabelige retninger udført.
Studiet af fossiler og artsdiversitet i midten af det 19. århundrede overbeviste de fleste videnskabsmænd om, at arter ændrer sig over tid [3] [4] . Mekanismen bag disse ændringer forblev dog uklar indtil udgivelsen i 1859 af bogen " The Origin of Species " af den engelske videnskabsmand Charles Darwin om naturlig udvælgelse som evolutionens drivkraft [5] . Teorien om Darwin og Wallace blev til sidst accepteret af det videnskabelige samfund [6] [7] . I 1930'erne blev ideen om darwinistisk naturlig udvælgelse kombineret med Mendels love , som dannede grundlaget for den syntetiske evolutionsteori (STE). STE gjorde det muligt at forklare forholdet mellem evolutionens substrat (gener) og evolutionens mekanisme (naturlig selektion).
I evolutionsteorien skelnes der mellem følgende vigtigste fænomener, der bidrager til udviklingen af en art: arvelighed , variabilitet og naturlig udvælgelse . Variabilitet tilskrives normalt en tilfældig karakter - for eksempel tilfældige mutationer af den genetiske kode. Naturlig selektion ses i evolutionsteorien som en rent ekstern indblanding af miljøet i udviklingen af en art. Det viser sig, at kun arvemekanismen kan tilskrives det kreative princip, der skabte naturens mirakel - mennesket. Der er dog værker, hvor der sættes spørgsmålstegn ved disse bestemmelser [8] . Det kan antages, at variabilitetsmekanismen ikke er så enkel, som den almindeligvis antages, og selektion udføres ikke kun af eksterne, men også af interne midler i forhold til artssystemet. Med sjældne undtagelser er disse kategorier endnu ikke afspejlet i moderne informatiks teori og praksis.
Den østrig-amerikanske biolog Ludwig von Bertalanffy foreslog den generelle systemteori i 1930'erne [9] . Dens hovedidé er at anerkende isomorfien i de love, der styrer systemobjekters funktion [10] . Mange begreber i denne teori har korrelationer i moderne computervidenskab. Det er for eksempel objekter (jf . objektorienteret programmering ) og relationer ( relationsdatabaser ), system og miljø (klient-server-arkitektur).
Men Bertalanffy udforsker også systemdynamikken - ligevægt (homeostase), evolution , tilpasning, overgangsprocesser. Dermed ikke sagt, at disse emner nu fuldstændig ignoreres af datalogi, hvis vi for eksempel mener softwareudviklingsprocessen. Der er en rigtig dødbringende kamp med kompleksitet og entropi (et andet systemkoncept) her. Hvis reparation af en fejl i koden forårsager n nye fejl i gennemsnit, hvor n>1, så bliver udviklingsprocessen divergerende. Det er usandsynligt, at naturen ikke stod over for sådanne problemer, og det er meget interessant, hvordan hun løste dem.
Det systemiske koncept for en model ser ud til at være meget lovende , af A.I.strålende logisk analyse af hvilken blev giveten
Systembiologi er en videnskabelig disciplin, der blev dannet i skæringspunktet mellem biologi og teorien om komplekse systemer . Udtrykket blev første gang brugt i en artikel fra 1993 af W. Zieglgänsberger og TR. Tolle [12] . Men selve retningen har bestemt eksisteret før. Faktisk var Bertalanffy selv biolog, så han kan betragtes som patriarken i denne retning.
Og endnu tidligere, allerede i begyndelsen af det 20. århundrede, underbyggede den russiske fysiolog Vladimir Bekhterev 23 universelle love og udvidede dem til sfærerne af mentale og sociale processer [13] . I 1935 introducerede en studerende af akademiker Pavlov, Pyotr Anokhin , begrebet "sanktionerende afferentation" (siden 1952 - "omvendt afferentation", senere i kybernetik - "feedback"), samtidig med at han giver den første definition af en funktionelt system [14] , i til en vis grad at foregribe Bertalanffys teori.
Her er det umuligt ikke at nævne konceptet om den betingede refleks udviklet af I. P. Pavlov selv , inden for rammerne af det arbejde, som Anokhins systemiske synspunkter blev dannet på.
Meget tæt på datalogi ligger arbejdet med at dechifrere DNA'ets genetiske kode .
Ofte betragtes universet selv ud fra informationsprocesser. Selv ideen er blevet fremført, at information er et mere grundlæggende begreb end stof og energi. Zuse-Fredkin-tesen, der går tilbage til 1960'erne, er, at hele universet er en kæmpe cellulær automat , der konstant opdaterer sine regler. [15] [16]
Ifølge en anden version er universet en kvantecomputer , der beregner sin egen adfærd [17] .
Der er mange udviklinger af computersystemer baseret på principper i naturen. Faktisk er dette et af fagene i bionik , en disciplin, der sammen med undersøgelsen af f.eks. fugles flugt eller delfiners hydrodynamik, for at gentage dem i tekniske apparater, også beskæftiger sig med f.eks. i studiet af informationsprocesser i kroppen.
Eksempler på sådanne områder er kunstige neurale netværk , evolutionære algoritmer , sværm-intelligens , DNA-computer , kvantecomputer .
I det væsentlige er alle eksisterende metoder og algoritmer inden for teoretisk computervidenskab "naturinspirerede" algoritmer [18] inklusive cellulære automater, evolutionær databehandling, sværm-intelligens og andre. En detaljeret oversigt kan findes i mange bøger [19] [20]
Modellering af naturlige informationsbehandlingssystemer tjener på den ene side til at studere og bedre forstå dem, og på den anden side producerer ideer til implementering af tekniske computersystemer. Disse er tilgange såsom kunstigt liv , modeller for selvreproduktion.
Skabelsen af matematiske eller computermodeller til undersøgelse af virkelige objekter kan anerkendes som et af de vigtigste træk ved den moderne naturvidenskabelige disciplin. En af de første numeriske modeller i biologi er de britiske neurofysiologer og nobelpristagere Hodgkin og Huxley , udgivet i 1952. Forfatterne skabte en matematisk model, der forklarer udbredelsen af aktionspotentialet langs axonen af en neuron [21] . Deres model beskrev den potentielle udbredelsesmekanisme som en vekselvirkning mellem to forskellige molekylære komponenter: kanaler for kalium og natrium, som kan betragtes som begyndelsen på beregningssystembiologien [22] . I 1960, baseret på modellen af Hodgkin og Huxley, skabte Denis Noble den første computermodel af pacemakeren [23] .
Bestræbelser på at forstå naturen af biologiske systemer omfatter også skabelsen af semisyntetiske organismer.