Grid computing ( eng. grid - lattice, netværk) er en form for distribueret databehandling , hvor en "virtuel supercomputer " er repræsenteret som klynger forbundet via et netværk, løst forbundne heterogene computere, der arbejder sammen om at udføre et stort antal opgaver (operationer, virker). Denne teknologi bruges til at løse videnskabelige, matematiske problemer, der kræver betydelige computerressourcer. Grid computing bruges også i kommerciel infrastruktur til at løse så arbejdskrævende opgaver som økonomisk prognose, seismisk analyse og udvikling og undersøgelse af nye lægemidlers egenskaber.
Fra netværksorganisationens synspunkt er nettet et konsistent, åbent og standardiseret miljø , der giver en fleksibel, sikker, koordineret adskillelse af computer- og lagerressourcer [1] af information, der er en del af dette miljø i én virtuel organisation. [2]
Grid er en geografisk distribueret infrastruktur, der kombinerer mange ressourcer af forskellige typer (processorer, langtids- og RAM, storage og databaser, netværk), som brugeren kan få adgang til fra hvor som helst, uanset hvor de befinder sig. [3]
Ideen om grid computing opstod sammen med udbredelsen af personlige computere, udviklingen af internettet og pakkedatatransmissionsteknologier baseret på optisk fiber ( SONET , SDH og ATM ) samt lokalnetværksteknologier ( Gigabit Ethernet ). Båndbredden af kommunikationsmidlerne er blevet tilstrækkelig til at tiltrække ressourcerne fra en anden computer, hvis det er nødvendigt. I betragtning af, at mange computere, der er tilsluttet det globale netværk, er inaktive det meste af arbejdstiden og har flere ressourcer, end de har brug for til at løse deres daglige opgaver, bliver det muligt at anvende deres ubrugte ressourcer andre steder.
Distribueret eller grid computing generelt er en type parallel computing , der er baseret på almindelige computere (med standardprocessorer, lagerenheder, strømforsyninger osv.) forbundet til et netværk (lokalt eller globalt) ved hjælp af konventionelle protokoller, for eksempel Ethernet , mens en konventionel supercomputer indeholder mange processorer forbundet til en lokal højhastighedsbus.
Den største fordel ved distribueret databehandling er, at en enkelt celle i computersystemet kan købes som en almindelig ikke-specialiseret computer. Det er således muligt at opnå praktisk talt samme regnekraft som på konventionelle supercomputere, men til en meget lavere pris.
I øjeblikket er der tre hovedtyper af netsystemer:
Udtrykket "grid computing" dukkede op i begyndelsen af 1990'erne som en metafor, der demonstrerede muligheden for enkel adgang til computerressourcer såvel som til det elektriske netværk ( engelsk power grid ) i samlingen redigeret af Ian Foster og Carl Kesselman "The Grid: Blueprint for en ny computerinfrastruktur".
Brugen af fritidsprocessorer og frivillig databehandling blev populær i slutningen af 1990'erne med lanceringen af de frivillige databehandlingsprojekter GIMPS i 1996 , distributed.net i 1997 og SETI@home i 1999 . Disse tidlige frivillige computerprojekter udnyttede kraften i almindelige brugeres netværkscomputere til at løse beregningskrævende forskningsopgaver.
Grid-systemideer (inklusive ideer fra områderne distribueret databehandling , objektorienteret programmering , computerklynger , webtjenester osv.) blev indsamlet og kombineret af Ian Foster, Carl Kesselmanog Steve Tuecke, som ofte kaldes grid-teknologiens fædre. [1] De begyndte at bygge Globus Toolkit til Grid Computing, som omfatter ikke kun computerstyringsværktøjer, men også værktøjer til styring af datalagringsressourcer, sikring af adgangssikkerhed til data og til selve nettet, overvågning af brug og bevægelse af data samt værktøjer til udvikling af yderligere nettjenester. I øjeblikket er dette sæt værktøjer de facto-standarden for opbygning af netbaseret infrastruktur, selvom der er mange andre værktøjer til netsystemer på markedet, både i hele virksomheden og globalt.
Grid-teknologi bruges til modellering og databehandling i eksperimenter på Large Hadron Collider (gitteret bruges også i andre beregningstunge opgaver). Mere end 60 projekter er i øjeblikket aktive på BOINC platformen. For eksempel bruger Fusion- projektet (Sydfrankrig, udvikling af en metode til at generere elektricitet ved hjælp af termonuklear fusion ved ITER -forsøgsreaktoren ) også et net ( EDGeS@Home ). Under navnet CLOUD er der igangsat et projekt for kommercialisering af grid-teknologier, inden for hvilket små virksomheder, institutioner, der har brug for computerressourcer, men af den ene eller anden grund ikke har råd til at have deres eget supercomputingcenter, kan købe grid computing-tid. [fire]
CERN Grid System , designet til at behandle data fra Large Hadron Collider , har en hierarkisk struktur. [fire]
Det højeste punkt i hierarkiet, nul-niveau - CERN (indhentning af information fra detektorer, indsamling af "rå" videnskabelige data, der vil blive gemt indtil slutningen af eksperimentet). I løbet af det første driftsår er det planlagt at indsamle op til 15 petabyte (tusind terabyte) data fra den første kopi.
Det første niveau, Tier1, er lagringen af en anden kopi af disse data i andre dele af verden (12 centre: i Rusland, Italien , Spanien, Frankrig , Skandinavien, Storbritannien , USA , Taiwan og et center på første niveau - CMS Tier1 - hos CERN). Den 26. marts 2015 blev et nyt center åbnet på Laboratory of Information Technologies i Dubna (JINR) [5] . Centrene har betydelige datalagringsressourcer.
Tier2 - næste i hierarkiet, adskillige centre på det andet niveau. Store lagerressourcer er ikke nødvendige; har gode computerressourcer. Russiske centre: i Dubna ( JINR ), tre centre i Moskva ( SINP MGU , FIAN , ITEP ), Troitsk ( INR ), Protvino ( IHEP ), St. Petersborg ( SPbGU ) [6] og Gatchina ( PNPI ). Derudover er centrene i andre JINR-medlemsstater i Kharkov , Minsk , Yerevan , Sofia , Baku og Tbilisi også forbundet til disse centre i et enkelt netværk .
Mere end 85% af alle beregningsmæssige opgaver på Large Hadron Collider fra 2010 blev udført uden for CERN, hvoraf mere end 50% blev udført i centre på andet niveau. [fire]