Gitter

Den aktuelle version af siden er endnu ikke blevet gennemgået af erfarne bidragydere og kan afvige væsentligt fra den version , der blev gennemgået den 28. marts 2022; verifikation kræver 1 redigering .

Grid computing ( eng.  grid  - lattice, netværk) er en form for distribueret databehandling , hvor en "virtuel supercomputer " er repræsenteret som klynger forbundet via et netværk, løst forbundne heterogene computere, der arbejder sammen om at udføre et stort antal opgaver (operationer, virker). Denne teknologi bruges til at løse videnskabelige, matematiske problemer, der kræver betydelige computerressourcer. Grid computing bruges også i kommerciel infrastruktur til at løse så arbejdskrævende opgaver som økonomisk prognose, seismisk analyse og udvikling og undersøgelse af nye lægemidlers egenskaber.

Fra netværksorganisationens synspunkt er nettet et konsistent, åbent og standardiseret miljø , der giver en fleksibel, sikker, koordineret adskillelse af computer- og lagerressourcer [1] af information, der er en del af dette miljø i én virtuel organisation. [2]

Konceptet med et gitter

Grid er en geografisk distribueret infrastruktur, der kombinerer mange ressourcer af forskellige typer (processorer, langtids- og RAM, storage og databaser, netværk), som brugeren kan få adgang til fra hvor som helst, uanset hvor de befinder sig. [3]

Ideen om grid computing opstod sammen med udbredelsen af ​​personlige computere, udviklingen af ​​internettet og pakkedatatransmissionsteknologier baseret på optisk fiber ( SONET , SDH og ATM ) samt lokalnetværksteknologier ( Gigabit Ethernet ). Båndbredden af ​​kommunikationsmidlerne er blevet tilstrækkelig til at tiltrække ressourcerne fra en anden computer, hvis det er nødvendigt. I betragtning af, at mange computere, der er tilsluttet det globale netværk, er inaktive det meste af arbejdstiden og har flere ressourcer, end de har brug for til at løse deres daglige opgaver, bliver det muligt at anvende deres ubrugte ressourcer andre steder.

Sammenligning af netsystemer og konventionelle supercomputere

Distribueret eller grid computing generelt er en type parallel computing , der er baseret på almindelige computere (med standardprocessorer, lagerenheder, strømforsyninger osv.) forbundet til et netværk (lokalt eller globalt) ved hjælp af konventionelle protokoller, for eksempel Ethernet , mens en konventionel supercomputer indeholder mange processorer forbundet til en lokal højhastighedsbus.

Den største fordel ved distribueret databehandling er, at en enkelt celle i computersystemet kan købes som en almindelig ikke-specialiseret computer. Det er således muligt at opnå praktisk talt samme regnekraft som på konventionelle supercomputere, men til en meget lavere pris.

Typer af netsystemer

I øjeblikket er der tre hovedtyper af netsystemer:

  1. Frivillige net - net baseret på brugen af ​​en frivilligt leveret gratis ressource af personlige computere;
  2. Videnskabelige grids - meget paralleliserbare applikationer programmeres på en speciel måde (for eksempel ved hjælp af Globus Toolkit);
  3. Grids baseret på allokering af computerressourcer efter behov (commercial grid, engelsk  enterprise grid ) - almindelige kommercielle applikationer kører på en virtuel computer, som igen består af flere fysiske computere kombineret ved hjælp af grid-teknologier.

Historie

Udtrykket "grid computing" dukkede op i begyndelsen af ​​1990'erne som en metafor, der demonstrerede muligheden for enkel adgang til computerressourcer såvel som til det elektriske netværk ( engelsk  power grid ) i samlingen redigeret af Ian Foster og Carl Kesselman "The Grid: Blueprint for en ny computerinfrastruktur".

Brugen af ​​fritidsprocessorer og frivillig databehandling blev populær i slutningen af ​​1990'erne med lanceringen af ​​de frivillige databehandlingsprojekter GIMPS i 1996 , distributed.net i 1997 og SETI@home i 1999 . Disse tidlige frivillige computerprojekter udnyttede kraften i almindelige brugeres netværkscomputere til at løse beregningskrævende forskningsopgaver.

Grid-systemideer (inklusive ideer fra områderne distribueret databehandling , objektorienteret programmering , computerklynger , webtjenester osv.) blev indsamlet og kombineret af Ian Foster, Carl Kesselmanog Steve Tuecke, som ofte kaldes grid-teknologiens fædre. [1] De begyndte at bygge Globus Toolkit til Grid Computing, som omfatter ikke kun computerstyringsværktøjer, men også værktøjer til styring af datalagringsressourcer, sikring af adgangssikkerhed til data og til selve nettet, overvågning af brug og bevægelse af data samt værktøjer til udvikling af yderligere nettjenester. I øjeblikket er dette sæt værktøjer de facto-standarden for opbygning af netbaseret infrastruktur, selvom der er mange andre værktøjer til netsystemer på markedet, både i hele virksomheden og globalt.

Grid-teknologi bruges til modellering og databehandling i eksperimenter på Large Hadron Collider (gitteret bruges også i andre beregningstunge opgaver). Mere end 60 projekter er i øjeblikket aktive på BOINC platformen. For eksempel bruger Fusion- projektet (Sydfrankrig, udvikling af en metode til at generere elektricitet ved hjælp af termonuklear fusion ved ITER -forsøgsreaktoren ) også et net ( EDGeS@Home ). Under navnet CLOUD er der igangsat et projekt for kommercialisering af grid-teknologier, inden for hvilket små virksomheder, institutioner, der har brug for computerressourcer, men af ​​den ene eller anden grund ikke har råd til at have deres eget supercomputingcenter, kan købe grid computing-tid. [fire]

Strukturen af ​​CERN Grid System

CERN Grid System , designet til at behandle data fra Large Hadron Collider , har en hierarkisk struktur. [fire]

Det højeste punkt i hierarkiet, nul-niveau - CERN (indhentning af information fra detektorer, indsamling af "rå" videnskabelige data, der vil blive gemt indtil slutningen af ​​eksperimentet). I løbet af det første driftsår er det planlagt at indsamle op til 15 petabyte (tusind terabyte) data fra den første kopi.

Det første niveau, Tier1, er lagringen af ​​en anden kopi af disse data i andre dele af verden (12 centre: i Rusland, Italien , Spanien, Frankrig , Skandinavien, Storbritannien , USA , Taiwan og et center på første niveau - CMS Tier1 - hos CERN). Den 26. marts 2015 blev et nyt center åbnet på Laboratory of Information Technologies i Dubna (JINR) [5] . Centrene har betydelige datalagringsressourcer.

Tier2 - næste i hierarkiet, adskillige centre på det andet niveau. Store lagerressourcer er ikke nødvendige; har gode computerressourcer. Russiske centre: i Dubna ( JINR ), tre centre i Moskva ( SINP MGU , FIAN , ITEP ), Troitsk ( INR ), Protvino ( IHEP ), St. Petersborg ( SPbGU ) [6] og Gatchina ( PNPI ). Derudover er centrene i andre JINR-medlemsstater i Kharkov , Minsk , Yerevan , Sofia , Baku og Tbilisi også forbundet til disse centre i et enkelt netværk .

Mere end 85% af alle beregningsmæssige opgaver på Large Hadron Collider fra 2010 blev udført uden for CERN, hvoraf mere end 50% blev udført i centre på andet niveau. [fire]

Se også

Noter

  1. 1 2 Amy M. Braverman Fader til nettet . Arkiveret fra originalen den 18. februar 2012.
  2. GRIDCLUB.ru: Internetportal for grid-teknologier
  3. Gitterkoncept
  4. 1 2 3 Internet Collider . Hentet 14. april 2010. Arkiveret fra originalen 9. april 2010.
  5. Det første Tier-1 niveau center i Rusland blev åbnet i Dubna (utilgængeligt link) (26. marts 2015). Hentet 27. marts 2015. Arkiveret fra originalen 2. april 2015. 
  6. DISTRIBUERET COMPUTING OG GRID-TEKNOLOGI I VIDENSKAB OG UDDANNELSE. Resuméer af den tredje internationale konference. Dubna, 30. juni - 4. juli 2008 (utilgængeligt link) . Hentet 3. oktober 2012. Arkiveret fra originalen 22. juli 2011. 

Litteratur

Links