SLinCA@Home

SLinCA@Home
Type Grid , distribueret computing , frivillig computing
Udvikler Institut for Metalfysik NASU
Operativ system Linux , Windows
Første udgave 14. september 2010
Hardware platform BOINC , SZTAKI Desktop Grid , XtremWeb-HEP, OurGrid
Stat Alfa
Internet side dg.imp.kiev.ua

SLinCA@Home (Scaling Laws in Cluster Aggregation - scale-invariant patterns in cluster aggregation) er et forskningsprojekt, der bruger computere forbundet til internettet til forskning inden for materialevidenskab .

SLinCA@Home blev grundlagt af en gruppe forskere fra Institut for Metalfysik. G. V. Kurdyumov (IMP) fra Ukraines Nationale Videnskabsakademi . Projektet bruger BOINC-softwaren, SZTAKI Desktop Grid-platformen og Distributed Computing API (DC-API) fra SZTAKI. SLinCA@Home inkluderer flere videnskabelige applikationer dedikeret til at finde skala-invariante mønstre i eksperimentelle data og computersimuleringsresultater.

Historie

SLinCA@Home-projektet blev tidligere lanceret i januar 2009 som en del af EU 's syvende rammeprogram (FP7) for at finansiere videnskabelig forskning og teknologisk udvikling i Europa. I 2009-2010 brugte han faciliteterne i det lokale "Desk Grid" IMF; siden december 2010 har den brugt en distribueret computerinfrastruktur leveret af frivillige til at løse komplekse computerproblemer. Projektet ledes i øjeblikket af en gruppe videnskabsmænd fra IMP NASU i tæt samarbejde med partnere fra IDGF Arkiveret 24. februar 2011 på Wayback Machine and Distributed Computing-teamet 'Ukraine' Arkiveret 14. marts 2022 på Wayback Machine . Siden juni 2010 har SLinCA@Home arbejdet som en del af DEGISCO FP7 -projektet Arkiveret den 26. februar 2011 på EU Wayback Machine .

SLinCA@Home er i alfaversion.

Ifølge uofficielle statistikker fra BOINCstats (fra marts 2011) deltog mere end 2000 frivillige fra 39 lande i projektet, hvilket gør det til det næstmest populære BOINC-projekt i Ukraine (efter Magnetism@Home-projektet). [1] Omkring 700 aktive brugere giver 0,5-1,5 TFLOPS computerkraft [2] computerkraft.

Én SLinCA-applikation blev lanceret på en åben global distribueret computerinfrastruktur (SLinCA@Home); tre andre (MultiScaleIVideoP, CPDynSG og LAMMPS over DCI) bliver testet på det lukkede lokale IMF Desktop Grid.

Ansøgninger

SLinCA@Home-projektet blev oprettet for at søge efter hidtil ukendte skala-invariante mønstre baseret på resultaterne af eksperimenter og simuleringer i følgende videnskabelige applikationer.

Skaleringslove i Cluster Aggregation (SLinCA)

SLinCA
Type Grid, distribueret databehandling, frivillig databehandling
Udvikler Institut for Metalfysik NASU
Skrevet i C , C++
Operativ system Linux (32-bit), Windows (32-bit)
Første udgave 24. juli 2007
Hardware platform BOINC, SZTAKI Desktop Grid, XtremWeb-HEP, OurGrid
Stat Aktiv
Internet side dg.imp.kiev.ua

SLinCA (Scaling Laws in Cluster Aggregation) er den første applikation, der overføres til DG-infrastrukturen af ​​IMF's Deformation Physics Laboratory. Dens mål er at finde lovene for skalainvarians i det kinetiske scenarie for monomeraggregering i klynger af forskellige typer og i forskellige videnskabelige områder.

Klyngeaggregeringsprocesser studeres i mange grene af videnskaben: defektaggregering i materialevidenskab, befolkningsdynamik i biologi, byvækst og udvikling i sociologi osv. Eksisterende eksperimentelle data indikerer tilstedeværelsen af ​​en hierarkisk struktur på mange skalaniveauer. De tilgængelige teorier tilbyder mange scenarier for klyngeaggregering, dannelse af hierarkiske strukturer og forklaringer af deres skala-invariante egenskaber. For at verificere dem er det nødvendigt at bruge kraftfulde computerressourcer til at behandle enorme databaser med eksperimentelle resultater. En typisk simulering af en klyngeaggregeringsproces med 106 monomerer tager cirka 1-7 dage på en moderne processor, afhængigt af antallet af trin i Monte Carlo-metoden .

Udførelse af SLinCA på et net i IRS giver hundredvis af maskiner med tilstrækkelig processorkraft mulighed for at simulere mange scenarier i en meget kortere tidsramme.

Typiske tekniske parametre for lancering af SLinCA-versionen af ​​IRS i den globale åbne IRS:

resultater

Foreløbige resultater af SLinCA-applikationen blev opnået på EGEE -computerressourcerne i CETA-CIEMAT og XtremWeb-HEP LAL testinfrastrukturerne ; udgivet i 2009 plakat ved 4. EDGeS-træningsbegivenhed og 3. AlmereGrid Workshop , Almere , Holland (29.-30. marts 2009). [3]

Planer

Multiscale billed- og videobehandling (MultiScaleIVideoP)

MultiScaleIVideoP
Type Grid, distribueret databehandling, frivillig databehandling
Udvikler Institut for Metalfysik ved National Academy of Sciences of Ukraine (Wrapper for IRS), Mathworks ( MATLAB -biblioteker )
Skrevet i C , C++ , MATLAB
Operativ system Linux (32-bit), Windows (32-bit)
Første udgave 11. januar 2008
Hardware platform MATLAB , BOINC, SZTAKI Desktop Grid, XtremWeb-HEP
Stat Alfa
Internet side dg.imp.kiev.ua

Optisk mikroskopi bruges almindeligvis til at analysere materialers strukturelle egenskaber ved snævre forstørrelsesområder, et lille område af interesse og i statisk tilstand. Imidlertid observeres mange kritiske processer forbundet med opståen og dynamisk udbredelse af brud i et bredt tidsinterval fra 10 −3 s til 10 3 s og på mange skalaniveauer fra 10 −6 m (enkelte defekter) til 10 −2 m ( forbundne netværk af defekter). Multiscale Image and Video Processing (MultiscaleIVideoP) applikationen er designet til at behandle den registrerede udvikling af materialer under mekanisk deformation på en testmaskine. Beregningerne omfatter mange fysiske procesparametre (hastighed, kraft, forstørrelse, lysforhold, hardwarefiltre osv.) og billedbehandlingsparametre (størrelsesfordeling, anisotropi, lokaliseringer, skaleringsparametre osv.). Derfor er beregningerne meget besværlige og udføres meget langsomt. Derfor er der et presserende behov for at bruge mere kraftfulde computerressourcer. Kørsel af denne applikation i RDI giver hundredvis af maskiner med tilstrækkelig processorkraft mulighed for at behandle billeder og videoer i en bredere skala og i meget kortere tidsrammer.

Typiske tekniske parametre for lancering af IRS-versionen af ​​MultiScaleIVideoP-applikationen på et lukket lokalt IMF Desktop Grid:

resultater

Foreløbige resultater af MultiScaleIVideoP-applikationen blev opnået på EGEE -computerressourcerne i CETA-CIEMAT og XtremWeb-HEP LAL testinfrastrukturerne; udgivet i 2009 som en plakat ved det 4. EDGeS træningsevent og 3. AlmereGrid Workshop i Almere , Holland (29.-30. marts 2009). [fire]

I januar 2011 blev yderligere resultater af behandlingen af ​​videoovervågningsdata fra forsøg med cyklisk begrænsningsbelastning af aluminiumsfolie opnået og offentliggjort. [5]

Planer

City Population Dynamics and Sustainable Growth (CPDynSG)

CPDynSG
Type Grid, distribueret databehandling, frivillig databehandling
Udvikler Institut for Metalfysik NASU
Skrevet i C , C++
Operativ system Linux (32-bit), Windows (32-bit)
Første udgave 14. april 2010
Hardware platform BOINC, SZTAKI Desktop Grid
Stat Alfa
Internet side dg.imp.kiev.ua

Det er kendt, at væksten i byer (kommuner, distrikter osv.) forklares med migration, fusioner, befolkningstilvækst osv. Man har således bemærket, at fordelingen af ​​byer efter deres størrelse i mange lande overholder en magtlovgivning . Denne afhængighed bekræftes af data for befolkninger i forskellige byer i deres oprindelige historie. Befolkningen i alle større byer vokser meget hurtigere end landet som helhed over et betydeligt tidsrum. Men som i byer, der har nået modenhed, kan deres vækst aftage, eller befolkningen kan endda falde af årsager, der ikke er relateret til migration til endnu større byer. Forskellige teorier giver vækstrater, asymptotik og fordelinger af sådanne populationer. Et vigtigt træk ved applikationen er sammenligningen af ​​eksisterende teorier med observationsdata og prognosescenarier for dynamikken i bæredygtig befolkningstilvækst for forskellige nationale og internationale regioner. Applikationen City Population Dynamics and Sustainable Growth (CPDynSG) giver dig mulighed for at udforske forholdet mellem en enorm mængde eksperimentelle data og finde et kvalitativt match mellem forudsigelserne fra forskellige modeller og de tilgængelige historiske data.

Typiske tekniske parametre for at køre IRS-versionen af ​​CPDynSG-applikationen på et lukket lokalt "Desktop Grid" af IMF-infrastrukturen:

resultater

I juni-september 2010 blev der modtaget resultater vedrørende konceptet, resultaterne af portering af RDI-versionen af ​​CPDynSG-applikationen baseret på BOINC-platformen, SZTAKI Desktop Grid-platformen og SZTAKI Distributed Computing API (DC-API) samt som foreløbige resultater for fordelingen af ​​størrelser byer i flere lande i Central- og Østeuropa. Den karakteristiske isolation af fordelingen af ​​bystørrelser i Ungarn bemærkes, og en meget lignende udvikling af fordelingen af ​​bystørrelser i Ukraine og Polen findes også. Disse resultater blev præsenteret på Cracow Grid Workshop'10 Arkiveret den 28. juli 2011 på Wayback Machine (11.-13. oktober 2010) i mundtlige præsentationer og posterpræsentationer [ 6] . Den præsenterede stand blev belønnet med " For den bedste plakatpræsentation Cracow Grid Workshop'09 ".

Planer

Den nuværende version af CPDynSG-applikationen vil blive opdateret til kontrolpunktstabilitet, ny funktionalitet og understøttelse af NVIDIA GPU-beregninger for at udføre analyser hurtigere (estimeret til 50 % til 200 % hurtigere).

Storskala Atomic/Molecular Massively Parallel Simulator (LAMMPS) i IRS

LAMPER i IRP
Type Grid, distribueret databehandling, frivillig databehandling
Udvikler Institut for Metalfysik ved Ukraines National Academy of Sciences (IRV-skal), Sandia National Laboratories (LAMMPS)
Skrevet i C , C++
Operativ system Linux (32-bit), Windows (32-bit)
Første udgave 4. juni 2010
Hardware platform BOINC, SZTAKI Desktop Grid
Stat Alfa
Internet side dg.imp.kiev.ua

Søgningen efter nye funktionelle enheder i nanoskala er blevet en vigtig trend i moderne materialevidenskab. Men den kontrollerede produktion af funktionelle enheder i nanoskala kræver omhyggelig udvælgelse og justering af kritiske parametre (elementer, interaktionspotentialer, eksterne handlingstilstande, temperatur osv.) af atomær selvorganisering i de udviklede modeller og strukturer for funktionelle enheder i nanoskala. Derfor er molekylær dynamikmodellering af nanofremstillingsprocesser med nedbrydning af fysiske parametre og optælling af parametre ved "brute force"-metoden meget lovende. Til dette formål blev den meget populære ikke-kommercielle open source-pakke "Large-scale Atomic/Molecular Massively Parallel Simulator" (LAMMPS) valgt som en kandidat til portering til IRS baseret på BOINC-platformen, SZTAKI Desktop Grid og API for distribueret computing (DC-API). ) fra SZTAKI. Som regel kræver sådan modellering af nanoobjekter med mange parametre en ekstremt stor mængde beregningsressourcer. Typisk simulering af de undersøgte nanostrukturer for én konfiguration af fysiske parametre - for eksempel til simulering af fysiske processer inden for 1-10 picosekunder af metalliske monokrystaller (Al, Cu, Mo osv.) med 107 atomer - kræver cirka 1-7 dage på en moderne CPU. Implementeringen af ​​LAMMPS i Grid i IRS giver dig mulighed for at bruge hundredvis af maskiner på samme tid og få en enorm mængde computerressourcer til at udføre simuleringer i en lang række fysiske parametre (konfigurationer) og på meget kortere tid.

Typiske tekniske parametre for lancering af IRS-versionen af ​​MultiScaleIVideoP-applikationen på et lukket lokalt IMF Desktop Grid:

resultater

I september-oktober 2010 blev de foreløbige opnåede resultater præsenteret i en mundtlig præsentation på den internationale konference "Nanostructural Materials-2010"  (utilgængeligt link) , Kiev , Ukraine [7]

Planer

Den nuværende version af LAMMPS, der bruger IRP-applikationen, vil blive opdateret til kontrolpunktstabilitet, ny funktionalitet og understøttelse af NVIDIA GPU-beregninger for at udføre analyser hurtigere (estimeret til 300 til 500 % hurtigere).

Partnere

Priser

Noter

  1. BOINCstats projektstatistikker , < http://boincstats.com/stats/project_graph.php?pr=SLinCA > . Hentet 16. marts 2011. Arkiveret 8. juli 2011 på Wayback Machine 
  2. SLinCA@Home Server Status Arkiveret 21. februar 2011.
  3. O. Gatsenko; O. Baskova og Y. Gordienko. Kinetics of Defect Aggregation i Materials Science Simuleret i Desktop Grid Computing-miljø installeret i Ordinary Material Science Lab (utilgængeligt link) . Proceedings of 3. Almere Grid Workshop (marts, 2009). Hentet 16. marts 2011. Arkiveret fra originalen 23. februar 2011. 
  4. O. Baskova; O. Gatsenko og Y. Gordienko. Portering af multiparametrisk MATLAB-applikation til billed- og videobehandling til skrivebordsgitter til højtydende distribueret databehandling (dødt link) . Proceedings of 3. Almere Grid Workshop (marts, 2009). Hentet 16. marts 2011. Arkiveret fra originalen 23. februar 2011. 
  5. O. Baskova; O. Gatsenko, O. Lodygensky, G. Fedak og Y. Gordienko. Statistiske egenskaber for deformeret enkeltkrystaloverflade under realtidsvideoovervågning og -behandling i Desktop Grid Distributed Computing Environment (dødt link) 306-309. Nøgletekniske materialer (januar 2011). Dato for adgang: 16. marts 2011. Arkiveret fra originalen 26. juli 2012. 
  6. 1 2 O. Gatsenko; O. Baskova og Y. Gordienko. Simulering af bybefolkningsdynamik og bæredygtig vækst i Desktop Grid Distributed Computing Infrastructure . Proceedings of Cracow Grid Workshop'10 (februar 2011). Hentet: 16. marts 2011.
  7. O. Baskova; O. Gatsenko, O. Gontareva, E. Zasimchuk og Y. Gordienko. Skala-invariant aggregationskinetik af defekter i nanoskala af krystallinsk struktur ( utilgængeligt link ) . Online Proceedings of "Nanostructured materials-2010" (19.-22. oktober 2011). Dato for adgang: 16. marts 2011. Arkiveret fra originalen 26. juli 2012. 
  8. O. Baskova; O. Gatsenko og Y. Gordienko. Opskalering af MATLAB-applikation i Desktop Grid til højtydende distribueret databehandling - Eksempel på billed- og videobehandling (downlink) . Proceedings of Cracow Grid Workshop'09 255-263 (februar 2010). Dato for adgang: 16. marts 2011. Arkiveret fra originalen 26. juli 2012. 

Links