Plejader | |
---|---|
Aktivitet | 2008 - i dag |
Operatører | NASA Advanced Supercomputing (NAS) |
Beliggenhed | Ames Research Center (Nasa Ames) |
Arkitektur | SGI Altix ICE , Intel Xeon-processorer, Infiniband |
vædder | 938 TB |
lagerenhed _ |
29 petabyte (RAID) |
Ydeevne | 5,95 petaflops |
Ranking | 13 ( TOP500 november 2016) |
Internet side | nas.nasa.gov/hecc/resour... |
Mediefiler på Wikimedia Commons |
Pleiades (udtales / pliː ə diːz / eller / pʰ le diːz /) er en petaflop supercomputer installeret på NASA Advanced Supercomputing (NAS) Ames Research Center (NASA Ames), nær Mountain View , Californien, USA. Supercomputeren understøttes af NASA, SGI og Intel .
Fra november 2016 var Plejaderne #13 på TOP500-listen over verdens hurtigste supercomputere med en LINPACK -score på 5,95 petaflops [1] og en topydelse på 7,25 petaflops.
Oprindeligt skabt i 2008 og opkaldt efter Pleiades- stjernehoben . På oprettelsestidspunktet var den nummer tre i TOP500 med en score på 487 teraflops (0,48 petaflops) i LINPACK-testen [2] . Den bestod derefter af 100 SGI Altix ICE 8200EX-racks indeholdende 12.800 quad-core Intel Xeon E5472 Harpertown-processorer forbundet med 20 miles af InfiniBand DDR -kabler [3] .
I 2009 blev den udvidet ved at tilføje 10 racks baseret på 4-core Intel Xeon X5570 (Nehalem), tog 6. pladsen i november 2009 i TOP500, med et samlet antal på 14 tusinde processorer og en ydeevne på 544 teraflops [4] .
I 2010 blev 32 racks af SGI Altix ICE 8400 med 6-core Intel Xeon X5670 (Westmere) tilføjet, hvilket øgede antallet af processorer til 18,4 tusinde (81,9 tusinde kerner, 144 racks). Den teoretiske toppræstation var 973 teraflops, og på LINPACK-testen - 773 teraflops [5] . Med tilføjelsen af disse racks blev der lavet en delvis overgang fra Infiniband DDR til Infiniband DDR/QDR hybrid netværk, som blev det største i verden med over 45 miles kabler. [5]
I 2011 blev der tilføjet 14 flere ICE 8400-racks med Westmere-processorer. Pleiades tog 7. pladsen i juni TOP500 med en score på 1,09 petaflops [6] .
Noderne er forbundet ved hjælp af InfiniBand DDR- og QDR-netværk med optiske kabler. Det forbinder også klyngen og lagerundersystemet. Den samlede længde af kablerne nåede 65 miles. Netværkstopologien er en delvis 11-dimensionel hyperkube, hvor hver node har 11 forbindelser [7] .
I 2012 begyndte NASA, SGI og Intel at integrere 24 nye Altix ICE X-racks med otte-core Intel Xeon E5-2760 (Sandy Bridge) for at erstatte de originale 27 Alitx 8200-racks med 4-core-chips. Efter opdateringen havde klyngen 126,7 tusinde kerner, 233 terabyte RAM og 182 racks [8] . Hver node på Sandy Bridge har 4 InfiniBand FDR-porte, der hver kører med 56 gigabit/s (ca. 7 gigabyte/s) [9] .
I begyndelsen af 2013 begyndte arbejdet med at fjerne alle resterende quad-core processorer fra klyngen ved at installere 46 SGI ICE X racks baseret på 10-core Intel Xeon E5-2680V2 (Ivy Bridge-EP, 22 nm). I august, efter deres færdiggørelse, øgede systemet topydelsen fra 1,78 petaflops til 2,87 petaflops [10] . Fra januar til april 2014 blev der tilføjet yderligere 29 stativer med Ivy Bridge, og den teoretiske ydeevne steg til 3,59 petaflops [11] . De resterende noder baseret på Nehalem- og Westmere-processorer blev trukket tilbage.
Pleiades er en del af NASAs High-End Computing Capability -projekt (HECC) og bruger avanceret teknologi til at opfylde agenturets supercomputing-krav. NASA-ingeniører og videnskabsmænd leverer modellering og simulering af høj kvalitet til NASA-missioner inden for områderne: Jordudforskning, rumvidenskab, aeronautik, rumudforskning [12] .
Blandt de projekter, der har brugt Pleiades, er: