Niedawno uruchomiony w Stuttgarcie system Hawk jest jednym z najpotężniejszych superkomputerów na świecie i jednocześnie najszybszym systemem ogólnego przeznaczenia do obliczeń naukowych i przemysłowych w Europie. Od dziś można go wirtualnie zwiedzić za sprawą 360-stopniowego wideo, dzięki któremu można z bliska obejrzeć 44 szafy z 5600 węzłami obliczeniowymi z aż 720 000 rdzeniami 2 generacji procesorów AMD EPYC.

Ten pracujący na Uniwersytecie w Stuttgarcie klaster oferuje ok. 26 PetaFLOPS mocy obliczeniowej, czyli aż 26 kwadryliony operacji zmiennoprzecinkowych na sekundę. Gdyby ktoś miał wykonywać 1 taką operację na sekundę, to musiałby pracować 31 688 765 lat, by przeliczyć to co system o mocy 1 PetaFLOPS robi w ciągu 1/60 minuty. Tymczasem Hawk zapewnia aż 26 razy więcej mocy, dzięki czemu naukowcy i inżynierowie mogą wykorzystywać go do badań naukowych na dużą skalę i przy bardzo złożonych zjawiskach, w tym do pracy nad sztuczną inteligencją, głębokim uczeniem, symulacją czy analityką dużych zbiorów danych (big data).

7 PetaFLOPS to z kolei sumaryczna moc systemów do badań służących walce z globalną pandemią COVID-19, jakie firma AMD przekazuje obecnie w ramach bezpłatnego wsparcia takim uniwersytetom jak Massachusetts Institute of Technology (MIT), New York University (NYU) i Rice University – to pierwsze uczelnie, które są beneficjentami AMD HPC Fund. Chcąc udostępnić konieczną moc obliczeniową szerszemu gronu naukowców na świecie, firma AMD wraz z Penguin Computing przygotowuje też zdalny system w chmurze, który już wkrótce zaoferuje nawet 4 PetaFLOPS mocy.

System Type: Hewlett Packard Enterprise Apollo

Number of cabinets 44
Number of compute nodes 5,632
System peak performance 26 Petaflops

CPU Type: AMD EPYC™ 7742

CPUs per node 2
Cores per CPU 64
Number of compute cores 720,896
CPU frequency 2.25 GHz
DIMMs in system 90,112
Total system memory ~ 1.44 PB

Node to Node Interconnect: InfiniBand HDR200

Interconnect topology Enhanced 9D-Hypercube
Interconnect bandwidth 200 Gbit/s
Total InfiniBand cables 3,024
Total cable-length ~20 km

Storage: DDN EXAScaler with IME

Disks in system ~2,400
Capacity per disk 14 TB
Total disk storage capacity ~25 PB
Burst buffer type DDN Infinite Memory Engine (IME)
Burst buffer capacity ~660 TB

Power Consumption

Maximum power consumption per rack ~90 kW
Power supplies in system 2,112
System power consumption – normal operation ~3.5 MW
System power consumption – LinPack operation ~4.1 MW

Frontend- And Service-Nodes

Rack type: frontend and service nodes Adaptive Rack Cooling System (ARCS)
Racks: frontend and service nodes 5 + 2 ARCS Cooling Towers
Frontend nodes 10 x HPE ProLiant DL385 Gen10
Memory of frontend nodes 5 x 1 TB, 4 x 2 TB, 1 x 4 TB
Data mover nodes 4 x HPE ProLiant DL385 Gen10
Service nodes Red Hat Enterprise Linux 8

Cooling

Cooling distribution units (CDUs) 6
Water inlet temperature (CDUs) 25°C
Water return temperature (CDUs) 35°C
Volume of cooling liquid in the system ~2.5 m³
Water inlet temperature (ARCS cooling towers) 16°C
Water evaporation by wet cooling towers ~9 m³/h

Komentarze