Artikel top billede

(Foto: Computerworld)

Verdens stærkeste supercomputere går løs på hinanden

USA, Japan og Kina kappes om at have verdens stærkeste computer-vidundere og er stadig i gang med at bygge endnu flere og endnu stærkere supercomputere. Europa, Skandinavien og Danmark er såmænd også med. Hvem tager tælling og hvem vinder på teknisk knockout?.

Af Palle Vibe, Alt om Data

Denne artikel er oprindeligt bragt på Alt om Data. Computerworld overtog i november 2022 Alt om Data. Du kan læse mere om overtagelsen her.

Supercomputere rangeres to gange om året af eksperter under det såkaldte Top500-projekt alt efter, hvor hurtigt de kan udføre en særlig matematisk kalkulation betegnet Linpack. Derved får vi andre et mål for, hvor mange beregninger verdens forskellige supercomputere er i stand til at gennemføre på et sekund, hvilket igen er et godt udtryk for maskinernes beregningskraft.

Resultatet opgives i dag sædvanligvis i petaflops. Flops betyder ”floating-point operations per second”, og en petaflop er en billiard (tusinde milliarder). Men supercomputere bliver stadigt hurtigere, og målet er at nå op på én eller flere exaflops dvs. en trillion udregninger i sekundet (et ettal med 18 nuller bagved). Til sammenligning kan en almindelig lommeregner måske klare 10-15 flops. 

Formålet med supercomputere er at kunne knække problemer, som hidtil har været alt for teoretiske og omfattende som eksempelvis at simulere atomeksplosioner, forudsige klimaudviklingen samt til at forsøge at kortlægge livets udvikling. Det kan også være at udtænke nye modeller og metoder til at håndtere pandemiske virusepidemier. 

Supercomputeres ydeevne hænger nøje sammen med deres hardwaren, dvs. hvor mange processorer og kerner maskinen har, og om beregningskraften eksempelvis hentes fra cpu’ere (Central Processing Units), gpu’ere (Graphics Procession Units) eller et samarbejde mellem de to processortyper. Men for computere i exaskala er softwaredelen også en udfordring, for det er ikke let at skrive en kode til maskiner, der kan foretage så utroligt mange kalkulationer på et sekund.

Samtidig er eksisterende supercomputer-software i dag ofte open source og udviklet på universiteter verden over – og dermed åbent og frit tilgængelig for alle. Så producenter af supercomputere har ingen særlig fordel af at købe sig til specialudviklet software.

Nr. 1 – Et bjerg af en computer 415,5 petaflops

Fugaku er primært beregnet til at behandle sociale anliggender og videnskabelige problemer, klima, energi og universets love.

Ifølge Top500 er den japanske supercomputer Fugaku i dag verdens nummer ét inden for supercomputing efter ni år, hvor Kina og USA har domineret topplaceringerne. Fugaku (navnet er en anden betegnelse for det japanske bjerg Fuji) står opstillet i Riken Center for Computational Science (R-CCS) i den japanske storby Kobe og er udviklet af firmaerne Riken og Fujitsu. Fugaku er udrustet med 7,3 millioner kerner (158.976 Fujitsu 48-core A64FX system-on-a-chip), og det er første gang, at en supercomputer med ARM-processorer har bragt sig øverst på Top500. ”Tophastigheden” er lige nu på 415,5 petaflops, men forventes at være opgraderet til magiske 1 exaflop i 2021. Fugaku har desuden som første supercomputer nogensinde opnået topplaceringer på ranglisterne Graph 500, HPL-AI og HPCG.

Nr. 2 – Energieffektiv supermaskine 148,6 petaflops

Den amerikanske supercomputer Summit blev leveret af IBM til Oak Ridge National Laboratory (ORNL) i Tennessee i 2018.

Summit er en amerikansk supercomputer, der ligesom Sierra er bygget af IBM som del af et Department of Energy-program, der skal styrke amerikansk supercomputing. Summit er bestykket med to 22 kerners POWER9-cpu’er og seks Nvidia Tesla V100-gpu’er og kører internt via Mellanox EDR Infiniband-forbindelser. Nuværende Linpack benchmark-test bringer den op på 148,6 petaflops, men computeren har i en særskilt test præsteret helt op til 200 petaflops. I 2019 var den med en ydelse på 14.668 gigaflops/watt desuden verdens femtemest energieffektive supercomputer. Forskere trækker typisk på Summit inden for så  forskellige områder som kosmologi, medicin og klimatologi.

Nr. 3 – Snedækket bjergkæde 94,6 petaflops

Usædvanligt for en supercomputer har Sierra sneget sig ind på en tredjeplads på Green-Top500, der lister supercomputere efter deres energieffektivitet.

USA’s næststørste supercomputer Sierra er del af et samarbejde mellem Oak Ridge National Laboratory (ORNL) i Tennessee og Lawrence Livermore National Laboratory i Californien, hvor maskinen også er opstillet. Sierra er bestykket med to Power9-cpu’ere og fire Nvidia Tesla V100-gpu’er for hver af dens 4320 nodes og har senest ydet 94,6 petaflops. Maskinen er specielt bygget til simulationer af atomangreb for US National Nuclear Security Administration. I dag er Sierra (navnet er spansk og betyder ”snedækket bjergkæde”) blandt andre ting fuldt beskæftiget med at finde en behandling eller vaccine mod virus-trusler som covid-19.

Nr. 4 – Guddommeligt lys 93 petaflops

Den kinesiske supercomputer Sunway TaihuLight tårner sig frygtindgydende op i National Supercomputing Center i byen Wuxi, der ofte kaldes Lille Shanghai på grund af sin kraftige økonomiske vækst. 

Sunway TaihuLight, der står opstillet på National Supercomputing Center i Wuxi i Kina, er med en ydelse på 93 petaflops nummer fire på verdensranglisten. Computeren drives alene af Sunway SW26010-processorer med 260 kerner hver og har i alt 10.649.000 kerner. Navnet kan oversættes som ”Lyset fra Taihu-søens guddommelig kraft”. 

Nr. 5 – Den anden mælkevej 61,4 petaflops 

Tianhe2a har hjemme i National Supercomputer Center i Guangzhou, der ligger på kysten ud mod det Sydkinesiske Hav.

Den kinesiske Tianhe-2 (navnet betyder Mælkevej 2) var med 33,86 petaflops faktisk verdens hurtigste supercomputer i 2013. Den udnyttede en blanding af Intel Xeon E5-processorer, Intel Xeon Phi-coprocessorer og nogle specialbyggede processorer med i alt tre millioner kerner. Men det viste sig hurtigt ikke at være nok, og Tianhe-2 måtte give plads for efterfølgeren Tianhe-2a, der er udviklet af det kinesiske National University of Defense Technology (NUDT) og primært bruges af den kinesiske regering til sikkerheds- og forsvarsopgaver. Computeren har næsten fem millioner kerner og en ydelse på helt nøjagtigt 61.445 petaflops – eller højere alt efter målemetode og opgave. Men det rækker altså kun til en femteplads på Top500. 

Slagsmålet fortsætter med nye udfordrere

Det europæiske fælles computerprojekt Lumi er her ved at blive bygget i Finland. I færdig udgave skulle denne supercomputer blive en af de få af slagsen med et negativt CO2-aftryk.

Men kapløbet er langt fra forbi. USA vil naturligvis ikke lide supercomputernederlag til Japan og er nu gået i gang med at udvikle flere nye supercomputere. I 2019 oplyste eksempelvis flyvevåbnet, US Air Force, at de ville bestille en Shasta supercomputer hos Cray til ibrugtagning i 2021. Den skal baseres på 290.304 AMD EPYC 7002/Zen-processorkerner og 112 Radeon Instinct/Nvidia Volta V100-gpu’er, der internt bliver forbundet gennem et 200 gigabit/sek. Cray Slingshot-netværk. Computeren forventes at kunne præstere 12,8 petaflops til brug for videnskabsfolk, forskere og ingeniører og til udvikling af fremtidens flyvemaskiner, skibe og miljømodeller.

Lige nu arbejder flere amerikanske computerfirmaer med Cray – der i dag er ejet af Hewlett Packard Enterprise (HPE) – og AMD i spidsen konkret på tre nye exaflop-supercomputere.

Både USA’s energiministerium og det amerikanske udviklingscenter Lawrence Livermore National Laboratory har bebudet, at Cray og Intel i forening skulle levere en kæmpemaskine med navnet Aurora. Den er også planlagt til at komme i drift i 2021 og vil være bestykket med kommende Intel Xeon-processorer samt 7 nm-baserede Intel Xe-gpu’er, men de nærmere specifikationer er indtil videre ikke oplyst.

Men sikkert er det, at Aurora bliver den første amerikanske supercomputer, der vil være i stand til at yde i hvert fald 1 exaflop. Aurora vil kunne anvende kunstig intelligens og dermed give forskere et nyt højeffektivt værktøj til at analysere alt fra klimasvingninger til nye medicinske behandlingsmetoder og give ny forståelse af vores univers’ oprindelse. 

HPE fik yderligere i 2019 bestilling på Frontier, en supercomputer på ligeledes mindst 1 exaflop, der også skal bygges af Cray og AMD i forening og skal stå i Oak Ridge National Laboratory, hvor Summit nu står. Den skal også være driftsklar næste år. Frontier skal udstyres med en kombination af AMD Epyc-processorer og Radeon Instinct-grafikkort. Den vil fylde hundrede 19”-racks og skal primært anvendes til avancerede beregninger inden for klima og atomforskning. Aurora vil formentlig blive den hurtigste supercomputer i USA men Frontier vil have større beregningskraft. 

Hvad er Top500?

TOP500-projektet oplister og giver information om de 500 mest kraftfulde ikke kommercielt fremstillede computersystemer i verden. Projektet blev startet i 1986 og offentliggør en opdateret liste over supercomputere to gange om året i juni og november. 

TOP500 er dermed en fuld historisk oversigt over HPC-opbygninger, -tendenser og -teknologier. Men listen ansporer også producenterne af supercomputere og giver et kik ind i mulig kommende HPC-ydelser. TOP500 har desuden inspireret til andre lister som eksempelvis Green500, der vurderer supercomputere energieffektivitet, og Graph500, som rangerer de hurtigste systemer efter, hvor datatunge opgaver de er i stand til at håndtere og hvor hurtigt.

Se mere om Top500 på https://top500.org.

Hvad er Linpack?

Linpack er et softwarebibliotek til udførelse af numerisk lineær algebra på digitale computere. Det blev skrevet i sproget Fortran af Jack Dongarra, Jim Bunch, Cleve Moler og Gilbert Stewart, og var beregnet til brug på supercomputere i 1970’erne og begyndelsen af 1980’erne. Til vurdering af supercomputere anvendes den særlige version High Performance Linpack (HPL).

El Capitan bliver kaptajnen

Om bare to år planlægger amerikanere oven i dette at bygge den hidtil største amerikanske supercomputer nogensinde. Maskinen bærer navnet El Capitan inspireret af en af de mest spektakulære klippeformationer i USA, og den skal opstilles i det før nævnte udviklingscenter Lawrence Livermore National Laboratory. El Capitan-supercomputeren skal efter planerne nærme sig 2 exaflops i beregningshastighed og stå helt klar om tre år i starten af 2023. Sammenlignet med eksempelvis Summits ydeevne på knap 150 petaflops vil El Capitan med exaflopydelse være mindst syv gange hurtigere.

Det betyder dog ikke, at mængden af processorer og anden hardware blot er blevet opgraderet med en faktor syv, for resultatet vil simpelt hen kræve alt for meget strøm og køling. I stedet arbejder Cray og AMD sammen med Intel på at finde den helt rigtige kombination af konventionelle processorer og grafiske processorer. Konkret er valget faldet på AMD’s Genoa Epyc samt gpu’er fra Radeon.

Derudover skal HPE også i gang med at undersøge, om det er muligt at integrere nye former for fiberoptiske dataforbindelser. El Capitan skal primært bruges til avancerede simuleringer for det amerikanske atomvåbenprogram. I takt med at landets atomvåben ældes, stiger kompleksiteten af simuleringerne, og det kræver selvsagt større og større systemer.

El Capitan har fået navn efter den berømte klippe-formation af samme navn i den nordlige del af nationalparken Yosemite i Californien. Klippen rejser sig næsten lodret 910 m fra sin fod, og toppen befinder sig i 2307 meters højde.

Microsoft spøger også i kulissen

Microsoft er også med i kapløbet. Selskabet bygger angiveligt på en ny gigantisk supercomputer i kategorien HPC (High Performance Computer) med 285.000 cpu-kerner, 10.000 gpu’er og 400 gigabit/sek. netværkshastighed for hver gpu-server, hvilket angiveligt giver specifikationer til at nå op mellem verdens kommende fem kraftigste supercomputere.

Microsofts bud har endnu ikke fået noget navn, men tanken er, at den skal træne og forbedre maskinlæringsalgoritmerne på blandt andet Microsofts Azure cloud computing-platform. Maskinen vil derfor få en infrastruktur, der vil gøre den velegnet til at træne ekstremt store modeller for kunstig intelligens på Open-AI platforme, hvilket betyder, at også andre firmaer vil kunne bygge videre på de forbedrede modeller. AI-algoritmer har en tendens til at blive større og større, og faktisk kræver de stadigt voksende modeller, at den nødvendige computerkraft stort set skal fordobles en gang i kvartalet.

Der er endnu ikke frigivet yderligere specifikationer eller benchmark-testresultater, men alene den nævnte opbygning placerer den uden videre i verdenseliten.

Men alle disse superkonstruktioner bringer imidlertid ikke USA i en sikker førertrøje. Kina, Japan og såmænd også Europa står på spring, og Kina arbejder aktuelt på tre forskellige supercomputere, der alle skal krydse exa-grænsen.

De er kendt som Tianhe-3,  Sunway og Sugon. Tianhe-3 skal ligesom Aurora i drift næste år, og dermed vil Kina muligvis have landets første exaskala-supercomputer allerede i indeværende år, noget før USA.

Men Japan ligger selvsagt heller ikke stille og har i øvrigt også sammen med Indien og Taiwan store planer om supercomputere i exa-klassen. Indien har annonceret den første “multi-peta-flop” supercomputer, Pratyush (daggry), der kan præstere  en maksimumhastighed på 6.8 peta-flops. Pratyush skal stilles op i Indian Institute of Tropical Meteorology (IITM) og medvirke til at forbedre vejrudsigter og forudsige ting som monsuner, ekstremt vejr, tsunamier, cykloner, jordskælv og meget mere. Lige nu foreligger der dog ikke mange konkrete informationer fra de nævnte østlige nationers side.

Aurora lyser godt op på siden af en ny, amerikansk monstercomputer. Navnet betyder nordlys.

Supercomputeren Pratyush skal medvirke til at forbedre vejrudsigter og forudsige ting som tsunamier, cykloner og jordskælv. 

Europa er med i kapløbet

I Europa er otte lande gået sammen om at udvikle og bygge en såkaldt præ-exaskala supercomputer til fælles europæisk gavn og brug. De otte lande er Finland, Belgien, Tjekkiet, Norge, Polen, Sverige, Schweiz og såmænd også Danmark. Holland og Estland overvejer ligeledes at deltage.

Computeren får navnet Lumi (Large Unified Modern Infrastructure) og drives som kombattanterne af både cpu’er og gpu’er. Den nye supercomputer vil i første omgang få en ydelse på 200 petaflops, og det vil naturligvis ikke give den en plads blandt exaskala-maskinerne (deraf betegnelse præ-exaskala). Men det skal ses i lyset af, at de største europæiske supercomputere lige nu yder 10-15 petaflops, så den kommende Lumi-supercomputer bliver i hvert fald 10 gange så hurtig.

Med til billedet hører også, at Lumi (navnet betyder i øvrigt sne på finsk), vil blive placeret i CSC’s datacenter i den finske by Kajanii, der belejligt ligger lige op ad flere store kolde søer og har adgang til fri vandkøling og grøn strøm fra vandkraft. Faktisk bliver den dermed en af de få, hvis ikke den eneste, supercomputer i verden, der har et negativt CO2-aftryk.

Fagområder som bioinformatik og life science benytter gerne cloud computing til tunge beregninger, fordi fleksibiliteten er større, men supercomputere er sjældent bygget til det, da deres opbygning sædvanligvis er koncentreret om at opnå den højest mulige ydeevne. Lumi vil fra starten kunne skabe bedre sammenhæng mellem det konventionelle supercomputermiljø og cloud computing og dermed give mulighed for en fleksibel kombination af skyen og supercomputer-ydeevne. 

Lumi er samtidig en del af det europæiske supercomputer-initiativ EuroHPC, som EU-Kommissionen og de involverede medlemslande støtter med adskillige milliarder kroner. For disse midler kan Europa til hver en tid bygge tre exaskala-supercomputere og fem lidt mindre petaskala-computere som Lumi, der alene forventes at komme til at koste 200 millioner euro (over 1,1 milliard danske kroner) i hardware-indkøb fordelt over computerens forventede levetid på seks år.

Disse udgifter bliver dækket halvt af EU og halvt af de otte involverede lande. Danmark skal hvert år betale omkring 7,5 millioner kroner for at være med.

Ifølge EuroHPC-tidsplanen skal LUMI-supercomputeren være i drift ved udgangen af i år. Det glæder vi os til. 

Den amerikanske supercomputer Frontier skal primært anvendes til avancerede beregninger inden for klima og atomforskning.