Artikel top billede

(Foto: Computerworld)

På sporet af supercomputernes superkræfter

Store universiteter har dem. Meteorologer bruger dem. De anvendes militært. De er en del af big data-trenden i erhvervslivet. Kort sagt: Supercomputerne er overalt. Men hvilke kræfter er det egentlig, de har, og som gør dem så attraktive? Det afdækker vi her.

Af Palle Vibe, Alt om Data

Denne artikel er oprindeligt bragt på Alt om Data. Computerworld overtog i november 2022 Alt om Data. Du kan læse mere om overtagelsen her.

I bund og grund er en supercomputer blot den kraftigste eksisterende computer på ethvert givet tidspunkt. En ting har moderne supercomputere dog til fælles. De har alle mere end én cpu eller cpu-kerne. Grunden er, at flere cpu’er ganske enkelt øger beregningshastigheden og giver mulighed for at løse flere opgaver på samme tid. Din nuværende pc har måske en firkernet cpu, men det alene gør den ikke til supercomputer set med nutidens øjne, hvor supercomputere rask væk rummer cpu’ere med hundredetusinder, endda op til flere millioner kerner.

I 1970’erne begyndte de fleste af disse monsterregnere at bruge vektorprocessorer, og mange producenter tilbød disse processorer til lav pris for at komme ind på markedet.

I de tidlige 1980’ere udviklede man supercomputere med 4-16 vektorprocessorer, der arbejdede i parallel.

I de sene 1980’ere og i 1990’erne skiftede man over til at bruge massive mængder af parallelle processorer med titusindvis af ordinære hyldevareprocessorer, hvoraf nogle endda var deciderede pc-processorer, og andre var bygget specielt til formålet.

Supercomputere kan bygges op på to måder. Den første metode skaber ikke en samlet computer, men snarere et system af separate computere, der er forbundet med hinanden i et netværk og vier al eller en del af deres computerkraft til formålet. Hver computer tager sig af en delopgave og sender resultatet til en stor central server, der samler alle de indkomne data og præsenterer den overordnede totalløsning.

Søgen efter intelligent liv

Et eksempel er BOINC-projekterne (Berkeley Open Infrastructure for Network Computing), der samler tusinder af separate hjemmecomputere verden over og distribuerer forskellige beregningsopgaver til dem. Den kører projektet SETI@home, som søger efter radiosignaler fra intelligent liv i universet, men BOINC omfatter også forskning i både medicin, energi og miljø. Samlet kan sådanne systemer let opnå næsten samme ydelse som en enkelt supercomputer.

Den anden metode er en enkeltstående monstermaskine med et arsenal af lynhurtige, parallelle processorer, der kan løse flere opgaver sideløbende. Som oftest vil computerkraften blive ydet af flere selvstændige enheder, der arbejder sammen i klynger (clusters), hvilket selv sagt forkorter afstanden i mellem dem (i forhold til BOINC-systemer).

Fordelen ved cluster-maskiner er, at relativt enkle opgaver med store datamængder kan udføres hurtigt, fordi der ikke nødvendigvis skal overføres store mængder data mellem processorerne. Ulempen er, at alle disse processorer samlet kræver kolossal energi for at holdes kørende.

Nogle moderne supercomputere, for eksempel Titan, der for tiden hører til en af verdens absolut kraftigste, har reduceret problemet ved at parre hver af sine 18.688 cpu’er med grafiske processorer (gpu’er), der forøger beregningshastigheden, men ikke bruger helt så meget strøm. På den måde kan maskinen ikke blot gøres meget hurtig, men også mere energieffektiv.

Der er dog en tredje vej, nemlig special-supercomputere, der er konstrueret af særligt højtydende processorer designet til at løse udvalgte opgaver. Sådanne forprogrammerede FPGA-chips eller VLSI-chips kan arbejde meget hurtigt, men på bekostning af mere generel problemløsning, og de anvendes ofte til beregninger inden for astrofysik eller til kodebrydning.

Legenden Cray

Begrebet ”Super Computing” blev brugt af avisen New York World i en artikel fra 1929, hvor ordet henviste til en stor specialbygget elektronregner, som IBM havde konstrueret til Columbia University.
Den første egentlige supercomputer var Colossus i Storbritannien, der var konstrueret til at knække tyske koder gennem 2. verdenskrig. Den kunne læse op til 5000 karakterer pr. sekund.

Supercomputere blev som selvstændigt begreb introduceret i 1960’erne under mærkevarebetegnelsen Cray. En betegnelse, som blev synonym med en supercomputer.

Den legendariske computer-ingeniør Seymour R. Cray stod som øverste leder af Control Data Corporation (CDC) bag en række imponerende maskiner frem til 1970’erne, hvor han forlod CDC for at stifte sin egen virksomhed Cray Research, der sammen med flere mindre virksomheder under Cray-brandet var absolut førende på markedet frem til 1990.
Cray-1 fra 1976 er nok den første egentlige supercomputer, som flest kan huske. Første eksemplar blev solgt til National Center for Atmospheric Research for 8,8 millioner dollar. I alt rundede salget af denne maskine over 80 stk.

På det tidspunkt havde de tre forudgående maskiner fra CDC vist vejen med modellerne 6600, 7600 og 8600. Erfaringerne med disse maskiner gjorde, at Cray-1 med sin ydelse på 160 Mflops stort set ikke havde konkurrenter i sin samtid.

Cray-2, der blev lanceret i 1982, var med 1,9 Gflops i peak-ydelse hurtigere, men samtidig truet af X-MP multiprocessorcomputerne, der blev udviklet af Cray Research sideløbende, og de udnyttede som de første Cray-maskiner parallelle vektor-processorer.

I dag er supercomputere typisk specialkonstrueret af ”traditionelle” firmaer som IBM og HP, der købte mange af 1980’ernes firmaer for at vinde deres erfaring. Cray Inc. specialiserer sig stadig i konstruktion af supercomputere, selv om stifteren gik bort i en bilulykke i 1996.

Det kan vi bruge dem til

Supercomputere er det bedste værktøj til at håndtere virkelig store datamængder, eksempelvis simulationer af Jordens klima. Det er svært at forestille sig et større og mere sammensat og uberegneligt system end planetens samlede vejr. Detaljerede beregninger af de forhold, der indvirker på atmosfæren og havene, kan måske bringe os nærmere en forståelse af vejrliget og måske give os detaljeret indblik i mekanismerne bag klimafænomener som El Niño, tsunamier og global opvarmning.

Supercomputere kan også gennemføre biologiske og medicinske simuleringer, som vil kunne hjælpe os til at forstå og måske helbrede sygdomme og skabe medicinske fremskridt.

Stormagterne benytter i høj grad supercomputere til at planlægge militære strategier og simulere virkningen af atomsprængninger og andre våbenanvendelser, inden våbnene overhovedet er bygget og afprøvet. Og kernefysikken og kvantevidenskaben har stor nytte af supercomputere til beregning af atombevægelser, molekylebindinger, universets begyndelse og meget mere. Verdens fødevareproduktion vil også kunne beregnes mere præcist, og dermed bliver supercomputerne et redskab til at effektivisere og forbedre fødevaresituationen til gavn for tredje landes befolkning.

Rumforskning, byplanlægning, og forudsigelser af forskellige katastrofer vil også være blandt de ting, morgendagens supercomputere vil kunne vende op og ned på. De vil være i stand til at inddrage data fra alle tænkelige områder og sammenstille disse data til nyttig information uanset, hvad vi til den tid ønsker at vide.

Det kan de ikke så godt

Supercomputere kan også bruges til big cata, som er begreb, man især opererer med inden for kommercielle opgaver, for eksempel store detailvirksomheders, onlinetjenesters eller onlineshops’ analyser af kundernes købeadfærd.

Men da supercomputere først og fremmest er lynhurtige talknusere, er potentialet på dette område først udfoldet, når der er udviklet software, der kan få supercomputeren til at udføre mere komplekse opgaver. For eksempel beregne, hvilken bog en bogkøber næste gang kan lokkes til at købe. Så selv om supercomputerne i dag er kommet langt, har de stadig meget at lære. De har fået mange muskler og er ekstremt hurtige, men stadig ikke altid intelligente nok i deres omgang med data.

En supercomputers ydelse måltes engang i flops, der står for FLoating Point-Operationer Per Second. Men de tider er for længst forbi. Med den såkaldte Linpack Benchmark har man endda passeret Tflops (tera-flops), der er 1012 flops og er oppe i Pflops (peta-flops), der er 1015 flops (altså 1000 trillioner operationer i sekundet).

1. Tianhe-2 – Kina

Den i øjeblikket absolut kraftigste supercomputer er den kinesiske Tianhe-2 (Mælkevej 2), der blev bygget i 2012 og sprang direkte ind på verdensranglistens førsteplads. Med en ydelse på 33,9 Pflops eller næsten det dobbelte af sine nærmeste konkurrenter. Tianhe-2 er udviklet af Kinas National University of Defense Technology (NUDT) og står i det nationale Super Computer Center i Guangzhou, hvor computeren bruges i forbindelse med uddannelse og forskning.

Den er opbygget af en kombination af Intel Xeon IvyBridge E5- og Intel Xeon Phi-processorer foruden en række specialfremstillede cpu-kredse med over tre millioner processorkerner. Tianhe-2 kører på et almindeligt, kommercielt tilgængeligt styresystem fra Ubuntu Linux kaldet Kylin.

Den amerikanske supercomputer Titan, der lige nu er nummer to på verdensranglisten, er bygget af den navnkundige Cray-virksomhed Oak Ridge National Laboratory. Den er bestykket med 18.688 AMD Opteron 6274 16-kerne-processorer med samlet 561.000-kerner. Den præsterer 17,6 Pflops.

Denne computer er baseret på IBM’s BlueGene/Q-design med 16-kernede 1,6 GHz-cpu’er og et samlet antal processorkerner på 1,6 millioner, som bringer computerens ydelse op på ikke mindre end 17,2 Pflops. Det var den første supercomputer, der brød 10 Pflops- barrieren, og den ejes af den amerikanske organisation for kernekraftssikkerhed.

Fujitsus K-computer rummer over 80.000 2.0 GHz SPARC 64 VIIIfx 8-kernede processorer. Det giver i alt 700.000 processor-kerner – og en ydelse på hele 10,5 Pflops. Computeren bruges til videnskabelig forskning inden for meteorologi og medicin. Den yder i toppen af 8 Pflops og er særlig energieffektiv.

Mira, som er konstrueret af IBM, blev sat i drift i 2013 og yder 8,6 Pflops takket være sine 1,60 GHz processorer på hver 16 kerner, i alt 786.000 processor-kerner. Computeren står opstillet i Argonne National Laboratory, et energilaboratorium. Maskinen er baseret på IBM’s BlueGene/Q platform og erstatter det ældre Intrepid system, der var nummer fire på verdensranglisten i 2008.

Computerlegenden Seymour Cray nægtede længe hårdnakket at anvende parallelle processorer i sine computere ud fra den overbevisning, at de aldrig ville kunne arbejde så hurtigt som en enkelt, veldesignet superspeed-cpu:
”Hvis du vil pløje en mark, vil du så ikke foretrække to stærke okser frem for 1024 kyllinger?,” var hans argument.

Danmark er hoppet med på hastighedsræset. Vindkraftvirksomheden Vestas er indehaver af Danmarks kraftigste computer, Firestorm i Randers, som blandt andet anvendes til avancerede aerodynamiske beregninger af vind. Hastigheden er 150 Tflops. Dermed er den også hurtigst i Skandinavien, men dog blot nummer 53 på verdensranglisten.

Men Syddansk Universitet har bestilt en supercomputer, der forventes at overgå Firestorm med flere længder. Specifikationskravene til supercomputeren er ikke fastlagt, men den forventes at rumme 1000 processorer, både almindelige cpu’er, accelererede cpu’er og grafiske processorer, som tilsammen vil kunne yde omkring 1 Pflop. Det vil sandsynligvis bringe Danmark et godt stykke op i verdens top-40.

Den rå computerkraft skal blandt andet bruges til astronomiske beregninger, der ofte er meget taltunge, men computeren vil også kunne bruges til at hjælpe i udforskningen af sociale medier som Facebook, da den let vil kunne følge over 1 million brugere ad gangen. Den nye maskine kommer til at koste 35 millioner kroner.

For tre år siden vakte IBM’s supercomputer Watson opmærksomhed ved at vinde et quiz-program, hvor den dystede mod menneskelige eksperter på almen viden. Ud fra en gigantisk database med stort set hele menneskehedens samlede viden og ved hjælp af nogle snedige algoritmer for sproganalyse kunne computeren gennemgå alle relevante data parallelt og uddrage dem, den havde brug for til at give et meningsfyldt og korrekt svar.

Jo flere algoritmer, der uafhængigt pegede på samme svar, des større sandsynlighed var der for, at svaret var det rigtige. Computeren svarede ikke 100 procent korrekt på alle spørgsmål. Ejendommeligt nok kiksede Watson i de mest simple spørgsmål.

Nu har IBM videreudviklet Watson til at indgå i diskussioner. Ud fra sin videnssamling skal den debattere med stor overbevisning og argumentere både for og imod i enhver problemstilling – i menneskeligt normalsprog.

På spørgsmålet om, hvorvidt voldelige videospil burde kunne sælges til mindreårige, argumenterede maskinen for eksempel:
”Voldelige videospil kan medføre aggressiv og dårlig social adfærd hos såvel børn som unge, og her er de yngste børn mest udsatte, da de er dårligst til at styre deres impulser.”

”På den anden side synes vold i videospil ikke automatisk at fremme eller forstærke eventuelle voldelige tendenser, eftersom de fleste unge spillere trods alt ikke har problemer med at skelne mellem spil og virkelighed. Og videospil er i dag en almindelig fritidsbeskæftigelse for flertallet af børn og unge i den vestlige verden.”

Ikke dårligt sagt af en computer, der i virkeligheden ikke forstår et ord af, hvad den fremfører!

IBM mener, at teknologien bag Watson vil kunne sortere i den stadigt voksende mængde af information på en så meningsfyldt måde, at vi engang kan forlade os på maskiners vurdering. Dette er ikke mindst brugbart inden for forskning og medicinsk behandling.