Artikel top billede

(Foto: Computerworld)

Verdens hurtigste computere

VI ser på verdens stærkeste computere og på konsekvenserne af at gå bag af dansen inden for global produktion af supercomputere.

Af Torben Okholm, Alt om Data

Denne artikel er oprindeligt bragt på Alt om Data. Computerworld overtog i november 2022 Alt om Data. Du kan læse mere om overtagelsen her.

Glem rumkapløbet til Mars. – Det virkelig teknologiske våbenkap-løb finder sted i superafkølede bunkere rundt om på kloden. Her konkurrerer nationerne om at erobre titlen som verdens hurtigste supercomputer. Supercomputere er big business.

Deres kraft kan markant reducere den tid, der går med forskning, de kan nøjagtigt simulere realtids-systemer, og de kan være med til at udvikle produkter, der er perfekt tilpasset deres miljø. Nationer, der investerer i supercomputere, kan hurtigt høste frugterne i form af teknologiske fremskridt, for ikke at nævne prestigen ved at være allerlængst frem-me inden for teknologier, der allerede for-andrer den verden, vi lever i.

Der er stor stolthed knyttet til det at være den bedste inden for supercomputing – en stolthed, som Amerika har nydt siden 2004. Det var derfor en stor nyhed, da Kinas Tianhe-1A, der holder til ved det nationale supercomputercenter i Tianjin, overtog supercomputing-kronen fra Amerikas Jaguar-system ved Oak Ridge National Laboratory i november 2010.

I årevis havde USA nydt sin status som den førende på området. Selvom man mis-tede førerpladsen, kunne amerikanerne glæde sig over, at Tianhe-1A var opbygget af amerikansk teknologi – nemlig Nvidia-gpu’er. Det blev alt sammen ændret, da Japan sendte USA ned på tredjepladsen i juni 2011 med K Computer, der byggede på Fujitsus SPARC64 VIIIfx-processorer.

Det var syv år, siden Japan sidst havde titlen som verdens hurtigste supercomputer (i 2004 med NEC’s Earth Simulator), og da K Computer lagde sig i spidsen, gjorde den det med stil. Den rummede mere processorkraft end de næste fem supercomputere tilsammen, selvom den endnu ikke var færdig. Den var bestilt af det japanske ministerium for undervisning, kultur, sport, videnskab og teknologi med det formål at bryde 10 petaflop-grænsen (K’et i dens navn hentyder til det japanske ord “kei”, der betyder 10 kvadrillioner).

I juni 2011 bestod den blot af 672 computerkabinetter ud af de planlagte 800, men med 68.544 cpu’er i arbejde scorede den alligevel en Linpack-benchmark på 8,162 petaflop (1 kvadrillion floatingpoint-operationer i sekundet). I november 2011 havde den nået sit mål: Med 864 serverkabinetter og 88.000 cpu’er nåede den en Linpack-benchmark på 10,51 petaflop/sekundet (93 procent af dens teo-retiske tophastighed på 11,28 petaflop).

Ny magtbalance

Pludselig virkede Østens afhængighed af vestlig teknologi begrænset, og USA’s dominans var truet. Selvom Amerika stadig ejede hovedparten af supercomputerne på top-500-listen (255 i juni 2011 for at være nøjagtig), blev nationens krav på at være computersupermagt yderligere udfordret i oktober 2011 med lanceringen af Kinas nye supercomputer, Sunway BlueLight MPP.

Det skyldtes ikke, at den var den stærkeste – den bliver anset for at være den 15.-hurtigste maskine i verden – men fordi den udelukkende var lavet af kinesiskproducerede processorer og dermed var den første kinesiske supercomputer, der ikke bruger Intel- eller AMD-chips.

Lanceringen af Sunway realiserer Kinas drøm om at afslutte afhængigheden af amerikansk teknologi. Det er ikke kun retorik, men en erklæret ambition hos den kinesiske regering. Hertil kommer, at Sunways beskedne størrelse og relative energieffektivitet, sammenlignet med andre supercomputere i top-20, har overrasket førende computervidenskabsfolk, og nogle kommentatorer mener, at det er et tegn på, at Kina er på vej til at overhale konkurrenterne med sin egen teknologi.

Kinas Sunway BlueLight MPP rummer ShenWei SW-3 1600-
chips (16-kernet, 64bit mips-kompatible cpu’er (RISC)), der bliver anset for at være nogle få generationer efter Intels aktuelle chips, men med den solide midler i ryggen, som den kinesiske regering stiller til rådig-hed, er det usandsynligt, at der ikke skulle være nye chips på vej. ShenWei-cpu’er formodes at bygge på Kinas Loongson/Godson-arkitektur, som Kina har arbejdet på siden 2001.

Nogle mener, at denne familie af chips udspringer af den amerikanske DEC Alpha-cpu. Det er måske rigtigt, men det fine ved at efterligne andres produkter er, at man kan bruge erfaringen til at fjerne alle svaghederne fra de tidligere versioner – det er grunden til den bedre energieffektivitet og den mindre størrelse.

USA ser ud til at tabe terræn i supercomputing-verdenen, men den amerikanske regering spørger, hvordan man definerer verdens bedste supercomputer. Spørgsmålet om kraft er interessant nok, men mange mennesker, heriblandt præsident Obama, har påpeget, at det ikke drejer sig om, hvad en supercomputer kan gøre, men hvad man gør med den.

De hævder, at supercomputing ikke kun drejer sig om rå kraft, men om hvordan den kraft bliver brugt, hvor megen elektricitet den forbruger, og hvor hurtigt den
kan levere løsninger på konkrete problemer.

Hvem tør dømme?

Hvem skal afgøre, hvilken supercomputer der tager prisen, og hvilke kriterier bruger de? De fleste er fornøjede med at lade sig lede af Top 500 List of Supercomputers (www.top500.org). Top-500-projektet blev grundlagt i 1993, og lige siden da har det to gange om året produceret en liste over de stærkeste computerenheder med hen-blik på at give »et pålideligt grundlag for at spore og afdække tendenser inden for computerarbejde på højt niveau«.

Det blev grundlagt af universitetet i Mann-heim, Lawrence Berkeley National Laboratory i Californien og University of Tennessee i Knoxville, og det bruger Linpack-benchmark til at afgøre, hvilken maskine der giver den bedste ydelse. Linpack blev lanceret af Jack Dongarra, og den tester et systems ydelse ved at give det et tæt system af lineære ligninger, og ydelsen bliver målt i floatingpoint-operationer pr. sekund (flop/s) – så mange beregninger kan den lave i sekundet. Jo højere flop/s, desto bedre er computeren.

Der er enighed om, at det ikke er den bedste måde at måle kraft på. Man måler kun et aspekt ved systemet, og to maskiner med den samme processor kan give forskellige resultater: Ydelsen kan blive påvirket af forskellige faktorer: belastningen på systemet, urets nøjagtighed, compiler-funktioner, compiler-version, cache-størrelse, båndbredde fra hukommelsen og så videre. Men det gælder for de fleste testtyper.

Top-500’s fokus på kun én måling fik præsident Obamas Council of Advisors on Science and Technology til at argumentere for, at USA’s position inden for supercomputing ikke burde afgøres af dette ene tal. I en rapport fra december 2010 skrev rådet: »Det ville være urimeligt at lade os falde tilbage, når det gælder videnskabelige ydelsestest, der har praktisk betydning, men en ensporet fokusering på at være i første række, når det gælder flops-tallet, er sandsynligvis ikke i nationens interesse.«

Ægte fordele

Dongarra har forklaret de ægte fordele ved supercomputing i produktudvikling: »Supercomputere muliggør simulation – det vil sige de numeriske beregninger bag forståelse og forudsigelse af videnskabeligt eller teknologisk vigtige systemers adfærd – og derfor accelererer de fornyelsen. Simulation har allerede ført til: Cummins har lavet bedre dieselmotorer hurtigere og billigere, Goodyear har udviklet sikrere dæk langt hurtigere, Boeing har lavet mere brændstoføkonomiske fly, og Procter & Gamble har lavet bedre materialer.

Simulation accelererer teknologiens fremskridt fra laboratoriet til det færdige produkt. Bedre computere giver bedre simulationer og mere pålidelige forudsigelser. De bedste maskiner i dag er 10.000 gange hurtigere end for 15 år siden, og teknikkerne til simulation inden for videnskab og national sikkerhed er blevet bedre.«

En anden person, der tror på behovet for supercomputing, er Kevin Wohlever, leder af Supercomputing Operations hos Ohio Supercomputer Centre. Han har arbejdet med supercomputing i næsten 30 år for foretagender såsom Cray Research, Inc. Vi har spurgt ham, om supercomputer-væddeløbet mellem Kina og USA drejer sig om national stolthed, eller om der er tale om vigtigere ting.

»Det drejer sig både om stolthed og noget dybere. Hvis man ser 10-15 år tilbage, stillede man de samme spørgsmål til kapløbet mellem japanerne og USA. National stolthed spiller bestemt en rolle. Det samme gælder stoltheden hos det firma, der udvikler og producerer den hurtigste computer. Der er markedsføringsfordele i at være det firma eller den nation, der kan levere verdens hurtigste computer.«

»Der er også klare fordele ved at have de rigtige applikationer kørende på de bedste computere. Påvirkning af de finansielle markeder og handel, der lige er en smule hurtigere, kan føre til en stor indtjening. Mulighederne er mange, lige fra vejrmel-dinger, biler, fly, både og tog til udvikling af nye lægemidler og forskning i kemiske reaktioner. De rigtige værktøjer i de rette hænder kan gøre en stor forskel, når det gælder følelsen af sikkerhed, hvad enten det er i arbejdet eller i dagligdagen.«

Det tredje ben

Gerry McCartney er vicedirektør for informationsteknologi hos Purdue University, og han er enig i, at der bør være mere fokus på udviklingen af supercomputere, og ikke blot for at kunne prale: »Jeg mener, og det er jeg ikke ene om, at højtydende computere og simulation nu er videnskabens “tredje ben” på linje med de traditionelle ben, teori og eksperimenter. Hvis man har utilstrækkelige computere, svarer det til at have utilstrækkelige laboratorier eller forskningsværktøjer. Det har et direkte forhold til udviklingens mængde, kvalitet og hastighed. Det gælder både grundforskning og teknologisk udvikling, der fremmer viden, og teknologiske fremskridt, som fører til økonomisk vækst. Der er langt mere på spil end retten til at prale.«

Vi spurgte McCartney, der har ansvar for verdens største universitetscomputer, hvor vigtig supercomputing er i det politiske miljø i dag.

»Sandsynligvis ikke vigtig nok. I USA står det over for det samme problem som lægevidenskab og anden form for forskning. Økonomien er i bund, og de nationale budgetter og delstaternes budgetter er stramme. Vi søger besparelser, ikke steder, hvor vi kan bruge mere. Naturligvis skal vi blive mere effektive og bruge pengene klogt. Men vi skal tænke frem-ad. Fremskridt i dag såsom siliciumledninger på atomniveau betaler sig måske ikke for alvor de næste ti år. Men de kommer aldrig til at betale sig, hvis vi ikke har de rette værktøjer til at sætte processen i gang.«

På trods af disse begrænsninger står USA ikke i stampe. IBM og Cray er ved at udvikle 20 petaflops-maskiner. Og selvom præsident Obamas Council of Advisors on Science and Technology i december 2010 sagde, at »del-tagelse i et supercomputer-våbenkapløb kan blive meget kostbart og kan gå ud over midler til grundforskning«, rummer den amerikanske finanslov for 2012 et beløb på 126 millioner dollars til udvikling af exascale-supercomputing, der er den næste større milepæl inden for forskning i supercomputere.

Det skal sammenlignes med de beskedne 24 millioner dollars, der var sat af til supercomputing i den forrige finanslov. Men det blegner i lyset af Japans planer om at investere op til 1,3 milliarder dollars i udviklingen af en exascale-computer i 2020.

Alternativerne

Man kan lave en supercomputer med ssd-drev. Hvorfor så ikke lave en med mobiltelefonchips? Ved hjælp af strømbesparende Tegra-cpu’er, som man typisk finder i mobiltelefoner og tablets, håber Barcelona Supercomputer Centre i Spanien at reducere den mængde strøm, der skal drive centrets nye supercomputer. Projektet omfatter en aftale med Nvidia, og centret håber at kunne producere en højtydende computer i 2014. Den skal køre med mellem fire og ti gange forbedring i energieffektiviteten i forhold til de mest energieffektive supercomputere, der findes i dag.

Eller hvad med at lave en cloud-baseret virtuel supercomputer af de servere, der ikke bestiller noget? Servere, der kunne bruges som en supercomputer i dag og som noget andet i morgen. En supercomputer til leje, om man vil. Det har Amazon gjort i efteråret 2011 ved at lave en virtuel supercomputer af foretagendets Elastic Compute Cloud (Amazon EC2), der er det verdensomspændende netværk af datacentre, som bliver brugt til at levere cloudcomputerkraft til andre virksomheder i hele verden.

Amazons globale infrastruktur er så enorm, at den kunne køre en virtuel supercomputer – en, der er hurtig nok til at blive placeret som nummer 42 blandt verdens supercomputere – uden at det påvirker nogen af de virksomheder, der bruger dets datacentre til deres egne formål.

Nu om dage behøver man altså ikke at bygge en fysisk supercomputer, når man blot kan leje tilstrækkelig mange virtuelle servere for at opnå den computerkraft, man har brug for til et bestemt projekt. Og prisen er en brøkdel af det, det ville koste selv at lave sådan en computer. Denne form for distribueret supercomputing er noget, som kineserne nemt kunne efterligne, og hvis de forbandt alle deres forskellige supercomputing-komplekser og kørte dem som en virtuel supercomputer, kunne de snildt overhale alt, hvad USA kunne levere, med en faktor 100.

Her taler vi imidlertid kun om at udnytte teknologier, der allerede eksisterer i kommerciel form. Den virkelig spændende forsk-ning bygger på teknologier, der foreløbig kun er afprøvet i laboratoriet. Det er i den verden, der flyver med nye begreber, som alle kan ende med at lægge grunden til den næste generation inden for supercompu-ting. Det drejer sig om udvikling inden for optisk informationsbehandling, siliciumledninger på atomniveau og kvantemekanik.

Optisk behandling

Purdue University arbejder med to af disse teknologier. Den første drejer sig om optisk informationsbehandling – hvor man bruger lys i stedet for elektricitet til at sende signaler, ligesom med lyslederkabler.

Selvom lyslederkabler kan overføre mange data, betyder behovet for at oversætte disse data til elektroniske signaler i hver ende af kablet, at datatransmissionen bliver forsinket markant (og gør dem sårbare for cyberangreb). Drømmen er, at den information, der bliver transmitteret via lys, kan gå direkte ind i computeren, og Purdue mener at have fundet en måde at gøre det på.

Det er lykkedes et forskerhold at lave en “passiv optisk diode”, som transmitterer optiske signaler i kun en retning. Adjungeret professor i computervidenskab Minghao Qi forklarer: »Denne ensrettede transmission er den mest fundamentale del af et logisk kredsløb, og vores dioder åbner døren ind til optisk informationsbehand-ling.« De består af to bittesmå siliciumringe, der måler 10 mikrometer i diameter (cirka en tiendedel af et menneskehårs bredde), og de er så små, at man kan placere millioner af dem på en computerchip.

Disse optiske dioder gør fiberoptisk datatransmission hurtigere og mere sikker, og de kunne gøre supercomputere hurtigere, hvis man brugte dem til at forbinde de processorer, der er inden i computeren. Som forskningsassistent Leo Varghese udtrykker det:

»Den vigtigste faktor, der i dag begrænser supercomputere, er den hastighed og båndbredde, som karakteriserer kommunikationen mellem de enkelte superchips i systemet. Vores optiske diode kan måske blive en komponent inden for optiske systemer, som eliminerer den flaskehals.«

Et andet gennembrud, der har fundet sted på Purdue University i samarbejde med University of New South Wales og Melbourne University, er den mindste ledning, der nogensinde er fremstillet af silicium. Ved at anbringe en streng af fosforatomer i en siliciumkrystal har forskerne skabt en siliciumledning, der er et atom høj og fire atomer bred, og dens ledende egenskaber svarer til kobberledninger.

Det kan måske bane vejen for skabelsen af computerenheder på nanoniveau og gøre kvantecomputerteknik til virkelighed (se boksen Hvad er en kvantecomputer? ovenfor). Størrelse er et afgørende vigtigt element inden for supercomputing, og denne forskning viser, hvad der kan vise sig at være den ultimative bundgrænse. Vi står måske over for udviklingen af de mindst tænkelige siliciumbaserede supercomputere.

Skal vi blive ved?

Betyder alle disse teknologier, at vi blot jager computerkraft i stedet for at tænke på praktisk anvendelse? Vi har spurgt Gerry McCartney fra Purdue University, om det går så hurtigt, at folk ikke kan følge med.

»Man skal have folk, der ved, hvordan man laver, betjener og vedligeholder disse systemer. Endnu vigtigere er det, at de ved, hvordan man samarbejder med forskerne om at gøre det så nemt som muligt at lave deres forskning. Der er intet overskud af kvalificerede folk. De er meget efterspurgte. Vi hjælper de studerende ved at inddrage dem som studentermedhjælpere med vigtige opgaver. Disse studerende ender med at kunne vælge mellem mange job. Men vores motiver er ikke udelukkende alt-ruistiske. Vi kan tiltrække nogle af dem, når de er færdiguddannet.«

Vi har spurgt Kevin Wohlever fra Ohio Supercomputer Centre, om der er problemer med at uddanne folk, så de kan bruge disse fremtidige computerteknologier. Han svarede, at det snarere er et problem at uddanne firmaerne i det, der nu er til rådighed.

»Jeg tror, at supercomputing går for hurtigt for nogle brancher og firmaer. Teknologien ændrer sig meget hurtigt. Meget dygtige folk kan se på den nye teknologi og drage fordel af den her og nu. Jeg tror, at problemet er, at manglende accept og brug af ny teknologi i firmaerne forsinker den udbredte tilegnelse af ny teknologi. Det hjælper heller ikke, hvis de tjener godt på eksisterende teknologi. Vi trænger til bedre standarder, når det gælder om hurtigt at tilegne sig ny teknologi. Vi skal vise, at det er et spændende område. Det har måske ikke de økonomiske fordele, som man ser i andre brancher, men der mangler stadig meget spændende arbejde.«

Spændingen er stor i hele supercompu-ting-branchen, og uanset de politiske vilkår er det tydeligt, at supercomputere bliver stadig mere nødvendige. Hvis den vestlige verden mister sin dominans inden for supercomputing, vil den også sakke agterud på mange andre områder.

Det virker imidlertid usandsynligt. Kapløbet er i gang, og det slutter næppe nogen-sinde. Hvis præmien blot består i at være verdens hurtigste computer, er der altid en konkurrent lige om hjørnet.

Fordelene ved dette kapløb vil vise sig for forbrugerne, når disse computerkæmper baner vejen for de computerteknologier, som vi finder i vores hjem, kameraer, tablets og telefoner få år senere, for ikke at tale om de videnskabelige gennembrud, som større computerhastigheder vil muliggøre. Det er usandsynligt, at myndighederne vil overse betydningen af supercomputing, og selvom det blot skyldes politiske årsager og konkurrence mellem nationer, vil teknologien under alle omstændigheder gå af med sejren.

Danmark kan også være med på verdensplan

Selvom Danmark måske ikke kan slå England, der har hele 27 maskiner på Top 500 List of Supercomputers (www.top500.org) og 7 blandt de første 100. – Den stærkeste af disse maskiner er University of Edinburghs High End Computing Terascale Resources (Hector) på nummer 19, så kan Danmark rent faktisk også være med i kapløbet.

Den verdenskendte vindmølleproducent Vestas proklamerede allerede i juni sidste år, at de benytter en af verdens største computere. Ud fra målinger fra de sidste 11 år foretager computeren udregninger på vejrforhold som vindhastighed, luftfugtighed og jordfugtighed. Det skulle give virksomheden mere præcise udregninger, hvilket i sidste ende kommer kunderne til gode.

Når en vindmøllepark skal etableres, er det nemlig vigtigt, at møllerne placeres de rette steder med hensyn til vinde og turbulens. Ud over at udregne placering af møller bruger Vestas også maskinen til at komme med eksakte estimater på, hvor meget strøm de enkelte parker kommer til at producere i den nærmeste fremtid. Selve maskinen hedder Firestorm og er baseret på en IBM Firestorm-computer, der består af 1.222 computere med hver 12 processorkerner, hvilket i alt giver intet mindre end 14.664 kerner.

Selvom den ikke slår Englands Hector, så har Firestorm en placering på nummer 53 på listen over supercomputere og skulle være verdens tredjestørste supercomputer, hvis man udelukkende regner i kommerciel anvendelse. Firestorm er da også Danmarks kraftigste computer med hele 150 teraflops (hvilket svarer til 30 millioner udregninger pr. dansker pr. sekund) og er tilmed også en af de kraftigste i hele Skandinavien.

Maskinen er placeret i Randers, og Vestas behøver nok ikke at frygte, at tyve render med computeren i ly af natten, da hele herligheden vejer 24 ton og er 40 meter lang.

Flere ønsker at ændre top-500-listen

Selv Jack Dongarra, skaberen af Linpack-testen, der er den aktuelle standard for rangering af supercomputere, mener, at den ikke er den bedste måde at måle kraft på.

Dongarra vil gerne begynde at bruge en anden test, som han oprindelig udviklede til DARPA, nemlig High Performance Computing Challenge. HPCC foretager syv ydelsestest og måler flere aspekter ved systemet. Den er endnu ikke optaget af top-500. En anden test, Graph 500, er blevet lanceret af et internationalt team, der bliver ledet af Sandia National Laboratories. Dens skabere siger, at den supplerer den test, som top-500 bruger. Men den leverer kun ét tal, baseret på et enkelt aspekt ved supercomputing, og den kan måske blive ramt af samme kritik som Linpack-testen.

Top-500-projektet erkender begrænsningerne ved den enkelte algoritme, der bruges, og man gør alt for at undgå, at folk udnytter denne omstændighed. Websitet rummer en tekst, der fortæller, at top-500 kun ser på maskiner til generelle formål – maskiner, der kan håndtere en række forskellige videnskabelige opgaver. Ethvert system, der er specifikt udviklet til at løse Linpack-testens opgaver, eller som blot har til formål at komme højt op på top-500-listen, bliver diskvalificeret.

Exascalecomputere er en stor drøm inden for supercomputing – det at producere en maskine med 1.000 gange så stor processorkraft som de hurtigste supercomputere. De fleste kommentatorer forudser et gennembrud ved udløbet af dette årti, men der er visse håndgribelige hindringer, som man først skal overvinde.

Teknisk set er der ikke noget, der forhindrer folk i at samle den hardware, der skal til for at lave en exascalecomputer i dag. Problemerne knytter sig til den mængde strøm, den vil bruge, dens enorme størrelse og den varme, den vil producere. Selv moderne højtydende computere ville smelte på få minutter, hvis man fjernede de kølerventilatorer, der bliver brugt i deres iskolde bunkere.

Kinas Sunway BlueLight MPP-computer fører an inden for energi-effektivitet. Dens strømforbrug er 1 megawatt. Til sammenligning bruger dens forgænger, Tianhe, der bygger på amerikansk teknologi, 4 megawatt, mens den kører, og den amerikanske Jaguar bruger omkring 7 megawatt. Det er en markant besparelse i både strøm og omkostninger for en maskine, der er cirka 74 procent så hurtig som Jaguar, især når man tænker på, at hver megawatt svarer til omkring 1 million dollars om året i strøm. Når Japans K-computer kører ved 8,162 petaflops, går der 9,89 megawatt. Det svarer til cirka 10 millioner dollars om året.

Springet til exascale kan virke stort inden 2020, men det bliver nødvendigt, hvis man skal vade igennem alle de data, der til den tid bliver lagret. For otte år siden var der kun omkring 5 exabyte data online. I 2009 gik der så mange data gennem internettet på en måned. I dag anslår man, at tallet er cirka 21 exabyte om måneden. Og så har vi ikke nævnt alle de datakilder, der er gemt andre steder – medlemskort i supermarkederne, materiale fra overvågningskameraer, plastic-kortoplysninger, information fra vejrsatellitter og oplysninger om tidevand og stjernebilleder for blot at nævne nogle få – nu om dage bliver der genereret og lagret data overalt, og der er endeløse mængder af statistik at vade igennem.

Supercomputere kan og vil omdanne dette væld af data til nyttig information, analysere tendenser, sammenligne datasæt, forfine produktdesign, producere hyperrealistiske simulationer af systemer. Exascale-supercomputing vil gøre det muligt at analysere verden som aldrig før.

For at finde bedre metoder til at opnå bedre datahastigheder eller mere energieffektive supercomputere laver forskningscentrene deres supercomputere af stadig mere usædvanlige komponenter. For eksempel har San Diego Supercomputer Centre (SDSC) lavet en, der bruger flashlager (1.024 Intel 710 Series-drev), der gør det muligt at tilgå data op til ti gange hurtigere end med traditionelle roterende harddiske.

Da den blev lanceret i januar, sagde direktøren for SDSC, Michael Norman: »Den har 300 trillioner bytes flashhukommelse, hvilket gør den til det største thumb-drev i verden.« Det er et stærkt thumb-drev, der er nummer 48 på top-500.

Vil du vide, hvad den hedder? Den hedder Gordon. Netop, Flash Gordon. Jens Lyn.

Mark Thompson fra University of Bristol fortæller om en fremtid inden for supercomputing

Vi har talt med Mark Thompson, der er seniorforsker ved Centre for Quantum Photonics ved Bristol University, om fordelene ved kvanteteknologi i forbindelse med computere.

»En kvantecomputer kan løse bestemte opgaver effektivt og udføre beregninger, der ville være umulige eller upraktiske på enhver konventionel computer – uanset hvor stærk den måtte være. Computerkrafen i konventionelle computerteknologier er begrænset af fysikkens love, men verden er strengt taget kvante-mekanisk i sit væsen, og en kvantecomputer kan betvinge de sære og uhyggelige egenskaber ved kvantemekanik (såsom entanglement) og bearbejde information på helt nye og stærke måder.«

Hvor langt er kvantecomputeren fra at blive til virkelighed? »Sammenlignet med udviklingen inden for den mikroelektroniske industri er vi nok et sted mellem udviklingen af rørforstærkeren og den første transistor – der er stadig lang vej igen. Det er en udbredt opfattelse, at en komplet kvantecomputer (en computer, der kan køre en kvantealgoritme/et kvanteprogram) først vil se dagens lys om mindst 20 år.

Men på University of Bristol udvikler vi en række kvanteteknologier (baseret på lys i microchips), som vil føre til nye kvanteapplikationer inden for kommunikation, sansning og computerarbejde. Man forventer, at kvanteteknologierne inden for ti år vil kunne foretage beregninger, der overgår konventionelle computere (for eksempel i forbindelse med simulation af komplekse kvantesystemer).«