Artikel top billede

(Foto: Computerworld)

Foton-computer skal revolutionere datacentre

Hewlett-Packard har løftet sløret for en helt ny måde at konstruere computere til datacentre på. Fotoner afløser elektroner, og en ny komponent, memristoren, sikrer bedre ydelse, forenklet opbygning og mindre energiforbrug.

Af Palle Vibe, Alt om Data

Denne artikel er oprindeligt bragt på Alt om Data. Computerworld overtog i november 2022 Alt om Data. Du kan læse mere om overtagelsen her.

Siden fødslen af de allertidligste elektroniske hjerner omkring 1945 er opbygningen af digitale computere generelt sket efter den såkaldte ”von Neumann-arkitektur”, dvs. med en input-enhed (tastatur/mus mv.), et styresystem, et antal processorer, lagerhukommelse samt en output-enhed (almindeligvis skærm eller printer).

Siden er der selvfølgelig indført forbedringer såsom de simplere RISC-processorer, der blev introduceret i midten af 1980’erne med det formål at frigøre ressourcer, der så i stedet kunne anvendes til at skabe forøget ydelse af andre funktioner i computeren, eksempelvis hurtigere nær-lager (cache). RISC-processorer har dog som et eksempel på halvgode innovationer behov for en mere kompliceret software.

Skal der ske afgørende forbedringer, må der altså nye ideer og ny banebrydende teknologi på bordet, og det er verdens førende computerproducenter udmærket godt klar over. Allerede i 2011 var Hewlett-Packards laboratorier på banen med en slags forstudie, et serversystem, som de kaldte HP Moon-shot.

Disse servere udnyttede ultraeffektive lavenergiprocessorer som Intels Atom S1200 Centerton, og samtidig gjorde Moonshot brug af særlig software, der tillod en markant enklere opbygning. Derved fyldte serverne 80 procent mindre plads og brugte ifølge HP 89 procent mindre energi end traditionelle computere. Moonshot-servene blev dog først kommercielt tilgængelige i 2013 og har ikke revolutioneret verdens datacentre.

Hewlett-Packard klar med ny løsning

Men et helt nyt koncept, som også Hewlett-Packard står bag, vil måske revolutionere computerverdenen. Det handler basalt set om kvantecomputere baseret på fotoner i stedet for elektroner, men løsningen, som den kendte computerproducent har udviklet i sine egne forsøgslaboratorier, går imidlertid en helt ny vej.

Hewlett-Packard fokuserer med forbillede i Moonshot-serverne på den komplicerede datatrafik, der hele tiden løber frem og tilbage mellem computerens forskellige slags hukommelse (ram, cache, buffer og harddisk). De fleste traditionelle computere bruger op til 80 procent af deres kapacitet til at styre interne funktioner og processer frem og tilbage i stedet for at løse opgaver.

Og hele denne elektrontransport afvikles af styresystemet, der naturligvis også skal bruge en del ressourcer til dette arbejde. Hvis det var muligt at reducere computerhukommelsen til en enkelt simpel memory, der kunne huske og gemme de nødvendige informationer uden at kræve konstant spænding, ville alle informationer, computeren havde brug for, være til stede omgående og uden brug for omstændelige, interne dataoverførsler.

Hvis de interne dataforbindelser så tillige kunne gøres hurtigere, og de forskellige processorer kunne trimmes, så de blev både mere ydelseseffektive og energieffektive, var man tæt på en computer, der fungerer mere effektivt og hurtigere med brug af mindre energi end hidtil.

Hemmelighederne i ”Maskinen”

Den nye vision, som HP blot har valgt at kalde ’The Machine” (laboratorieafdeling har ingen marketingfolk til at finde på smarte navne), har netop de egenskaber ved at inddrage tre forskellige teknologier: memristorer, fotoner og specialiserede processorer.

Memristorer, der er en sammentrækning af memory (hukommelse) og resistor (modstand), er en passiv elektronisk komponent med den egenskab, at den ændrer modstand som funktion af den tilstedeværende strøm, og du kan derfor kalde en memristor for en variabel modstand, som netop i kraft af sin varierende modstand gengiver et billede af den strøm, der er passeret gennem den.

Memristoren blev forudsagt og beskrevet i 1971 af Leon Chua fra UC Berkeley og var i 37 år en teoretisk komponent. I 2008 lykkedes det dog et team af fysikere fra HP Labs at skabe en funktionsdygtig udgave ved hjælp af nanoteknologi, og i dag er det muligt at seriefremstille komponenten billigt.

På samme måde som almindelige transistorer kan memristorer sammensættes i hukommelseschips til en form for fast hukommelse med højere datatæthed end harddiske og med tilgangstider, der kan måle sig med ram-hukommelse, men de fylder langt mindre. Derudover skal de ikke have tilført strøm for at fastholde deres billede af en aktuel modstand.

Hvis der bliver slukket for strømmen undervejs, vil komponenten huske den sidst oplevede modstand, og hvis der bliver tændt igen, vil modstanden set fra memristorens side være den samme, som da strømmen blev afbrudt.
Med memristorer har forskere fra HP tilvejebragt den første fysiske forudsætning for The Machine og har konstrueret en prototype på en hukommelse, som opviste en tæthed på 100 gigabit pr. cm², hvor den hidtil typisk største tæthed for en tilsvarende flash-hukommelse er omkring 16 gigabit pr. cm².

Undgår interne flaskehalse

Den anden teknologi, The Machine skal udnytte, skal imødegå den transporttid og de flaskehalse datasignalerne møder på deres vej mellem computerens forskellige enheder. Mens de enkelte chips nu efterhånden er så små, at afstanden mellem komponenterne i praksis stort set er lig nul, og datatrafikken derfor foregår ganske hurtigt, er det noget andet med afstanden mellem de enkelte funktionsblokke i computeren.

Kobberbaner og ledninger kan næsten ikke blive mindre, hvis de skal rumme databærende elektroner. Desuden er der det drilagtige ved elektroner, at du faktisk aldrig ved helt præcis, hvor de befinder sig. Kun ved at arbejde med grupper af elektroner, kan du rent statistisk i digital sammenhæng danne dig et skøn over, om de repræsenterer et ettal eller et nul.

Så i stedet for elektroner har HP valgt at lade signalerne mellem de forskellige processorer og hukommelseschips bære af fotoner (lyspartikler) gennem lysledere. Fotoner kan nemlig overføre flere data med højere hastighed med brug af væsentlig mindre energi og har heller ikke samme problemer med varmeudvikling som elektroniske kredsløb.

The Machine kan på den måde sende datainformationer lynhurtigt mellem sine kredsløb ved hjælp af lyspartikler og lagre petabytes i en hukommelse, der er hurtigere end flash, men som bruger mindre energi og slet ingen strøm for at gemme data. Lavere strømforbrug betyder også lavere varmeudvikling, hvilket igen kræver mindre behov for køling, og man får dermed mulighed for at samle endnu flere komponenter og enheder på samme plads.

Den sidste form for teknologi i form af specialiserede processorer er til gengæld ikke ny. Tankegangen er at bruge processorer, der er specielt opbygget til kun at være gode til nogle få særlige ting, men som derfor til gengæld er så billige, at der kan bruges mange af dem. Et eksempel er de forskellige grafikprocessorer, der jo udgør en vigtig grundsten i al slags billedgenerering og computergrafik.

Fremtidens datacenter

På den måde forestiller HP sig, at det vil være muligt at skabe et datacenter med tusindvis af serverenheder, der er forbundet, så hver enkelt enhed på et øjeblik kan tilgå den samlede datamængde, selvom den er placeret i skyen eller fylder flere hundrede petabyte. Selvom kunder måske nok vil kunne se fordelene ved en computerarkitektur som the Machine, vil denne teknologi dog kun være interessant, hvis deres eksisterende systemer kan flyttes relativt ubesværet over på denne nye platform.

Ifølge Martin Fink, teknisk direktør for Hewlett-Packards laboratorieafdeling, vil det ikke i længden være muligt at udbygge datacentrene med den nuværende teknologi.

”Vi vil ramme en mur,” siger han med henvisning til, at kobberkabel af en vis længde har et vist energiforbrug. Også et nyt operativsystem er nødvendigt.

”I et par årtier er der stort set ikke sket nogen udvikling eller fornyelse af de eksisterende styresystemer,” udtalte Martin Fink ved præsentationen af the Machine. ”Derfor inviterer vi nu universiteter over hele verden til at tage del i fornyet forskning på dette felt.”

Hewlett-Packard arbejder selv på tre forskellige styresystemer, der kan udnytte den helt nye computerarkitektur i the Machine. Det ene af disse styresystemer er baseret på en særlig udgave af Linux, hvor alle overflødige komponenter er skåret bort og erstattet med nye, der bedre kan samarbejde med den nye computeropbygning. der arbejdes også på et Android-baseret system.

Desuden er HP i gang med et helt nyt styresystem, som fra fødslen skal kunne arbejde med en arkitektur, der ikke er baseret på, at data ustandselig skal flyttes frem og tilbage mellem forskellige typer hukommelse og lagerplads. Det er planen, at dette styresystem bliver ”åbent” og lægges ud som open source.

The Machine og et tilpasset styresystem er oplagt til Big Data, hvor den nye og hurtige arkitektur vil reducere svartiden betragteligt. HP har så store forventninger til den nye computerstruktur, at producenten er overbevist om, at det inden 2020 vil være muligt at nå en generel svartid på 250 nanosekunder med en udgave af The Machine, der kan håndtere 160 petabyte datahukommelse.

[themepacific_accordion]
[themepacific_accordion_section title="Fakta"]

”Hvis der bliver slukket for strømmen undervejs, vil komponenten huske den sidst oplevede modstand.”

[/themepacific_accordion_section]
[/themepacific_accordion]