Artikel top billede

(Foto: Computerworld)

Hvil i fred, Moores lov, nu gælder det fremtiden

Moores lov har virket i lang tid, men nu er den lagt i graven. Vi undersøger computerens fremtid i den post-eksponentielle æra.

Af Torben Okholm, Alt om Data

Denne artikel er oprindeligt bragt på Alt om Data. Computerworld overtog i november 2022 Alt om Data. Du kan læse mere om overtagelsen her.

Halvtreds år er lang tid, når det gælder om at se en forudsigelse gå i opfyldelse. Men det er stort set så lang tid, Moores lov har holdt stik som en prognose for computerkraftens udvikling. Nu er langt de fleste dog enige om, at Moores lov er færdig. Computerchips’ kompleksitet bliver ikke længere fordoblet hvert andet år.

Intel har for eksempel udskudt større leverancer af den næste generations 10 nm-processorer til 2019. Det er næsten fem år, efter at Intel begyndte at pumpe 14 nm-chips ud i større mængder. Og Intels 14 nm-node kom tre år efter 22 nm. Velkommen til æraen efter Moores lov, hvor hurtigere computere til færre penge ikke længere er en selvfølge.

Det er en radikal ændring, der kan true fremskridtene på andre områder end konventionelt computerarbejde. Udviklingen af alting fra AI og førerløse biler til lægevidenskab, bioteknologi og ingeniørkunst bygger i hvert fald i nogen grad på den antagelse, at den tilgængelige computerkraft stiger ikke blot støt, men også eksponentielt.

Det er den sidstnævnte implikation, der har været den mest revolutionerende. Den eksponentielle stigning i computerkraft igennem et halvt århundrede lignede ikke noget, verden tidligere har set. Og det rejser uundgåeligt spørgsmålet: Kommer vi nogensinde til at se noget lignende igen?

Det enkle svar er med stor sikkerhed nej. Den regelmæssige kadence fra Moores lov, når det gælder integrerede kredsløb, er slut, og der er ingen oplagte kandidater, der står parat til at overtage rollen.

Den gode nyhed er imidlertid, at der ikke er nogen mangel på kandidater, som måske kan levere alt fra trinvise forbedringer til revolutioner, der er så radikale, at de vender op og ned på begrebet stigende computerkraft. Computernes fremtid bliver ikke længere en model for stabil udvikling; den bliver snarere noget, der skal måles i forbløffende og dramatiske omvæltninger.

Den smartphone, der ligger i din lomme, er kraftigere end fortidens enorme mainframe-computere. Ikke blot lidt kraftigere, men mange gange så kraftig. Det er Moores lov i en nøddeskal, og dens implikationer er lige så utrolige, når det gælder den rå teknik, som de er afgørende for menneskers liv. Næsten ethvert aspekt ved den moderne tilværelse hænger i sidste ende sammen med computere.

Nu er Moores lov imidlertid historie, og fremtidens computerarbejde må bero på et andet paradigme. Skal vi tage nogle tal? En Apple iPhone X kan levere 200.000 gange så mange flydende komma-operationer i sekundet som CDC 6600 fra 1964, der blev betragtet som verdens første supercomputer, og som var på størrelse med en varevogn. Bevares, dette tal bygger ikke på en en-til-en-sammenligning, der ville kræve talrige kvalifikationer under nøje inspektion.

Transistorer, der er lavet af kulstof-nanorør, kan måske revolutionere computernes effektivitet.

Men det giver et retvisende billede af de monumentale og eksponentielle implikationer af Moores lov og de forbløffende fremskridt i computerkraft i de seneste 50 år.

Moores lov er som bekendt den iagttagelse, at transistormængden i integrerede kredsløb bliver fordoblet hvert andet år. Med andre ord siger den, at computerchips enten bliver dobbelt så komplekse eller halvt så dyre – eller en blanding af de to – hvert andet år. Eller rettere: Det gjorde de fra omkring 1975, da Gordon Moore (medstifter af Intel) justerede sin oprindelige tidshorisont ned fra en fordobling hvert år til hvert andet. Og det fortsatte indtil for omkring fem år siden, da det stod klart, at udviklingen nu gik langsommere.

I 2015 bekræftede Intel, at Moores lovs kadence var faldet til 2,5 år med overgangen fra 22 nm siliciumchip-produktion til 14 nm. Hvis vi iler frem til anden halvdel af 2018, er det tydeligt, at skridtet fra 14 nm til 10 nm vil kræve endnu længere tid – mindst fire år og sandsynligvis snarere fem. De andre større chipproducenter, herunder den taiwanske gigant TSMC og Sydkoreas Samsung, har alle døjet med forsinkelser. Resultatet er en almindelig enighed om, at Moores lov, der har regeret i årtier, ikke længere gælder.

D-Waves 2X er en ægte kvantecomputer. Men er den virkelig hurtigere end konventionelle computere?

Det kommer ikke som nogen overraskelse. Konventionelle integrerede kredsløbs natur tilsiger, at kadencen med de stadigt skrumpende transistorer ikke kan fortsætte til evig tid. Udviklingen måtte før eller siden støde på en mur. Når man er nede på at lave transistorer af en håndfuld atomer, har man ingen steder at gå hen.

Afskeden med Moores lov er ikke den eneste udfordring, der møder konventionelt computerarbejde, som bygger på integrerede kredsløb. Forøgelsen af chipkompleksitet og reduktionen af transistorernes størrelse er blevet fulgt af den hastighed, hvormed de kan tænde og slukke. Det har ført til en reduktion i strømforbruget pr. transistor. Hvis man kombinerer disse to aspekter, får man både forøgede operationsfrekvenser og reduceret energiforbrug. Det er naturligvis den rene luksus, og det har betydet meget for den generelle ydelse.

Desværre har forbedringer i operationsfrekvens og energieffektivitet været endnu mere kortlivede end Moores lov. I 2004 nåede Intel 3,8 GHz med sin Pentium 4, og man talte om en kommende frekvens på 10 GHz. Der er i mellemtiden gået næsten 15 år, og Intels processorer er blevet forbedret med kun 1 GHz.

I den seneste tid er strømtab blevet et stigende problem i takt med, at transistorerne er blevet mindre. De er blevet så små, at de lider under kvantefysik-fænomener såsom kvantetunnelering, der gør det muligt for individuelle elektroner at springe over isoleringsbarrierer og dermed “lække” energi og generere varme.

Virkningen af det plus afskrivningen af Moo-res lov er omfattende. Tidligere kunne man regne med, at computerchipsene ville blive hurtigere, mere effektive og billigere – på samme tid. Nu kan man ikke længere være sikker på at opnå markante forbedringer på nogen af disse områder.

Er det så stort et problem? Når det gælder desktop-computere, vil mange hævde, at nutidens cpu’er allerede er kraftige nok. Den stagnation i pc-processorydelse, som vi har set i de seneste år, har mindst lige så meget at gøre med mangel på konkurrence som med fraværet af Moores lov. Læg mærke til den påvirkning, AMD’s Ryzen-cpu’er havde på Intel. Her holdt man sig til fire kerner i mainstream-desktopchips i omkring ti år, men et år efter at Ryzen er kommet, begynder Intel at lancere ottekerne-modeller til sin mainstream-sokkel, har 18-kerne-entusiastchips parat og planlægger at komme op på 28 kerner i den nærmeste fremtid.

Alt dette omfatter naturligvis en verdensopfattelse, der sigter på cpu’en. Andre områder synes at være noget, man drømmer om. Vi skal for eksempel ikke forvente at se ægte desktop-computerkraft i en enhed, der kan ligge i en lomme, før der sker betydelige fremskridt. Det samme gælder fotorealistisk computergrafik, der bliver renderet i realtid.

Imidlertid er de teknologier, der lider mest under afskaffelsen af Moores lov, dem, som skulle få størst indflydelse på menneskers liv, herunder AI, robotter, maskinlæring og bioteknologi. Disse bestræbelser vil blive hæmmet, hvis fremskridt indenfor computerkraft går i stå efter Moores lovs død.

Hvad kan så erstatte Moores lov og drive computerkraft fremad? Den gode nyhed er, at der findes talrige kandidater. Faktisk mener nogle iagttagere, at Moores lov forlængst burde være lagt i graven. I de seneste årtier har opfattelsen af, at stadig mere konventionel computerkraft bliver tilgængelig, gjort softwareudviklere dovne og har hæmmet forskning i alternative hardwareparadigmer. Hvorfor bruge energi og penge, når billigere og hurtigere computerchips formodes at løse problemet? Nu, da Moores lov ikke længere gælder, er tilskyndelsen til at udvikle alternativer langt mere tillokkende.

Nutidens smartphones leverer langt mere regnekraft end de tidlige kæmpecomputere.

Den dårlige nyhed er, at der sandsynligvis ikke er nogen enkelt teknologi, ide eller holdning, som direkte kan erstatte Moores lov og det konventionelle integrerede kredsløbs utrolige evne til at forbedre sig selv. Der er én ting, der står nogenlunde fast, nemlig at fremtidens udvikling af computere bliver langt mindre forudsigelig og langt mindre ensartet. I stedet kommer vi sandsynligvis til at se fremskridt, der kommer i store spring efter begivenhedsløse pauser.

Der er imidlertid én enkelt teknologi, som tegner til at være den mest lovende, og det er kvantecomputere. Teknologiens potentiale får fantasien til at stejle. For at gøre en lang historie kort: Man kan forestille sig en kvantecomputer med bemærkelsesværdig enkelhed og effektivitet, som er i stand til ikke blot at matche de samlede talknuser-muskler hos alle eksisterende computere – den kan også eksekvere så mange beregninger samtidig, som nogen kan ønske sig. Som Android-grundlæggeren Andy Rubin siger: “Hvis man har en maskine, der er så kraftig som det her, har man kun brug for én computer”.

Alternativer til kvantecomputere

Moores lov er død, og kvante-computere kommer ikke og redder den. I hvert fald ikke foreløbig. Findes der noget, som kan føre konventionelle computere fremad? En teknologi, der virker lovende, er kulstof-nanorør.

Det er en af disse vidunderteknologier, der tilsyneladende har uendelig mange anvendelsesområder lige fra rumelevatorer til solceller. Men hvordan kan de gavne computere? En af de teoretiske fordele ved transistorer, der er lavet af kulstof-nanorør, kunne være meget lavere strømforbrug. Det ville betyde, at kraftigere chips kunne fungere med et energiforbrug, der svarer til det, en smartphone bruger. Fysisk set er det nemt at få plads til en desktop-cpu i en smartphone. Problemet er strømmen, og det kan kulstof-nanorør måske løse.

Optiske forbindelser både mellem og i chips er en anden stor mulighed. Vi ved, at fiber-optisk teknologi sætter fart i netværkshastigheder, også i private hjem. Hvis man inddrager optisk teknologi i computerchips, kan man måske opnå et enormt spring fremad, når det gælder båndbredde og energieffektivitet.

Men blandt alle mulighederne ser mere effektivt kredsløbsdesign ud til at give de mest indlysende fordele i forbindelse med computerkraft. I denne sammenhæng er grafikchips en god målestok. Nvidias gpu’er er allerede markant mere effektive end AMD’s konkurrerende chips, når det gælder den generelle grafik-renderingsydelse. Det hænger sammen med et bedre optimeret chipdesign.

Fremtidige gpu’er fra Nvidia vil omfatte den nye Turing-arkitektur, og firmaet vil fortsætte forbedringerne takket være arkitektoniske justeringer, der kombinerer flere små operationer i én enkelt større operation. AMD gør noget lignende med sin Rapid Packed Math-teknologi i de seneste Vega-gpu’er, også selvom foretagendet stadig halter noget bagefter. Efter at Moores lov er forvist til historiebøgerne, bliver denne form for optimeret chipdesign mere kritisk, end den tidligere har været.

Hertil kommer, at kvantecomputere ikke er nogen ny ide, og dens grundidé er veletableret. Ikke desto mindre er den ikke blot overordentlig eksotisk og kontroversiel. Grundtanken lyder omtrent sådan: Konventionelle computere arbejder med nuller of ettaller, også kaldet bits. En transistor, der er den grundlæggende komponent i en klassisk computer, er derfor enten slukket eller tændt, og der er ikke noget indimellem.

Sådan forholder det sig ikke med kvantecomputere. Takket være en egenskab, der kaldes superposition, og som hersker, når man har at gøre med partikler på atomniveau (eller mindre), såsom individuelle elektroner, er det muligt for en kvantecomputer-bit at være tændt og slukket på samme tid, og der kan også være en enorm mængde hybridsuperpositioner mellem tændt og slukket. Det kaldes en qubit, og det er den grundlæggende byggesten i kvantecomputere.

AI, robotter og førerløse biler – fremtiden afhænger af stigende regnekraft.

Imidlertid er qubittens utrolige og ikkebinære kapacitet ikke hele historien. Det, der for alvor fyrer op under computerfyrværkeriet, er den måde, hvorpå flere qubit kan interagere med hinanden. Velkommen til den vid- og underfulde kvanteverden.

Hele sagen er kompliceret for selv højtuddannede fysikere – for ikke at tale om os andre dannede dødelige – men det omfatter det begreb, at kvantemekaniske egenskaber såsom “spin” med to eller flere partikler kan være uløseligt sammenknyttede til trods for, at de er meget langt fra hinanden. Hvis man ændrer spin for én partikel, reagerer andre øjeblikkelig uanset afstanden mellem dem.

Hvis man vil opnå virkelig stærk kvante-computerkraft, skal man samle flere qubit. Når man kvantemekanisk kombinerer to qubit, kan man foretage to beregninger samtidig. Hvis man kombinerer tre qubit, kan man komme op på tre. Hvis man kombinerer fire, kommer man op på 16 beregninger samtidig. Hvis vi bliver sådan ved og rammer 300 kombinerede qubit, kan vi udføre flere beregninger, end der er atomer i universet.

Det er mange beregninger – i teorien nok til at løse stort set ethvert computerproblem. Men i praksis? Ikke helt. I hvert fald ikke i øjeblikket. Tidligere på året satte fysikere fra det kinesiske universitet for naturvidenskab og teknologi en ny rekord ved at opnå kvantekombination med 18 foton-baserede qubit. Men vejen til dette resultat har været anstrengende, og intet tyder på, at det bliver lettere foreløbig.

En veritabel hjernekasse

Man anslår, at vores hjerner rummer omkring 100 milliarder neuroner, mens de største computerchips har et tocifret milliardantal transistorer. Hver neuron kan blive forbundet til 10.000 andre, hvilket giver op til 1.000 billioner synaptiske forbindelser. Man kan påstå, at hjernen svarer til en computer, der klarer 1 billion bits i sekundet.

Hvis man hertil føjer, at hjernens højeste energiforbrug er omkring 20 watt, gør det hjernen 10.000 gange så effektiv som de bedste integrerede kredsløb. Lad lige det stå et øjeblik, mens vi ser på noget andet. Takket være computerchips’ stadig stigende strømforbrug sammenholdt med de stigende energipriser er det dyrere at køre en server i et par år, end det er at købe den.

Når vi betragter den stigende regnekraft og priserne på computere, vil en stor stigning i energieffektivitet være meget velkommen. Den avancerede mikro-integrationsgruppe hos IBM’s forskningslaboratorium i Zürich mener, at løsningen skal søges hos hjernen – eller rettere hos hjernens fraktalt forgrenede netværk af blodkar kan være en meget interessant model.

IBM arbejder på chip-kanaler, der leverer energi og muliggør køling. Ideen minder om et flowbatteri, hvor strømmen bliver leveret af to væsker, der producerer elektricitet, når de møder hinanden på hver side af en membran. Hvis ideen fungerer, bliver teknikken nyttig til 3D-chips med flere lag af integrerede kredsløb.

Problemet er, at superpositioner af qubit er meget skrøbelige. Bittesmå mængder af varme eller magnetisk interferens kan forårsage, at de kollapser. Det er langtfra nemt at bygge en kvantecomputer. Det, der begynder med et relativt enkelt netværk af qubit, udvikler sig hurtigt til en kompleks maskine, der bruger køling med flydende helium ned til en brøkdel af en grad over det asolutte nulpunkt. Og hele historien er pakket ind i et omfattende magnetisk panser.

Hertil kommer, at kommercielle computere, der udnytter disse kvanteniveau-effekter, nok er en mulighed, men de er fysisk begrænsede af behovet for intens køling og pansring, og der er andre begrænsninger. Pladsen i en D-Wave 2X, der er en af de mest kommercielt succesrige kvantecomputere, man kan få i dag, er stort set fyldt op af et kølesystem med flydende helium, der kan køle maskinens qubit ned til blot en brøkdel af en grad over det absolutte nulpunkt. Og resten af det øvrige maskineri består af magnetisk pansring, der beskytter maskinens qubit mod udsving i klodens magnetfelt.

14 nm var Intels første virkelig problematiske produktionsteknik.

På trods af al denne teknologi og innovation er regnekraften hos D-Wave 2X begrænset til at finde den mindste værdi af komplicerede funktioner. Den slags beregninger kan være meget nyttige for ingeniører, og det er grunden til, at Google, NASA og Lockheed Martin alle siges at være D-Wave-kunder, men sådan en maskine er ikke netop en lovende kandidat til fremtidens lommecomputere.

Der har endda været kontroverser over, om D-Waves maskiner faktisk er kvantecomputere. Det er der nu bred enighed om, at de er, men man diskuterer stadig, om D-Waves teknologi virkelig er hurtigere end en konventionel computer, når det gælder de begrænsede beregninger, den kan foretage.

Nogle betragter endda hele området for kvantecomputere som irrelevant og beslægtet med alkymisters forsøg på at fremstille guld ud fra uædle metaller. Ligesom med kvantecomputere er det faktisk muligt i dag. Men ikke i en sådan grad, at det giver nogen mening.

Prøv at rendere Crysis på en cpu, og du vil hurtigt forstå fordelene ved højt specialiserede chips.

Konklusionen må være, at på kort eller mellemlangt sigt kommer kvantecomputere ikke til at træde til der, hvor Moores lov stod af. De fremskridt, vi kommer til at se, vil komme fra en kompleks række teknologier, der ikke kun inddrager kvantecomputere, men også biologisk analoge teknikker, en overgang til cloud-computing, mere effektivt kredsløbdesign og specialiserede chips, der bliver udviklet til at klare én opgave særlig godt.

Og så kan vi i mellemtiden udlede den slutning, at Moores lov har haft sin tid, og at de næste 50 års computerteknologi vil adskille sig meget fra de foregående 50 års arbejde. Bliver sagerne bedre eller værre? Det vil tiden vise.

Brug nutidens teknoogi

Det er fristende at opsøge ny, radikal teknologi, men man kan komme langt ved at se på det, vi har i forvejen. Tag blot cloud-computing: Hvem har brug for hurtigere telefoner, når man kan skubbe det hårde arbejde op i skyen?

Det sker med tjenester som Google Maps, hvor begreber som ruteplanlægning bliver udregnet på Googles servere. Acceleration af smartphone-ydelse kan i højere grad bero på forbedring af netværksdækning end på fremstilling af hurtigere processorer.

Specialiserede kredsløb eller chips er et andet eksempel. Også her eksisterer ideen og er allerede i brug. Forestil dig at rendere et moderne pc-spil udelukkende på en cpu i stedet for på en grafikchip. Det giver en forestilling om, hvor meget mere effektiv en chip kan være, når den er udviklet til at gøre én bestemt ting.

Hvis man kan kombinere den tilgang med en indsats for at forbedre strømforbruget, er det muligt at forestille sig pc’er og sågar smartphones med talrige specialiserede kredsløb eller chips, der hver kan udføre en enkelt opgave langt hurtigere end nogen moderne pc. Hvis det ikke er muligt, kan man kombinere dedikerede chips med det formål at skubbe arbejdet op i skyen, og resultatet bliver det
samme: Større ydelse.

Det kan naturligvis være dyrt at producere dedikerede chips, og det er grunden til, at programmerbare chips måske kommer til at spille en større rolle. Tanken bag sådanne chips, der også kaldes field-programmable gate arrays (FPGA), er at lave en chip, som man kan omkonfigurere undervejs. FPGA’er består af en matrix af konfigurerbare logiske blokke, der er forbundet via programmerbare forbindelser, og de er en slags kompromis mellem en bredt anlagt cpu og et dedikeret og fikseret kredsløb.