Artikel top billede

(Foto: Computerworld)

Moores lov lever forbavsende godt

Den er ikke død. Den er ikke ved at gå i stå. Den skranter ikke engang. Moores lov er stadig spillevende. Vi undersøger, hvor meget længere vores pc’er kan blive ved med at blive hurtigere.

Af Torben Okholm, Alt om Data

Denne artikel er oprindeligt bragt på Alt om Data. Computerworld overtog i november 2022 Alt om Data. Du kan læse mere om overtagelsen her.

Ifølge nogle estimater har over halvdelen af verdens økonomiske vækst i de seneste 50 år har været afhængig af Moores lov. Den handler såmænd blot om transistortæthed i integrerede kredse, men er i dag muligvis den vigtigste økonomiske drivkraft på Jorden. Det er en teknologisk gave, som bliver ved med at give. Flere transistorer. Større computerydelse. Mindre udgifter. År efter år.

Nettoresultatet har været en hidtil ukendt vækst i den globale økonomiske vækst, som har varet i årtier. Med andre ord drejer Moores lov sig ikke kun om hurtigere cpu’er og gpu’er hvert år eller om uundgåeligheden i, at den pc, man køber i dag, vil være håbløst forældet i morgen. Den drejer sig om den enorme indflydelse, som eksponentiel stigning i computerkraft har fået på vores livsførelse.

Sådan var det i det mindste i omkring 40 år efter præsentationen af Moores lov. I løbet af de seneste 10 år er forventningerne til Moores lov blevet rystet. Og sandt er det, at nogle af de største spillere inden for chipproduktion har døjet med at fastholde den nådesløse teknologiske kadence, der er indbygget i Moores lov. For fem-seks år siden var det en udbredt antagelse, at Moores lov var godt på vej til at blive lige så uddød som dinosauerne.

I dag er sagerne imidlertid lidt mere komplicerede end som så. De store drenge inden for chipproduktion, herunder Intel, TSMC og Samsung har alle aggressive planer om endnu smallere chip-baner, der virker påfaldende Moore-agtige.

Navnlig har TSMC på det seneste vist, at man faktisk kan komme ud af stedet. Er Moores lov tilbage på rette kurs efter en midlertidig pause? Eller bliver dens dødskramper blot trukket lidt længere ud, end man havde forventet? Det er på høje tid, at vi finder ud af det.

Lad os til en begyndelse reflektere over, hvad Moores lov egentlig er for noget. Den kan koges ned til den forbløffende enkle iagttagelse, at transistor-tæthed i integrerede kredsløb bliver fordoblet hvert andet år.

Med andre ord siger Moores lov, at der bliver vredet dobbelt så mange komponenter ind i et givent computerchip-areal hvert andet år. Det er den rytme, chipbranchen har fulgt i årtier, og resultatet har, når det gælder hardware, været en opsigtsvækkende, eksponentiel vækst i computerkompleksitet og kapacitet.

Hvis det også synes at indebære en halvering af omkostningerne i det samme tidsrum, er virkeligheden ikke helt så enkel. Moores lov har godt nok holdt stik fra 1975, da Gordon Moore, medstifter af Intel og den “Moore”, der indgår i Moores lov, justerede sin tidligere forudsigelse fra en fordobling hvert år til en hvert andet år. I hvert fald indtil omkring 2010, da man så de første tegn på, at en af de mest bemærkelsesværdige perioder i teknologiens historie begyndte at knage i fugerne.

Lad os illustrere det med nogle tal: I 1970 rummede Intels første mikroprocessor, 4004, 2250 transistorer, og det var imponerende dengang. Intels seneste desktop-chip, Alder Lake, indeholder over 20 milliarder transistorer.

Apples M1 Max-chip rummer omkring 57 milliarder transistorer.

Det er naturligvis ingen overraskelse, at en moderne cpu er markant mere kompleks end den 50 år gamle processor, og vi prøver derfor med en nyere og mere udfordrende sammenligning. Intels 486-cpu fra 1990 rummede 1,2 million transistorer.

Det betyder groft sagt, at 20.000 486’er kunne passe ind på den plads, som den aktuelle Intel Core i9-12900K optager, hvis 486 havde været lavet med den samme 10 nm-produktionsteknik som den nye chip. Det lyder svimlende for enhver, der kan huske en 486, da den var den nyeste og bedste ”computermotor”.

Nu laver Intel 10 nm-plader til desktop-cpu’er.

Eller hvad med den første “Willamette”-Pentium 4, der kom 10 år efter 486? Det var en chip med 42 millioner transistorer. Hvis man anlægger den samme synsvinkel, ville 500 af disse chips ramme det samme transistorantal som en 12900K. Selv en Intel Core i7-processor fra 2010 kunne være inden i et Alder Lake-kredsløb 30 gange, hvis den var produceret med Intels nyeste teknik.

Hvis man regner på disse tiårs-overgange, vil man se, at de stort set lever op til Moores lov. Fra 1,2 millioner i 1990 til 42 millioner i 2000 er meget tæt på en fordobling hvert andet år.

Fra 2000 til 2010 vakler det lidt med en stigning fra 42 millioner til 774 millioner. Når det gælder de 10 år fra 2010 til 2020 (eller i hvert fald 2021 med lanceringen af Alder Lake), er springet fra 774 millioner til 22 milliarder igen stort set i overensstemmelse med Moores lov.

Naturligvis kan man slå ned på eksempler, der ikke passer helt så fint. Desuden er Intel blot ét firma, ikke hele halvlederbranchen. Den nye Apple M1 Max-chip, som man finder i de seneste MacBook Pro-computere, indeholder for eksempel en lettere afsindig mængde på 57 milliarder transistorer.

Men så længe vi kan huske, har Intel været den toneangivende i branchen. Det er også den virksomhed, der har døjet med de mest velbeskrevne kvaler med chipproduktion i den seneste tid.

I 2015 meddelte Intel, at i dette firma var Moores lov-kadencen faldet til to et halvt år med overgangen fra 22 nm-produktion af siliciumchips til 14 nm. Men det har været springet fra 14 nm til Intels seneste 10 nm-produktion, der har været mest problematisk. Hvis man vil forstå, hvor galt det er gået for Intel, skal man gå lidt længere tilbage i tiden.

EUV-litografi burde holde liv i Moores lov i flere år endnu.

I 2012 forventede Intel at have 10 nm-processorer i produktion i 2015, mens 7 nm skulle komme i 2017, og en endnu mindre teknologi ville se dagens lys i 2019. Nu skriver vi imidlertid 2022, og Intel er foreløbig ikke nået længere end til 10 nm. Og Intels 10 nm er mindst fem år forsinket.

Du kan læse hele historien om, hvad der gik galt med Intel 10 nm, i boksen på næste side. Her vil vi blot konstatere, at 7 nm også har vist sig at være problematisk, og at der også her er forsinkelser. Situationen er faktisk blevet så alvorlig, at Intel har følt sig nødsaget til at omdøbe sine produktionsteknikker for at kompensere for afstanden til konkurrenterne.

For at gøre en lang historie kort kalder Intel nu sin 10 nm-node “Intel 7”, mens den kommende 7 nm-node er blevet omdøbt til “Intel 4”. Ligner det et desperat forsøg på at bruge alternative fakta til at dække over teknologisk afmagt? Der kan der måske være noget om. Imidlertid har node-nomenklatur såsom “10 nm” og “7 nm” for længst mistet enhver sammenhæng med det, der faktisk foregår inden i en chip.

ASML’s litografi­maskiner er nu mere værd end Intels cpu’er.

De fleste eksisterende produktionsteknologier, der bliver markedsført som 7 nm, har for eksempel en såkaldt gate pitch (den minimale afstand mellem én transistors gate og en andens) på omkring 50 nm. Derfor er nodenavne snarere en omtrentlig angivelse af komparativ tæthed end vidnesbyrd om egentlige størrelser.

I den sammenhæng kan det nævnes, at Intels 10 nm-teknologi (den, der nu går under navnet Intel 7) siges at være god for omkring 106 millioner transistorer pr. kvadratmilli-meter halvleder. Det er faktisk lidt bedre end de henholdsvis 95 millioner og 97 millioner, som man finder hos Samsungs og TSMC’s 7 nm-noder.

Når man sammenligner, giver “Intel 7” bestemt mening. Men det skal med, at både Samsung og TSMC allerede producerer chips med 5 nm-baner. TSMC’s 5 nm-node rummer hele 173 millioner transistorer pr. kvadratmilli-meter, og det er det, der gør det muligt at vride 57 milliarder transistorer ind i Apple M1 Max-chippen i en bærbar MacBook Pro-computer.

Mindre transistorer koster flere penge

Moores lov er nok løjet død lovlig tidligt, men én ting står fast: Det bliver stadig mere kostbart at holde den i live. For eksempel siger Intel, at man agter at bruge 20 milliarder dollar på et par 7 nm-fabrikationsenheder. Og det forlyder, at blot et af TSMC’s seneste 5 nm-produktionsanlæg skal have kostet 23 milliarder dollar. Det er en slat sidst på måneden.

Disse enorme omkostninger er hovedårsagen til, at branchen bliver konsolideret ned til ganske få deltagere. Prisen for at komme med på vognen, for ikke at tale om at bevare en vis konkurrenceevne, er ekstremt begrænsende. En anden fascinerende indikator for, hvor ressource-intensiv chipproduktion er blevet, kan man finde hos ASML (Advanced Semiconductor Materials Lithography).

ASML er et hollandsk firma, der blev grundlagt i 1984, og det har specialiseret sig i de fotolitografi-maskiner, som bliver brugt af alle de store spillere inden for chipproduktion. Hvis man vil fremstille halvledere ved hjælp af de nyeste EUV-processer, skal man have en ASML-maskine. Og her kommer så det utrolige: ASML’s rolle er så vigtig, at virksomhedens markedsværdi i dag er større end Intels.

De økonomiske forhold i chipproduktionen ændrer sig hurtigt – og ikke til det bedre. Lad os tage TSMC som eksempel (det er sværere at bygge disse vurderinger på Intel, fordi denne virksomhed indtil for nylig kun producerede chips til sig selv og ikke fungerede som leverandør til tredjepartsfirmaer) og betragte dets overgang fra 65 nm til 28 nm.

Prisen på en chipplade gik op fra cirka 2000 dollar for 65 nm til 3000 dollar for 28 nm. Da man imidlertid kan producere langt flere chips på en 28 nm-chipplade end på en tilsvarende 65 nm-plade, faldt prisen på de enkelte chips med to tredjedele. Hvis man derimod ser på TSMC’s nyere overgang fra 10 nm til 7 nm og siden 5 nm, er priserne på chipplader eksploderet fra 6000 dollar til 17.000 dollar.

Konsekvensen er, at priserne på chips kun er faldet med omkring 15 procent. Moralen af denne historie er, at hvis priserne på chipplader bliver ved med at stige, er det ligegyldigt, om det er teknisk muligt at holde Moores lov i live. Der er alligevel ingen, der har råd til at købe chipsene.

Hvis man skal pege på en enkelt virksomhed i chipbranchen, der bedst forsvarer tanken om, at Moores lov er spillevende, så er det afgjort Taiwan Semiconductor Manufacturing Company (TSMC). Det er i øjeblikket verdens største chipproducent og den indiskutable leder, når det gælder om at mase stadig mindre enheder ind i anvendelige kommercielle halvledere, der ender i produkter, som man rent faktisk kan købe

. Mens Intel har mistet sin førerrolle, er TSMC marcheret videre. I september 2020 fik TSMC’s 5 nm-proces sin debut i Apples A14-chip, hvilket bragte den i hvert fald en hele node foran Intel.

TSMC er ligefrem kæphøj, når det gælder firmaets evne til at holde Moores lov i live. Philip Wong er vicedirektør for TSMC’s forskningsdivision, og han siger ikke blot, at Moores lov lever og har det godt; han hævder, at den kan blomstre i de kommende tre årtier: “Den er ikke død. Den mister ikke fremdrift. Den skranter ikke engang.”

Intels 10 nm- Mareridt – hvad gik galt med Intels nyeste node?

I juli 2015 meddelte Intel offentligt, at dets 10 nm-node var i vanskeligheder. Næsten syv år senere har vi kun lige fået fat i Intels første 10 nm-desktopprocessorer. Moores lov tilsiger en fordobling af transistor-tætheder hvert andet år, hvilket indebærer, at en ny procesnode cirka følger den samme kadence.

Noget er altså gået gruelig galt. Men hvad? Det første problem var ambition. Intel tog simpelthen for stort et spring med 10 nm. I 2009, for eksempel, gik Intel fra 45 nm til 32 nm. Det medførte en stigning i transistortæthed fra 3,3 millioner pr. kvadratmillimeter til 7,5 millioner, altså lidt over en fordobling. Da 22 nm kom i 2011, skete der noget lignende.

Den forøgede transistortætheden til 15,3 millioner – lidt under en fordobling. Hastigt videre til 2014, et år senere end man ville forvente en ny node fra Intel: 14 nm leverede 37,5 millioner transistorer pr. kvadratmillimeter. Det er et godt stykke over det dobbelte af det, 22 nm præsterede. 14 nm var den første problematiske node fra Intel, og det er næppe noget tilfælde, at også den forsøgte mere end en fordobling af transistortætheden.

Så er der 10 nm. Den første version af 10 nm kom i slutningen af 2018 og blev brugt i meget beskedne tal til at producere en mobil dual-core-chip, som stort set ingen købte. Den havde hele 100,8 millioner transistorer pr. kvadratmillimeter. Det er en opskalering på 2,7 i forhold til 14 nm. En anselig opgave.

Det andet problem var, at Intel valgte ikke at satse på EUV, Som vi har forklaret andetsteds, er det lysets bølgelængde i en litografiproces, der dikterer dimensionerne. Og EUV-teknologi giver i øjeblikket den korteste bølgelængde og er den mest avancerede til kommerciel produktion.

Grundene til, at Intel ikke valgte EUV, er ret tekniske og hænger sammen med en tendens til at producere ved hjælp af single-matrice-masker. Enhver skade på sådan en maske truer med at ødelægge hele chippladen. TSMC og Samsung, derimod, bruger hellere multi-matrice-masker, som kan klare en vis skade og stadig levere en fornuftig produktion.

EUV-kompatible redskaber til at beskytte masker, såkaldte pellikler, blev først tilgængelige i 2019. Kort sagt valgte Intel ikke at bruge EUV, hvilket gjorde den ambitiøse skalering endnu mere teknisk udfordrende. Interessant nok forventes Intels næste node, kendt som 7 nm og i dag navngivet Intel 4, at blive mindre ambitiøs, idet den “kun” øger transistortætheden til 180 millioner pr. kvadratmillimeter, altså under det dobbelte af firmaets eksisterende 10 nm-node. Det bliver samtidig den første Intel-node, der bruger EUV-teknologi.

En væsentlig faktor, der ligger bag TSMC’s førerrolle, er den aggressive brug af såkaldt EUV-teknologi (ekstrem ultraviolet litografi). Kort fortalt er halvlederproduktion et spørgsmål om at ætse detaljer på siliciumplader ved at sende lys gennem mønstrede masker over på et substrat.

Substratet (eller pladen) er dækket med et lysfølsomt kemikalium, der hærder, når det bliver udsat for ultraviolet lys, mens resten af dæklaget bliver fjernet med opløsningsmidler. Resultatet er et færdigt kredsløb.

Den minimale størrelse på de detaljer, der bliver ætset – og dermed det antal transistorer, som kan vrides ind på et givent areal – er i høj grad dikteret af lysets bølgelængde. Jo kortere bølgelængden er, desto mindre kan detaljerne være.

I dag kræver de mindste produktionsprocesser EUV-teknologi, og TSMC er helt dominerende, når det gælder brugen af EUV. Sidste år leverede TSMC næsten tre fjerdedele af alle de halvledere, der blev produceret ved hjælp af EUV-litografi. Samsung stod for lidt under en fjerdedel, og Intel var stort set ikke repræsenteret.

Når det gælder avanceret node-kapacitet, præsterede TSMC i 2021 næsten 150.000 7 nm-plader om måneden og over 100.000 5 nm-plader. Intels 10 nm-node eller Intel 7-kapacitet lå omkring 50.000 plader.
Hertil kommer, at TSMC i slutningen af 2021 efter sigende indledte testproduktion af sit næste større fremskridt, 3 nm.

Intels 10 nm-node blev mindst fem år forsinket.

Produktion i fuldt omfang ventes at finde sted i anden halvdel af dette år. Man regner med, at TSMC næste år har en kapacitet på hele 120.000 3 nm-plader om nåneden. Den 3 nm-teknologi forventes at levere en transistortæthed på 300 millioner pr. kvadratmillimeter.

Intels 7 nm-kapacitet (den, der nu bærer navnet Intel 4) forventes at være på blot 20.000 planer om måneden. Det er ikke så sært, at Intel har valgt at outsource produktionen af nogle af sine bedste chips til TSMC i de kommende par år, indtil firmaet får orden i sin egen produktionskapacitet.

Redskaber som masker er afgørende for chip-produktionsprocessen.

Hvis det er den gode nyhed, er den dårlige, at den endelige fysiske begrænsning for den eksisterende basis bag Moores lov stadig eksisterer. Der er en grænse for, hvor meget man kan formindske transistorer og andre funktioner ved hjælp af konventionel halvlederteknologi. Wong fra TSMC har påpeget, at firmets aktuelle FinFET-transistorteknologi allerede nærmer sig atomstørrelse:

“En FinFET er omkring 10 nm eller snarere lidt mindre end 10 nm, og hvis man bruger et elektronmikroskop med ekstremt høj opløsning, kan man faktisk se de individuelle atomer. Man kan tælle dem. Man skal stadig bruge fingre og måske også tæer til at tælle antallet af atomer i en FinFET, men så heller ikke mere.”

“Hvis man satser på todimensional enhedsskalering – og det er et meget stærkt redskab til fremstilling af nye transistorer med henblik på tæthed – vil man hurtigt konstatere, at vi er nede på særdeles få atomer, og vi løber meget snart tør for atomer. På den anden side er det ikke det eneste redskab, vi har til rådighed.”

Man kan diskutere, hvor langt man kan komme med den konventionelle 2D-teknologi. TSMC regner med at have konventionelle 3 nm- og derefter 2 nm-halvledernoder. Sidste år sagde TSMC, at udviklingen af firmaets 2 nm gik “planmæssigt fremad”. 1 nm kan også være en mulighed, hvis man erstatter FinFET-transistorer med såkaldte Gate All Around-alternativer.

Men det helt store spørgsmål er: Hvad er det for “redskaber”, som Wong talte om?
Konventionelle halvledere nærmer sig hastigt deres fysiske grænse og kan umuligt blive ved med at leve op til TSMC’s 30 års-vision for Moores lov. Hvilke andre former for teknologi vil branchen tage i brug?

TSMC har lavet 5 nm-chips i over halvandet år.

I praksis ser det ud til at dreje sig om en blanding af det eksotiske og det prosaiske. Hvis Moores lov primært drejer sig om tæthed, kan en lidt anden tilgang måske bane vejen for nye fremstillingsmetoder, der kan holde udviklingen kørende. Hvis man kombinerer mange chiplets af både logik og hukommelse ved hjælp af silicium-interposere kan man opnå langt højere systemtæthed og forøge produktionskapaciteten.

Det er langt sværere og dyrere at fremstille en enkelt stor chip end masser af små chips. Men at kombinere dem på en måde, som reducerer latens og giver mulighed for en ydelse, som svarer til en enkeltstående chip er en kolossal teknisk udfordring, som for eksempel TSMC og Intel kun for nylig har taget op. Hvis der er tale om en udvidelse af den eksisterende model, er den anden indlysende løsning at gå opad i stedet for sidelæns.

Ifølge Godfrey Cheng, der er chef for global markedsføring hos TSMC består  “én mulig vej fremad af brugen af transistorer, der er lavet af todimensionale materialer i stedet for silicium. Vi er i gang med at gennemtrawle det periodiske system. Hvis vi potentielt bruger disse nye materialer, kan én mulig fremtid for store forbedringer af tæthed bestå i at stable flere lag af transistorer i noget, vi kalder monolitiske 3D-integrerede kredsløb. Man kunne sætte en cpu oven på en gpu oven på en AI Edge-enhed med lag af hukommelse indimellem. Moores lov er ikke død. Der er mange forskellige muligheder, når det gælder om at forøge tætheden.”

Blandt de mere eksotiske muligheder er der en, som omfatter kulstof-nanorør, også kaldet CNT’er. De består af rør af grafen på ét atoms tykkelse; de er fremragende halvledere, og de har potentiale til at skalere tæthedsniveauer hinsides silicium-halvledere. En af de mest markante fordele ved CNT-baserede felteffekttransistorer (CNFET’er) er deres effektivitet. Man forventer, at de vil være 10 gange så effektive som lignende siliciumbaserede enheder.

Det er en kolossal fordel, når man tager i betragtning, at strømforbrug, lækage og varme bliver stadig større problemer i eksisterende chips. Det giver også mulighed for langt mere komplekse 3D-chips, end vi kender fra siliciumhalvledere. Det er teknisk muligt at stable flere lag af siliciumtransistorer, men at gøre det inden for rimelige grænser med hensyn til strøm og varme er en helt anden sag.

Gåden om kvantecomputeren

Glem materialevidenskab, tæthed og al den gammeldags snak om klassisk fysik og kemi. Kan kvantecomputere lægge Moores lov i graven – på den gode måde? Ifølge fortalere for kvantecomputere er det muligt at forestille sig en enkelt kvantecomputer, der ikke blot kan konkurrere med alle eksisterende klassiske computere, men som også kan foretage så mange beregninger på én gang, som man kan have brug for.

Med andre ord al den computerkraft, som man kan ønske sig fra en enkelt maskine. Glem Bill Gates’ apokryfe “citat” om, at ingen har brug for mere end 640 kB; elskere af kvanteteknologi mener, at vi ikke har brug for mere end en enkelt pc tilfælles. Hvis det lyder småtosset, kan man prøve denne kommentar fra grundlæggeren af Android Inc., Andy Rubin. “Hvis man har computerteknologi, der er så stærk, som denne kunne være, behøvede man måske kun én maskine.”

Hvordan skulle det fungere? Konventionel computerteknik fungerer i det binære rige af nuller og ettaller, som i computerterminologi kendes som bits. Basiskomponenten i en klassisk computer, transistoren, er derfor enten slukket eller tændt.

Der er intet alternativ. Og kvantecomputere? Det er noget andet. Takket være et kvantefænomen, der kaldes superposition, og som fungerer på atomart og subatomart niveau, er det muligt for en kvantecomputer-bit at være ikke blot tændt og slukket på samme tid; den kan også have en enorm mængde hybrid-superpositioner mellem tændt og slukket.

Den kaldes en qubit og er den grundlæggende byggesten i en kvantecomputer. Den anden vigtige besynderlighed ved kvantecomputere er kvantemekanisk sammenfiltring, og det er her, sagerne bliver spændende. Det er et begreb, som selv garvede fysikere døjer med. Men der er tale om den ide, at kvanteegenskaberne af to eller flere partikler kan være uløseligt forbundne uanset den afstand, der er imellem dem.

Hvis man for eksempel ændrer rotationen af én partikel, reagerer andre øjeblikkelig. Nøglen til at opnå stærke kvantecomputer-resultater er derfor at “sammenfiltre” flere qubit. Hvis man kvantemekanisk sammenkæder eller sammenfiltrer to qubit, kan man foretage to beregninger samtidig.

Sammenkæd tre qubit, og kvantesammenfiltringens matematik indebærer, at man kan foretage to i tredje – otte – beregninger. Med fire kan man foretage 16 beregninger samtidig. Fortsæt den tankerække, og når man når op på 300 sammenfiltrede qubit, kan man udføre flere beregninger, end der er atomer i det kendte univers.

Ulempen? På grund af kvantedekohærens hersker der tvivl om, hvorvidt en kvantecomputer på den skala er mulig. Nogle forskere hævder, at maskinens kvante-tilstand ikke kan vedligeholdes så længe, at den kan bruges til noget fornuftigt, mens andre tvivler på, at en kvantecomputer overhovedet kan bruges til generelt computerarbejde.

De mener, at den altid vil være begrænset til irrelevant og esoterisk matematik uden større praktisk anvendelighed. Vi må nøjes med at konstatere, at det vil tiden vise.

Lad os se på Intels seneste Alder Lake-cpu’er. Man har målt strømforbrug på over 300 watt. Forestil dig mange lag af transistorer med sådan en appetit. Hvis hvert lag kun brugte en tiendedel af den strøm, ville vi stå over for noget interessant. Men der er naturligvis en hage.

Er kvantecomputere som D-Wave Advantage anvendelige?

CNT-halvledere er utrolig svære at fremstille. Imidlertid lykkedes det i 2019 ingeniører på MIT at lave en 16-bit-processor, der bestod af 14.000 CNT-transistorer, og som kunne eksekvere kode. Dimensionerne var ret store med en gatelængde på 130 nm og et godt stykke bagefter tætheden hos eksisterende silicium-halvledere.

CNT-teknologien er stadig i sin vorden. For blot seks år siden var det bedste, nogen havde præsteret, 178 CNFET’er i en enkelt chip. Hvis man ekstrapolerer den mængde, vil det ikke vare længe, før Moores lov med en toårig tæthedsfordobling i sammenligning minder om en gigtplaget snegl.

AMD kan måske levere Ryzen 7000-cpu’er senere på året.

Det er optimistisk at tro, at Moores lov ikke blot er i live, men også ser ud til at ville accelerere. Under alle omstændigheder er muligheden til stede, og der er ingen grund til at vente. Moore er slet ikke færdig endnu.

Kan wetware vinde? Neuroner versus transistorer: Hvad er bedst?

Hjernen er stadig alle computerchips langt overlegen. Den menneskelige hjerne rummer noget i retning af 100 milliarder neuroner, og dens kompleksitet overgår enhver eksisterende computerchip – også uden at man erkender, at neuroner er langt mere komplekse end binære transistorer.

Er der noget specielt ved menneskets hjerne, som giver den en iboende fordel frem for enhver konventionel binær computer? Forskere antager, at hver neuron i hjernen kan få forbindelse med op til 10.000 andre neuroner, og det giver et tal på 1000 billioner synaptiske forbindelser. Prøv at simulere det på en farm af RTX 3090-gpu’er, der er sat til at “udgrave” bitcoins!

Naturligvis er hjernens detaljerede funktionalitet ikke noget, der nemt kan reduceres til tal. Men det er alligevel forunderligt at tænke på al den kraft og alle de forbindelser, mens man erindrer, at hjernens strømforbrug topper omkring 20 watt.

Hvad siger folkene bag Intels mobile cpu mon til det? Man kan diskutere den ægte regnekraft hos biologiske hjerner, men der er ingen tvivl om, at vi kan lære af dem, når det gælder energieffektivitet. Og biologi har indlysende indflydelse på maskinlæring og AI. Alene det kan være nok til at lave nye softwareparadigmer, som accelererer computerkraft på en måde, der kan holde Moores lov i live – altså en eksponentiel vækst i computerkraft.

Et parallelt forskningsområde er biologiske computere, altså computere, der er lavet af levende celler. Jo, det har fundet sted i årevis. I 2016 lavede forskere fra MIT en maskine, der byggede på celler, og som kunne foretage simple beregningsopgaver.

Den kunne også lagre og hente data. Det er en forskning, der er i sin vorden, og man aner ikke, hvor den fører hen. Men det er ikke umuligt, at biologiske computere kunne træde til på det tidspunkt, når mere konventionelle løsninger med silicium og nanorør af kulstof når deres fysiske grænser.