Artikel top billede

(Foto: Computerworld)

Maskinlærings-revolutionen bryder ud

Det er en udbredt tro, at kunstig intelligens snart kan klare alting. Men hvad drejer maskinlæring sig i virkeligheden om, og hvad er status lige nu?.

Af Torben Okholm, Alt om Data

Denne artikel er oprindeligt bragt på Alt om Data. Computerworld overtog i november 2022 Alt om Data. Du kan læse mere om overtagelsen her.

Det bliver den næste store bølge inden for computerbaseret arbejde. Det siger Intel i hvert fald om kunstig intelligens (AI). Og Intel er ikke alene. Ifølge nogle selvbestaltede profeter vil AI blive løsningen på stort set alle de større problemer, som menneskeheden står over for, fra helbredelse af kræft til ubegrænset ren energi.

Mindre optimistiske iagttagere som filosoffen og neurovidenskabsmanden Sam Harris betragter AI som en af de mest presserende trusler mod menneskehedens overlevelse. Under alle omstændigheder er det et stort emne.

Selv en kort analyse af implikationerne af AI antager svimlende proportioner. Hvis man holder sig til den mere praktiske del, for eksempel kommerciel brug af AI, står man foran en særdeles krævende opgave. Maskinlæring, dyb læring, neurale netværk, Tensor-kerner – det er et fuldtidsarbejde at holde styr på de processer og den hardware, der knytter sig til AI – for ikke at tale om jargonen.

Når det drejer sig om den langsigtede betydning af AI, har enhver lov til at gætte. Men lige i øjeblikket er der masser af spørgsmål, som man i det mindste kan begynde at forholde sig til.

Hvad er AI i praktisk forstand? Hvad bliver det brugt til i dag? Hvilken form for hardware er omfattet, og hvordan bliver AI-opgaver behandlet? Og indebærer det noget, som du i egenskab af computerentusiast bør interessere dig for? Eller er det blot noget, de store firmaer finder på for at øge deres indtjening?

Tomme ord og pral eller det største paradigmeskift i computerens historie? Hvad er kunstig intelligens (AI) helt nøjagtigt? Ifølge hypen kommer AI ikke blot til at revolutionere computerbegrebet. Den vil med tiden ændre næsten ethvert aspekt af menneskers liv. Lige nu er det imidlertid ikke så nemt at definere AI og afgøre, hvor relevant begrebet er i det daglige computerarbejde.

For at udtrykke det på en anden måde: Vi kan alle blive enige om, at når for eksempel den selvkørende bil bliver udbredt, vil den få en kolossal indflydelse på den måde, vi lever på.

Nvidias nye RTX 30-serie af grafikkort har tredje generations-Tensor-kerner til AI-acceleration.

Men når en chipproducent priser AI-funktionerne i sine nye cpu eller gpu, indebærer det så stort andet end markedsføring? Uanset om der er tale om et grafikkort eller en smartphonechip, afviger prædikatet “AI” så fundamentalt fra de sædvanlige generationsbetingede forbedringer i computerydelse?

AI kan grundlæggende defineres som enhver form for intelligens, der bliver praktiseret af en maskine. Betydningen af ordet “intelligens” indebærer naturligvis filosofiske problemer, men hvis vi ser bort fra det, er der tale om et ret enkelt begreb.

Det er først, når man borer ned i de specifikke elementer, at sagerne bliver langt mere komplicerede. Hvordan afgør man, om en beregningsproces eller algoritme kan karakteriseres som kunstig intelligens?

Hvordan definerer man AI?

AI kan defineres som noget med evnen til at lære og improvisere. Hvis en givet proces eller algoritme ikke kan gøre det i en vis grad, er der ikke tale om AI. Et andet udbredt tema er kombinationen af store mængder af data med fravær af eksplicit programmering. Kort sagt indebærer AI et system med en tildelt opgave eller et ønsket output plus et stort sæt data, som systemet kan gennemgå.

Men de nøjagtige parametre, som data bliver bearbejdet under, er ikke definerede. I stedet er algoritmerne udviklet til at finde mønstre og statistiske relationer og til at lære undervejs. Det er det, der bliver karakteriseret som maskinlæring, og det er som regel det, man mener, når begrebet AI bliver brugt i en kommerciel computersammenhæng.

Googles TPU (Tensor Processing Unit) er nu i sin tredje generation.

Et godt eksempel på, hvordan det fungerer i praksis, er naturlig sprogbehandling. En ikke-AI-tilgang ville omfatte omhyggelig kodning af specifikke regler, syntaks, grammatik og ordforråd i et bestemt sprog.

Med maskinlæring er de algoritmiske regler langt mindre specifikke og bygger i stedet på mønsteridentifikation i takt med, at systemet modtager enorme mængder af dataeksempler, hvorfra mønstrene efterhånden træder frem.

GPT-3 – et godt eksempel

Generative Pre-trained Transformer 3 (GPT-3) blev udviklet i San Francisco af firmaet Open-AI og lanceret i 2020. Det er et eksempel på et sådant maskinlæringssystem til naturlige sprog. Det blev trænet ved hjælp af milliarder af engelsksprogede artikler, der var hentet på nettet. GPT-3 blev modtaget med begejstring, og The New York Times karakteriserede det som “frygtindgydende godt” til at skrive og læse.

GPT-3 var så imponerende, at Microsoft valgte at købe en eksklusiv licens med henblik på at bruge teknologien til at udvikle og levere avancerede AI-drevne løsninger til naturlige sprog. Den første var et redskab, der konverterer tekst til Microsoft Power Fx-kode – et programmeringssprog, der bruges til data-basesøgninger, og som bygger på Microsoft Excel-formularer.

AI-drevne selvkørende enheder som Teslas Autopilot har været sværere at udvikle end forventet.

GPT-3 går videre end de sædvanlige spørgsmål og svar-Turingtest-tricks. Det kan for eksempel bygge web-layouts med JSX-kode som svar på spørgsmål på naturlige sprog.

Med andre ord skriver man noget i retning af “byg en side med en tabel, der viser de 20 lande, som har de største BNP’er, og giv tabellen en relevant overskrift”, så gør GPT-3 netop det. Det demonstrerer både evnen til at tage ved lære og et system, der bygger på at bearbejde data snarere end komplicerede håndkodede regler.

Imidlertid er GPT-3 også et eksempel på maskinlæringens begrænsninger. Man kan afgjort diskutere, om GPT-3 overhovedet er intelligent. Man kunne hævde, at der er tale om noget af en digital tryllekunst. Det skyldes, at GPT-3 og dets slægtninge, der praktiserer maskinlæring i forbindelse med naturlige sprog, ikke forstår sprog – eller noget som helst andet, når det kommer til stykket. Alt, hvad de gør, bygger simpelthen på statistik og mønstre.

Ved at analysere enorme mængder af skrevet tekst kan man lave statistiske regler, der leverer troværdige svar på spørgsmål i naturligt sprog – uden noget behov for det, der på et menneskeligt niveau ville blive karakteriseret som forståelse. Og det er strengt taget grundlaget for hovedparten af – hvis ikke al – maskinlæring.

Og det gælder, uanset om det drejer sig om det problem, som knytter sig til bearbejdelse af naturligt sprog og stemmeassistenter, selvkørende biler, ansigtsgenkendelse eller anbefaling af produkter eller indhold til kunder eller forbrugere. Det er blot mønstergenkendelse på et ekstremt højt niveau.

Fra Amazons Alexa til Teslas Autopilot er den grundlæggende tilgang den samme. Du kan læse mere om begrænsningerne ved eksisterende AI-systemer i boksen på næste side, men hvis vi siger, at vi nu har skitseret de rå parametre bag AI, drejer det næste spørgsmål sig om, hvordan AI bliver implementeret, og hvilken form for hardware der er krævet.

En chip-designguru og AI’s ufattelige fremtid

CPU-arkitekten fra amd vurderer Maskinlæring

Findes der eksperter i chipdesign med et bedre omdømme end Jim Keller? Han er hjernen bag ikke blot AMD’s første cpu-arkitektur, der for alvor truede Intel (det var Hammer tilbage i nullerne), men han er også den drivende kraft, der stod bag Zen og AMD’s renæssance i slutningen af 2010’erne.

Han var far til Teslas Autopilot-chip, satte Apple i gang med at bygge de måske mest effektive klient-cpu’er på markedet, og for nylig var han et smut forbi Intel. Nu leder Keller Tenstorrent, der specialiserer sig i chips til accelerering af AI-opgaver. Alene den omstændighed er med til at give AI og maskinlæring et præg af seriøs troværdighed. Ifølge Keller er der nu tre slags computere.

Først kom cpu’erne. Så fulgte gpu’erne efter. Og nu er AI-computeren kommet. Keller forklarer computernes udvikling: “I begyndelsen var der skalar-matematik i stil med A er lig med B plus C gange D. Med et lille antal transistorer er det al den matematik, man kan klare.” I takt med at transistorantallet i computerchips steg eksponentielt, steg også kompleksiteten af den matematik, der var mulig. Først kom vektor-matematik, så kom matrix-multiplikation.

Teslas specialudviklede Autopilot-chips udgør blot en af mange bedrifter i Jim Kellers imponerende bagkatalog.

I dag skubber kompleksiteten chipudviklingen i en anden retning. “Når man får flere transistorer, vil man tage store operationer og dele dem op. Hvis man gør sin matrix-multiplikator for stor, begynder man at spilde energi. Derfor laver man en optimal blokstørrelse, der ikke er for lille – som en thread i en gpu – men heller ikke for stor. Som når man dækker hele chippen med én matrix-multiplikator.”

Ifølge Keller er resultatet en række mellemstore processorer, der kan klare fire tera-operationer i sekundet. Det, Keller beskriver, er det næste skridt inden for AI-computere fra specialiserede blokke, der accelererer matrix-matematik (som Nvidias Tensor-kerner) til en ny type chip, der accelererer det, han kalder “graph”-computer-arbejde.

Den anden brik i puslespillet er software, som ifølge Keller er lige så vigtig som hardware, og som han kalder Software 2.0. “Første gang jeg hørte om Software 2.0, blev begrebet brugt af Andrei Karpathy, der er chef for AI og autopiloter hos Tesla. Hans idé var, at vi går fra en verden, hvor man skriver programmer, der modificerer data, til en situation, hvor man laver neurale netværk, og derefter programmerer man dem med data for at få dem til at gøre de ting, man ønsker.

Derfor bliver moderne computere programmeret med data. Det indebærer en meget anderledes holdning til programmering på mange områder, hvor AI har haft så stor succes. Jeg tror, at i Software 2.0-fremtiden vil 90 procent af computerarbejdet finde sted på den måde.” Den mest fascinerende af Kellers forudsigelser er den fremtidige mangel på forståelse af AI-computerarbejde.

“Hvis man kigger ind i et neuralt netværk, der er blevet trænet, og spørger, hvorfor netop dette element har fået en vægt på for eksempel 0,0015843, er der ingen, der aner, hvad svaret er. Der findes i dag fænomener, hvor man har et system til maskinlæring med inputs og outputs. Der er en AI-sort boks mellem disse inputs og outputs, men hvis man kigger ind i boksen, kan man ikke se, hvad det betyder. Man forstår ikke matematikken eller kredsløbene bag.” Keller medgiver, at den fulde kompleksitet bag en stærk chip fra AMD, Intel eller Apple allerede er næsten ubegribelig, men hvis man graver sig ned i en detalje, vil der være nogle, der ved, hvad den laver.

Hvis Keller har ret, vil det ikke vare længe, før 90 procent af computerarbejdet er hinsides menneskets fatteevne. Om det så er intelligent, er en helt anden historie.

De særlige krav til hardware

I den ene ende af skalaen har vi det, man kan kalde AI-infrastruktur, altså de supercomputere og cloud-installationer, man bruger til at håndtere de kolossale dataanalyser og generere mønsterkort og modeller. Og i den anden? Der har vi klientenheder, som bruger disse modeller til praktiske applikationer.

De er den sidstnævnte del, der interesserer os mest som pc-entusiaster. Det altafgørende spørgsmål er med andre ord, om AI er et klart definerbart computerparadigme, der drager nytte af dedikeret hardware i klientenheder som pc’er og telefoner.

Betyder det noget at have teknologi i stil med “AI-computerkerner” eller specifikke dele af en chip, som er udtrykkeligt udviklet til at accelerere AI-applikationer? Eller er AI på klientniveau primært markedsførings-spin?

Nvidias GV100-gpu var den første, der fik AI-accelererende Tensor-kerner.

Det er givet, at chips fra de store producenter i stigende grad bliver solgt på deres AI-kvaliteter. Det mest iøjnefaldende eksempel, når det gælder pc’er, er Nvidias grafikchips. I adskillige generationer har Nvidias gpu’er lokket med specifikke AI-kvaliteter takket være en egenskab, der bliver kaldt en Tensor-kerne.

Nvidias Tensor-kerner blev først set i Nvidias Volta-gpu’er til professionelle formål og siden i Turing-familien af gaming-gpu’er, hvor de blev solgt som GeForce RTX 20-serien. Nvidias Tensor-kerner er nu i deres tredje generation i Ampere-gpu’er, der ellers er kendt som GeForce RTX 30-serien.

Enheds-AI vs. skyen

Hvordan håndterer man bedst AI?

Hvis man beder om et eksempel på anvendelig brug af AI, får man sandsynligvis en af de tre store digitale assistenter: Amazon Alexa, Apple Siri eller Google Assistant. Men er det bedst at køre disse tjenester på en enhed eller oppe i skyen? Tag Apples iPhone.

Man vil måske blive overrasket over, hvor meget af den velkendte iPhones funktionalitet, der bliver drevet eller i hvert fald udvidet af AI. AI bliver for eksempel brugt til at skelne mellem bevidste inputs og uønskede strøg over den berøringsfølsomme touchskærm.

Algoritmer til maskinlæring bliver også brugt til at skemalægge opladning, til at forbedre batterilevetid og til at sortere billeder i Photo-appen indeni færdiglavede albummer og identificere mennesker med ansigtsgenkendelse.

Afhængigt af en iPhones årgang kan den også være i stand til at bruge maskinlæring på flere billeder til at producere et enkelt foto af høj kvalitet. Selv Apples forslag til tekst bliver støttet af maskinlæring. Det særlig interessante ved Apples tilgang til AI er den måde, hvorpå den passer ind i valget mellem AI, der bliver leveret lokalt på enheder, i kontrast til oppe i skyen og i datacentre.

Modsat Google, Amazon og Facebook foretrækker Apple enheds-AI frem for at bruge datacentre.

Generelt bevæger Apple sig væk fra skyen til AI på enheden. Apple har allerede inddraget funktioner som Neural Engine i sine chips. De håndterer for eksempel billedanalyse lokalt på enheden. Den tilgang bliver i fremtiden mere og mere normen. Den næste version af Apples mobile operativsystem, iOS 15, tager for eksempel beregningerne bag stemmeassistenten Siri ud af skyen og lægger dem i iPhone-enheden.

Det hænger delvis sammen med privatlivets fred, som Apple betragter som en afgørende forskel på firmaets produkter og tjenester som Amazon, Google og Facebook, der ifølge Apple alle lever af at vide så meget om os som muligt. “Det drejer sig om et af de største privatlivsproblemer ved stemmeassistenter, nemlig uønsket lydoptagelse,” har Apple sagt.

Men det rejser spørgsmålet: Kan enheds-AI overhovedet konkurrere med de enorme maskinlæringsmodeller, der ligger i datacentre. Det kan ikke overraske, at Apple siger, at det kan den sagtens. “Jeg kan godt forstå den opfattelse, at større modeller i datacentre må være mere nøjagtige, men den er faktisk forkert,” siger John Giannandrea, der er Apples vicedirektør for maskinlæring og AI-strategi. “Det er faktisk teknisk forkert.

Det er bedre at køre modellen tæt på dataene end at flytte rundt på dem. Og uanset om det er lokationsdata – hvad er det, du laver? – eller bevægelsesdata – hvad laver accelerometeret i min telefon? – er det bedst at være tæt på datakilden. Det beskytter også privatlivets fred.” Latens er en anden fordel ved enheds-AI.

John Giannandrea: “Man tager et fotografi, og umiddelbart før man tager billedet med kameraet, ser det alting i realtid. Det kan hjælpe en med at beslutte, hvornår man skal tage sit foto. Hvis man ville træffe den beslutning på en server, skulle man sende hvert eneste øjebliksbillede til serveren for at træffe en beslutning om, hvordan fotografiet skal tages.” Det giver ifølge Giannandrea ingen mening.

Det kan man gøre langt bedre på selve enheden. Selvfølgelig vil tjenester, der er afhængige af enorme datamængder, forblive i skyen i en overskue-lig fremtid. Og når man tager Apples voksende fokus på privatlivets fred i betragtning og hertil lægger firmaets ubestridte kvaliteter, når det gælder om at udvikle både enheder og de chips, der driver dem, fremstår salgsargumentet for de enkelte enheder som en fornuftig tanke.

Men vi har til gode at se, om forbrugerne for alvor går op i privatlivets fred, og om en Neural Engine eller en matrix-matematik-accelerator i en iPhone virkelig kan konkurrere med exaflops af dedikeret Google AI-hardware i et datacenter.

DLSS – dyb læring

Den bedst kendte anvendelse af Nvidias Tensor-kerner er dens Deep Learning Super Sampling technology (DLSS). Det er en teknologi til opskalering af grafikken med henblik på at levere højere billedkvalitet og højere framerates.

Grundideen er at rendere en spil-engine ved en lavere opløsning som for eksempel 1080p for at opnå højere framerates og derefter bruge DLSS til at opskalere billedet, så det ligner den visuelle kvalitet hos en højere opløsning såsom 4K.

Tanken om en opskalering er ikke ny. Men i stedet for konventionel spatiel opskalering er DLSS en temporal algoritme, der sammenligner den aktuelle frame med den forrige og genererer bevægelsesvektorer, som kan bruges til at forbedre billedkvaliteten under opskalering. DLSS er faktisk også et godt eksempel på, hvordan AI-infrastruktur interagerer med klienthardware.

DLSS bygger på en supercomputer-drevet træningsproces, der sammenligner millioner af reference-frames af høj kvalitet, renderet ved 16K (15.360 gange 8640 pixel), til skalerede outputs, hvorved der efterhånden bliver genereret forbedrede algoritmer.

Når “træningsprocessen” er færdig, bliver DLSS-skaleringsmodellen for et givet spil inddraget i Nvidias grafikdrivere og dernæst accelereret af Tensor-kernerne i Nvidias RTX-grafikchips, således at DLSS kan blive brugt i realtid på en kørende spil-engine.

Den gode nyhed er, at når DLSS er bedst, kan teknologien gøre ting, som andre opskaleringer simpelthen ikke kan opnå. Nvidias ærkerival AMD har for nylig lanceret et mere konventionelt ikke-AI-alternativ til DLSS, og selvom det virker udmærket, mangler det magien hos DLSS. Nvidias AI-opskalering er ikke fejlfri, men den kommer tættere på en overbevisende efterligning af oprindelig opløsnings-rendering end noget andet.

AI’s begrænsninger

Det er alt sammen sket før ...

Tilbage i 1950’erne, da computeren var i sin vorden, forventede forskerne at se en maskine med intelligens på menneskeligt niveau inden for 10 år eller allerhøjst 20 år. Der er nu gået 70 år, og man kan argumentere for, at AI ikke er kommet nærmere virkeligheden.

Skal vi derfor arkivere AI ved siden af en mirakelkur mod kræft og kernefusion som endnu en teknologi, der på forunderlig vis bliver mere uopnåelig, jo tættere vi kommer på en forståelse af fænomenet? Begrænsningerne for den aktuelle mønsterregistrerings-maskinlæring bliver i hvert fald stadig mere åbenlyse.

I 2015 forudså Elon Musk, der blandt andet er Teslas overhund, selvsikkert, at selvkørende teknologi ville opnå “fuldstændig autonomi” i 2018. Han var ikke den eneste, som fremsatte den slags kække forudsigelser. I 2016 forudså Ford, at man ville sælge “fuldstændig selvkørende” kommercielle køretøjer til delekørsel-applikationer i 2021. Men situationen er nu, at førerløse biler ikke synes at være tættere på virkeligheden, end de var for 10 år siden.

Man kan faktisk hævde, at udfordringen blot er blevet endnu større. Tidligere på året understregede John Krafcik, der er topchef i Google-datterselskabet Waymo, som arbejder med førerløse biler, at det er svært at udvikle førerløs teknologi. “Det er en ekstraordinær kraftanstrengelse, en større udfordring,” sagde Krafcik.

Det er noget af en kovending i forhold til 2018, da Waymo havde planer om at sende 62.000 førerløse minivans på vejene ved udgangen af det år. Ved den seneste optælling havde Waymo blot 600 køretøjer. “Vi troede i 2015, at vi ville have en bredt tilgængelig tjeneste i 2020, og det var ikke nogen vanvittig idé. Hvis vi har én prototype, kan vi gå til masseproduktion i løbet af blot et par år, ikke? Det var en tilstand af – jeg vil ikke sige uvidenhed – men en mangel på information og en mangel på erfaring. Vi er blevet meget ydmyge på de seneste fem år.”

Waymo forventede at have en flåde på mindst 60.000 selvkørende biler i dag. Det reelle tal er 600.

Selvkørende bilteknologi er ikke det eneste område, hvor løfterne om AI ikke er blevet opfyldt. Langtfra. Magasinet The Economist mener, at entusiasmen for AI på tværs af brancher er ved at gå i stå. En af grundene er alt for megen medieståhej. Magasinet citerer en undersøgelse af europæiske AI-iværksættervirksomheder, som viste, at 40 procent af dem overhovedet ikke brugte AI.

Anskuet mere generelt mener The Economist, at AI står over for to kerneproblemer. Det første er overraskende nok mangel på data. På trods af vores stadig mere digitaliserede liv er kritiske data ofte utilstrækkelige. Det har for eksempel vist sig at være umuligt at spore covid-19-overførsel uden en omfattende mængde af individuelle bevægelser.

Det andet problem er en endnu større udfordring. Eksisterende AI afhænger typisk af mønsterregistrering og kan løse visse opgaver som billedgenkendelse og sprogbearbejdelse langt bedre end gammeldags software med håndkodede regler. Men disse systemer er ikke “intelligente” i den form, begrebet normalt bliver forstået.

Der er ingen erkendelse eller ræsonnement, ingen evne til at generalisere, kun en snæver evne til at gøre én ting vældig godt. Faktisk er udvalget af eksisterende AI-systemer så snævert, at der i dag er tvivl om, at fuldstændig autonome biler nogensinde bliver mulige.

Så stor er kompleksiteten bag det at håndtere uforudsigeligheden ved at køre i den virkelige verden på virkelige veje – eller endda en anelse uden for dem.

Hvad er en Tensor?

Nøjagtig hvad er Nvidias Tensor-kerner, og hvordan adskiller de sig fra velkendte kredsløb som pixelshaders i gpu’er eller heltal- og flydende komma-enheder, der bliver brugt i cpu’er? Er der virkelig noget ved dem, som berettiger koblingen til “kunstig intelligens”?

Udtrykt i fundamentale computerbegreber accelererer Tensor-kerner matrixoperationer ved at udføre mixed precision-beregninger med matrix-multiplikation og akkumulere beregninger i en enkelt handling. Denne slags beregninger er matematisk set ligetil, men de er computerintensive på almindelige computerarkitekturer såsom cpu-kerner.

I øvrigt hidrører ordet “Tensor” fra et matematisk begreb af samme navn, som vedrører datacontainere, hvoraf matricer er en delmængde, og som også omfatter skalarer og vektorer. Man kan betragte skalarer som nuldimensionale tensorer, der består af et enkelt antal; en vektor er en endimensional tensor, der består af en enkelt søjle af tal; og matricer er todimensionale tensorer, der består af både talrækker og -søjler.

Det virker måske ikke sådan, men recommendation-engines som den, der bliver brugt af YouTube, er drevet af avanceret AI.

Moderne cpu’er har flydende komma-enheder med single instruction multiple data-udvidelser (SIMD), som blandt andet er beregnet til at accelerere beregninger, der omfatter matricer. Men den hardware er stadig generel og ikke udelukkende beregnet til matrix-matematik.

Paralleliserede gpu’er er endnu bedre til at knuse matricer, men selv de inddrager bredt programmerbare enheder såsom Nvidias CUDA-kerner, der ikke snævert og eksklusivt er beregnet til matrix-matematik.

Bortset, naturligvis, fra Nvidias Tensor-kerner. Nvidias GV100-chip, som man finder i grafikkortet Titan V, var firmaets første gpu med Tensor-kerner – 640 af dem, for at være nøjagtig, og angivet som 110 Tflops. Til sammenligning har GV100 også 5120 af Nvidias konventionelle Cuda-kerner, der også kan håndtere matrix-matematik.

Det kombinerede beregnings-output af disse Cuda-kerner når lige op på 27,6 TFlops, på trods af at de er langt mere talrige og fylder størstedelen af GV100-chippen. Når det gælder matrix-matematik, er Tensor-kerner altså langt mere effektive.

Hertil kommer, at matrix-matematik-ydelsen hos Nvidia-gpu’er vokser hurtigt. I den ene ende af skalaen har vi GeForce RTX 3060, der i øjeblikket er den ydmygste RTX 30-gpu, man kan få. Den modsvarer stort set GV100, når det gælder Tensor-kerneydelse.

Til gengæld har Nvidias seneste gpu i den dyre ende, A100, omkring tre gange så stor Tensor-kerneydelse. Faktisk udgør A100-chippen basis for Nvidias Perlmutter-supercomputer, der hævdes at være verdens hurtigste AI-maskine. Den er udviklet i samarbejde med HP, og den rummer ikke færre end 6159 A100-gpu’er. Den leverer næsten 4 exaflops computerkraft – det er et tal, som er så højt, at det er svært at fatte.

Intel, Google og Apple

AI-specifik logik i chips fra Nvidias konkurrenter drejer sig også om matrix-matematik. Intels kommende Sapphire Rapids Xeon-processor til servere rummer for eksempel det, Intel beskriver som en “indbygget” AI-accelerations-engine ved navn Intel Advanced Matrix Extensions eller AMX. Der kommer ikke mange specifikationer fra Intel, men man forventer, at AMX bliver en matrix-matematisk-overbygning til Intels eksisterende AVX-512-vektor-engines.

Tilfældigvis har Apple sine egne matrix-optimerede AI-blokke i sine egne chips. De begynder med A13 SoC i iPhone 11, og de er revideret til de nye A14- og M1-chips, hvoraf den sidstnævnte kan findes i den seneste MacBook Air, MacBook Pro, Mac Mini og iMac.

Digitale assistanter som Amazon Alexa er typisk det, man tænker på, når talen falder på eksisterende AI-appliaktioner.

Disse blokke bliver også kaldt AMX, men i dette tilfælde refererer betegnelsen til “Apple Matrix” i modsætning til Intels Advanced Matrix Extensions. Forvirrende nok har Apples chips endnu en AI-accelererende blok ved navn Neural Engine. Læs mere om den og om neurale netværk i boksen til højre.

Googles TPU (Tensor Processing Unit) er en hel chip, der er dedikeret til matrix- eller tensor-matematik, og den er nu i sin fjerde generation efter lanceringen i 2015. Google TPU er ikke noget, man finder i sin pc eller telefon, men den er endnu et eksempel på, at computerbranchen anlægger en fælles tilgang til AI-acceleration, og det bekræfter, at AI er et meningsfuldt computer-paradigme, ikke blot et markedsføringstrick.

Google siger i øvrigt, at disse TPU’er blev brugt til at identificere og bearbejde al den tekst, der forekom i firmaets StreetView-database i Google Maps på under fem dage.

Den kommende Sapphire Rapids-arkitektur til Xeon-serverchips bliver den første, som får Intels AMX-matrix-matematiske accelerationsudvidelser.

Begrebet AI udgør generelt en fascinerende dobbelthed. På den ene side er der ingen tvivl om den enorme indflydelse, den har på computere og på vores levevis. AI og maskinlæring kan gøre ting, som ingen andre computer-paradigmer formår.

På den anden side er det svært at slippe en følelse af, at AI er forkert beskrevet. Maskiner kan afgjort lære at gøre tilsyneladende dygtige ting, men det kan diskuteres, om der er nogen ægte intelligens involveret.

Hvis der ikke er det, hvis det blot er mønstergenkendelse, kan AI ende med at være forvist til snævre, om end talrige kompetenceområder, mens de gyldne løfter (og farer) ved en mere generaliseret kunstig intelligens forbliver frustrerende uden for rækkevidde.

[su_box title="Neurale netværk" style="glass" box_color="#7f2e2c" title_color="#ffffff" radius="0" class="verdict-box"]

Læringen går for alvor i dybden

Computerforskere har puslet med neurale netværk siden 1950’erne. Dengang forudså forskere på området, at teknologien ville føre til maskiner, der ville være i stand til at beherske gang, tale, bevidsthed og sågar selvreproduktion.

Det lyder måske langt ude, men der er ingen tvivl om, at neurale netværk i dag er et af de vigtigste elementer i den generelle AI-forskning. Men hvad er neurale netværk, hvordan fungerer de, og hvad bruger man dem til? Neurale netværk er en form for datastruktur, der løseligt er inspireret af biologiske neuroner, hvor den digitale neuron er en matematisk funktion, der inddrager vægtede summer.

Jo større et inputs vægt er, desto mere påvirker dette input neuronens output. Det interessante er netværkets evne til at “lære”. Lad os bruge billedgenkendelse som eksempel. Hvis netværket af neuroner korrekt klassificerer et billedinput, bliver de vægte, der bliver brugt til at opnå den korrekte identifikation, øget – og vice versa.

Derfor forbedrer de gradvis netværkets evne til korrekt at identificere billeder. Problemet i de neurale netværks unge dage var den computerkraft, som var til rådighed. Det store praktiske gennembrud kom med muligheden for markant at øge “dybden” af et lag, som kunne trænes, i netværket.

Her kommer begreberne dyb læring og backpropagation ind i billedet. Meget kort fortalt: Ved brugen af flere lag af inputs og outputs – jo “dybere” desto bedre; hver fodring eller backpropagation ind i lagene nedenunder – og forbedring af deres nøjagtighed – udvider markant udvalget af netværk, som kan trænes.

Et tidligt eksempel på denne tilgang kom i 1998, da den blev brugt af forskere hos AT&T til at genkende håndskrevne tal og dermed automatisere betalingen med checks. Forskerne konkluderede, at tilgangen med automatisk læring gav langt bedre resultater end “håndudviklet heuristik”.

Adgangen til computerkraft er eksploderet, og samtidig er brugen af dyb læring blevet udvidet. I 2013 brugte Google den i sin online-billedsøgning, og den er sidenhen blevet taget i brug i alt fra smartphones til smarte biler. Men den største succes er måske den nemhed, hvormed man kan bruge den.

I løbet af de seneste årtier er byggeblokkene i neurale netværk blevet finjusteret, hvilket gør træningen relativt ligetil, forudsat at man har data af tilstrækkelig god kvalitet. Heraf må vi slutte, at fremtiden for AI drejer sig lige så meget om adgang til data som – eller måske endda mere end – forbedrede algoritmer. [/su_box]