Artikel top billede

(Foto: Computerworld)

De lærende maskiner er over os

Maskinlæring er meget mere end en række smarte algoritmer; den vender op og ned på alting.

Af Torben Okholm, Alt om Data

Denne artikel er oprindeligt bragt på Alt om Data. Computerworld overtog i november 2022 Alt om Data. Du kan læse mere om overtagelsen her.

Maskinlæring fylder efterhånden vældig meget – den er over det hele. Digitale assistenter bruger den til at oversætte tale. Facebook bruger den til automatisk at tagge billeder (DeepFace hævder at levere en nøjagtighed på 97,25 procent). Amazon, Spotify og Netflix bruger den til at udvælge de anbefalinger, du får tilsendt. Google inddrog RankBrain i sin søgemaskine i 2015 med henblik på håndtering af søgesemantik, Gmail har sin Smart Reply-tjeneste, og sidste år begyndte Google Maps at bruge maskinlæring til at uddrage vejnavne og husnumre fra billeder.

Disse eksempler er kun toppen af isbjerget. Bag kulisserne har store virksomheder taget maskinlæring til sig. Pengeinstitutter bruger den til at spore markedstendenser, beregne risici og dykke ned i strømmene af finansielle data. Kapløbet om den førerløse bil bliver drevet af maskinlæring.

Enhver virksomhed, der prøver at finde hoved og hale i det datarod, som mennesker laver, kan drage nytte af maskinlæring. Det gælder omtrent alt fra lægevidenskab til forsikringsbranchen. De fem største virksomheder målt i markedsværdi er i øjeblikket Apple, Amazon, Alphabet (Google), Microsoft og Facebook. De har alle foretaget omfattende investeringer i maskinlæring og har adgang til den form for big data, som effektiv udnyttelse af maskinlæring kræver.

Man skal huske, at maskinlæring og kunstig intelligens er to forskellige ting. Kunstig intelligens er en enhed, et program eller et system, der virker “klogt” og som kan handle og reagere på en menneskelignende facon. Maskinlæring er en metode , som AI kan bruge til at fremstå begavet, men det vigtigste er, at maskinlæring kan lære, mens den arbejder. Det er denne evne til at tilpasse sig, der ligger bag revolutionen.

Programmering kontra læring

Et computerprogram er et sæt af instruktioner, der er pænt og logisk. Med udgangspunkt i et input kan man spore data gennem programmets algoritmer og præcist forudsige outputtet. Det er den traditionelle måde, computere virker på – ufleksibelt og noget helt andet end den virkelige verden. Hver opgave kræver, at programmet er skrevet med henblik på netop den specifikke opgave.
Maskinlæring har til formål at lave et program, der efterligner menneskets hjerne – den er ikke en regnemaskine.

I stedet for at prøve at programmere for enhver eventualitet, enhver opgave og enhver form for data laver man en maskine, der tænker mere som et menneske. Her bevæger vi os ind på området for neurale netværk – et system, der er udviklet til at efterlige den flydende måde, hvorpå menneskets hjerne danner og forandrer sine interne forbindelser, mens den tager ved lære.

Det lyder alt sammen vidunderligt moderne og nyopfundet, men det er det faktisk ikke. Ligesom mange andre aspekter af programmering er det faktisk slet ikke så nyt. Den praktiske udnyttelse af maskiner har længe haltet bagefter ideerne. De første genkendelige computeralgoritmer blev skrevet omkring 1837 på et tidspunkt, hvor hardware var en ufærdig masse af tandhjul og løftestænger.

Maskinlæring er ikke helt så gammel; ideen bliver som regel tilskrevet Arthur Samuel, der lancerede begrebet “maskinlæring” i 1959. Han var med til at skrive et damspillende program, der tog ved lære af sine fejltagelser. Dets rødder rækker dog endnu dybere. I 1943 beskrev neurofysiologen Warren McCulloch og matematikeren Walter Pitts, hvordan et neuralt netværk fungerer, og de lavede en model, der brugte elektriske kredsløb. I 1949 gav psykologen Donald Hebb os Hebbs lov: “Nerveceller, der arbejder sammen, forbinder sig med hinanden”, og den er afgørende for den måde, hvorpå interne forbindelser bliver forstærket gennem læring.

Fremskridtene kom langsomt, hvilket navnlig skyldtes den daværende hardwares tekniske begrænsninger og manglen på vigtige algoritmer såsom tilbagepropagering (der bruges til at beregne vægt. Det vender vi tilbage til). På trods af årtiers forskning og teoretiseren skulle vi frem til 1990, før vi havde udbredte og anvendelige maskinlæringsprogrammer, og det var først i 2010, man kunne lave store neurale netværk, der fungerede.

Prøv det selv

Dette er Quickdraw fra Experiments with Google.

DeepDream http://deepdreamgenerator.com

Neurale netværk kan se alle mulige mønstre i billeder, ligesom vi kan se forskellige figurer i skyer. DeepDream bruger algoritmiske skikkelser til at bringe monstrene til live – levende og psykedelisk. Når et billede bliver bearbejdet talrige gange, sker der sære ting, idet hidtil usete mønstre bliver uddraget. Bizart.

Mitsuku http://pandorabots.com/mitsuku

Denne chatbot har tre gange modtaget Loebner Prize Turing Test. Hun kan chatte på en række platforme, herunder Messenger, Twitch og Telegram, eller blot almindelig webchat. Det er sjovt et stykke tid, men man skal ikke vige langt fra emnet, før hun bliver forvirret. Microsoft CaptionBot www.captionbot.ai Upload et billede, så skriver denne bot en billedtekst for dig. Den har eksisteret i nogen tid, og den burde have haft god tid til træning. Den er dog stadig kun gennemsnitlig – det er ikke særlig svært at lokke den på glatis. Når man kører den, fører dens manglende præcision og komiske gætterier til et væld af practical jokes.

Image-to-image http://affinelayer.com/pixsrv/

Her bliver dine primitive tegninger af katte, bygninger, sko eller håndtasker udsat for en trænet maskinlæring-engine, der på baggrund af dem genererer kunstige fotografiske billeder. De kan rangere fra klamme til ret gode, navnlig bygningerne. Jo bedre din tegning er, desto bedre bliver resultatet.

Experiments with Google http://experiments. withgoogle.com

Dette site omfatter masser af interaktive maskinlæring-eksperimenter, som er blevet samlet af Googles ingeniører i årenes løb. Der er data, som er kortlagt på nye måder; tricks med billeder; håndskrift; tekst; lyde og meget mere.

TensorFire http://tenso.rs/demos/ fast-neural-style/

Upload et billede til dette site, så omdanner et neuralt netværk det til et kunstværk – eller rettere et interessant stiliseret billede ud fra et udvalg af forskellige metoder. Resultaterne bliver genereret forbavsende hurtigt, og de kan faktisk se vældig godt ud.

TensorFlow Playground http://playground. tensorflow.org

Et simuleret neuralt netværk på en browserside. Kast et hurtigt blik på det, hvis du vil se, hvor kompliceret maskinlæring er på trods af den relativt enkle underliggende teori. Der er endda tale om et lille og simpelt netværk. Advarsel: indeholder matematik.

Et neuralt netværk består af et sæt af input- og outputenheder. Mellem dem er der et net af kunstige neuroner, også kaldet noder. De er arrangeret i lag, og outputtet fra ét lag bliver leveret videre til det næste. Forbindelserne får tildelt en vægt, en grad af indflydelse, der ændrer sig i takt med, at netværket lærer. Hver node bliver fodret med data, foretager en handling og sender resultatet videre i overensstemmelse med vægten.

Et neuralt netværk kræver undervisning (bevares, ikke dem alle, men det kommer vi senere ind på). En udbredt brug er mønstergenkendelse i billeder. Hvis man for eksempel udsætter sit netværk for et billede, der bærer titlen “indeholder kat”, kender netværket det ønskede output, og konfigurationen af noden er derfor enkel. Så dynger man flere billeder på: sorte katte, røde katte, løbende katte, sovende katte, beskårede billeder og billeder uden katte.

Nvidia har trænet dette deep learning-system til reduktion af billedstøj med 50.000 billeder. Det mest imponerende er, at systemet blev trænet ved hjælp af fejlbehæftede billeder.

Hver gang skal forbindelsens vægt justeres, således at man til stadighed får det korrekte output – ikke kun for det aktuelle billede, men også for alle de foregående. I takt med at netværket lærer, bliver hver forbindelses vægt etableret mellem noderne.

Nu opstår der et system af mønstergenkendelse i netværket – det lærer en kats konturer, dens øjnes og ørers placering og så videre. Til sidst kan man udsætte netværket for et foto uden at afsløre det korrekte output, og systemet vil korrekt se – eller ikke se – en kat. Dette er klassificeringsmodellen; den forsøger at forudsige et eller flere resultater. Regressionsmodellen fungerer tilsvarende, men outputtet er en kontinuerlig variabel, for eksempel et antal kroner eller et flydende komma-tal.

Magien ved et neuralt netværk består i, at den interne proces er skjult. Man har måske selv lavet det, men når det er blevet trænet i at løse en opgave, ved man faktisk ikke, hvad vægten er for hver node. Det bruger måske faconen på en kats øje til at identificere den, eller også gør det noget andet. Man kan ikke nøjagtig vide, hvordan det opnår sine resultater, og her er vi langt fra den fikserede logik i et traditionelt program.

Der er en indlysende ulempe: Det er fejlbarligt. Der er en vis grad af nøjagtighed, og man har aldrig 100 procents garanti. Det er usædvanligt for et computerprogram, hvor outputsvipsere bliver betragtet som programfejl – fejl i koden, som kan afhjælpes. Et neuralt netværk er mere menneskeligt og har derfor også fået vores evne til at fejle. Det har ikke den store betydning, når vi tagger billeder af katte på Facebook, men det er noget, man skal tage i betragtning, når man udvikler et system til en førerløs bil.

Denne lille fugl blev genereret af et Microsoft-forskningsprojekt ved navn Drawing Bot.
Billedet blev lavet ud fra en billedtekst: “Denne fugl er rød og hvid og har et meget kort næb”.

Neuroner og indlæring

Der er også andre problemer. Det er af og til svært at finde ud af grunden til, at ét resultat overtrumfer et andet, fordi så meget af processen er skjult i den interne vægtfordeling. Det kan også gøre det vanskeligt at finjustere systemet. Der skal være foregået megen intern diskussion hos Google om de relative fortrin ved maskinlæring i forhold til dens rivaler, når det gælder rangering af søgeresultater og målretning af reklamer. Man kan ikke blot foretage en hurtig justering for at give ét resultat forrang frem for et andet.

Et simpelt neuralt netværk kan køre på en håndfuld noder. Detaljeret arbejde kræver lidt mere. Facebooks DeepFace kører på ni lag og har 120 millioner forbindelsesvægte. Til sammenligning kan vi nævne, at man som regel tilskriver menneskets hjerne 100 milliarder neuroner. Et nyere eksperiment når dog kun op på 86 milliarder.

Hver neuron har forbindelse til et sted mellem 1000 og 10.000 andre neuroner (man er ikke helt sikker; tallet 7000 bliver ofte nævnt). Det betyder, at antallet af forbindelser skal regnes i billioner – det overstiger antallet af stjerner i Mælkevejen. De største kunstige systemer, der hidtil er lavet, tæller en milliard forbindelser, og de har været kortlivede forskningsprojekter. Vi har stadig lang vej at gå.

Dette stopsignal, der er lavet af forskere fra University of Washington, narrer førerløse biler – de ekstra klistermærker er beregnet til at forvirre billedgenkendelsen.

Som du sikkert har regnet ud, holder vi os her til det grundlæggende. Maskinlæring drejer sig imidlertid ikke kun om neurale netværk; SVM’er (support vector machines) er en anden populær metode. De bliver trænet på en tilsvarende måde, men bruger en anden matematisk model internt. Disse systemer er enklere, de kræver ikke enorme mængder af computerkraft eller big data-sæt, og de interne processer er mere åbne for undersøgelse. Men de har ikke samme kraft som et neuralt netværk.

Maskinlæring er et emne, der meget hurtigt bliver kompliceret, når man dykker længere ned i det. Det giver ingen mening at opregne de grundlæggende maskinlæring-metodologier; der er over 50. De bruger et væld af statistiske ana-lyseværktøjer, beslutningstræ-algoritmer, dimensionsreduktion, regressionsanalyse og meget andet. Det er matematik på særdeles højt niveau.

I tilgift til den overvågede indlæring findes der også semiovervågede systemer, der bruger et minimum af markerede data, og der findes også systemer helt uden overvågning. De fungerer uden nogen markeringer overhovedet; man hælder blot de rå data ind og lader algoritmerne gå i gang. Heraf opstår der mønstre og associationer, som måske ikke er indlysende på nogen anden måde.

Et hold hos MIT har udviklet RF-Pose, der er er system, som bruger trådløse signaler til at spore folk – også igennem vægge. Det er trænet til at bruge et kamera og radiosignaler.

Man kan kun træne et system, hvis man ved, hvilke outputkriterier man søger. Hvis man ikke ved, at man leder efter katte, kan man ikke træne et system til at finde dem. Ikkeovervågede systemer kan gøre gavn ved at oprette datamarkeringer, der derefter kan blive videregivet til overvågede systemer.

Det kan for eksempel dreje sig om at finde et cluster af billeder, der synes at rumme det samme objekt. De er også gode til at finde anomalier i data, hvilket er ideelt til sikkerhedssystemer, der leder efter tegn på svindel eller hacking, men som ikke aner, hvor eller hvordan disse handlinger finder sted.

virkelighed eller ej?

Denne deepfake-præsident blev lavet af Jordan Peele og Jonah Peretti for at illustrere farerne ved deepfake: Den følger Perettis stemme.

Vi er vant til digitale fupnumre fra Photoshop-bearbejdede modebilleder til gevaldige computerskabte effekter (computer-generated imageri, CGI). Vi ved godt, at alt ikke er, som det ser ud. Fup er ikke nyt, men den nemhed og præcision, hvormed man kan lave det ved hjælp af et maskinlæringssystem er skræmmende. Tag blot deepfake: Begrebet dukkede op i efteråret 2017, da en række pornografiske videoer dukkede op. De omfattede tilsyneladende kendte mennesker. Det hele var fup.

Deepfake bruger et neuralt netværk til at overføre ansigter til figurer i videoer. Systemet er trænet til at bruge flere billeder af det udvalgte offer, og det kan fungere i noget nær realtid. Det blev hurtigt efterfulgt af FakeApp, der er en simpel applikationsversion, der har krævet beskedne programmeringsevner. Nu kunne man nemt undergrave ligheden i de videoer, der blev delt online. Deepfake blev bandlyst på en række sociale medier, men det er stadig meget udbredt. Det er blevet brugt til politisk satire og rent drilleri, men det er også blevet brugt til mere udspekulerede og skadelige formål – som at indsætte Nicolas Cages ansigt ind i berømte filmscener uden andet formål end at lave noget, der går viralt på internettet. Der er grænser.

Teknikken er temmelig imponerende, men en nærmere undersøgelse afslører ejendommeligheder. Men hvis man blader gennem videoklip på sin telefon, kan en deepfake-forfalskning sagtens smutte ubemærket forbi. Dette er et farligt område, og det betyder, at det er vigtigere end nogensinde før, at man altid sporer kilden til noget, før man fæster lid til det. Det er desværre betydelig nemmere sagt end gjort. Der kommer mere endnu: Deep Video Portraits, for eksempel. De går videre endnu, idet man kan bruge bevægelser og ansigtsudtryk hos én person og hovedet fra en anden.

Nu kan man lade forfalskningerne bevæge sig og udtrykke sig, som man ønsker. Det går langt videre end blot at overføre et ansigt på en video. Komplette digitale avatarer af levende mennesker kan ikke være særlig langt væk. Det er muligvis en demokratisering af Hollywoods CGI-effekter, men der er stor risiko for, at troværdigheden går fløjten.

Deep Learning

Et andet meget udbredt maskinlæring-buzzword er deep learning, der i grunden blot bruges til at beskrive store, flerlagede neurale netværk. For eksempel kan lag, der bruges i systemer til billedgenkendelse, opdele billeder i områder eller blokke, der kan være objekter; det næste lag prøver måske at definere kanter; og andre lag identificerer specifikke former.

Hele historien ender med et output, der kan trænes. Jo flere lag, desto større kompleksitet, idet inputtet bliver brudt op i en stadig mere abstrakt repræsentation af dataene. Simple neurale netværk har måske nogle få lag; et deep learning-system kan løbe op i tre cifre. De skalerer godt, men de kræver anselige ressourcer.

Hvis man træner et neuralt netværk til at genkende hunde og kører det samme billede 50 gange, er dette resultatet – takket være Googles DeepDream.

Det, maskinlæring kræver for at trives, er adgang til en masse data. De bliver nu leveret af os – takket være internettet. Vi har skrevet utallige søgeanmodninger, e-mails og blogs, og vi har uploadet millionvis af billeder og videoer. Vi har skrevet indkøbshistorier og rejseberetninger; vi har delt ting, som vi kan lide, eller som vi har set, hørt og læst – og meget mere. Dette er big data, og der er nok til at afsløre underliggende mønstre, associationer og handlinger. Vi har fodret internettet med data i årevis, og en forfærdelig mængde af dem ligger i datafarme og venter blot på at blive bearbejdet.

Det andet, der kræves, er processorkraft. Gpu’en har vist sig at være lige det, systemerne skulle bruge til de simple, men gentagne operationer, og i dag har vi dedikeret hardware fra Google og IBM, mens Intel og andre følger trop (se tekstboksen herunder). Vi har trådløst internet i vores hjem, og den hardware, der kræves for at forbinde enhederne er billig, og der er meget af den. Når man samler disse faktorer, får vi de ideelle vilkår for en eksplosion i maskinlæring.

Vi har nået det punkt, hvor det er blevet nemt og relativt billigt at føje maskinlæring-stemmekontrol eller gestusgenkendelse til noget så dagligdags som et fjernsyn. Moderne apparater er allerede forbundet med husets trådløse hub; det er en nem sag at hægte vores stemmekommandoer til en server, der kører et af de populære maskinlæring-frameworks. Dem er der dusinvis af, herunder Googles TensorFlow og Amazons Machine Learning.

Her oversætter et neuralt netværk hurtigt din kommando og fører den tilbage til dit fjernsyn. Det lyder som trylleri: Nu kan man bede fjernsynet om at skrue ned for lyden med stemmen eller med en gestus, så man slipper for at trykke på en knap. For ti år siden ville det have været vanskeligt og imponerende; nu er der intet mærkeligt i det.

Digitale assistenter og biler

Vi har også hurtigt vænnet os til virtuelle eller digitale assistenter. De har kun været på markedet siden 2011 – den første var Apples Siri på iPhone 4S. Sidste år steg salget af smarte højttalere med over 100 procent, og de lå øverst på Amazons bestsellerliste. Man forventer, at der ved udgangen af dette år vil være over 100 millioner i folks hjem, og ved udgangen af 2020 vil der være over 225 millioner, der alle lytter til de magiske ord.

Disse digitale assistenter holder sig ikke til vores hjem. Der er planer om at indføre dem i biler og på kontoret, og man kan bygge dem ind i andre enheder. Var det noget med et køleskab, man kan tale med? Disse assistenter nøjes heller ikke med at tale til os. I år har Google demonstreret Google Duplex, der kan foretage telefonopkald for en.

Adobes kommende Cloak feature kan fjerne udvalgte elementer fra videoer. Det er slut med pinefuld redigering billede for billede, og resultaterne er imponerende.

I øjeblikket kan den kun håndtere dagligdags opgaver som at bestille bord på en restaurant. Systemets stemme lyder naturlig, og den kan endda krydre med et “øh” og “æh” indimellem. Men i skrivende stund kun på engelsk. Om der kommer en dansk version – og i givet fald hvornår – ved vi endnu ikke.

En af de største og mest offentlige anvendelser af maskinlæring i den virkelige verden er den førerløse bil. Dette projekt forbruger i øjeblikket milliarder af dollars til forskning, og mere end en halv snes af verdens største firmaer er involverede, fra giganter som Google og traditionelle bilproducenter som Ford til en ny generation af firmaer, herunder Tesla og Uber. Det er en kolossal test af teknologien, og resultaterne har generelt været positive, om end der også har været svipsere.

Der findes myriader af potentielle omstændigheder, som kan ryste et system, og de er ofte uventede. Da Volvo afprøvede sit system i Australien, konstaterede man, at det blev forvirret over kænguruers færden. Hoppede de frem eller tilbage? Tilsyneladende blev dyrenes spring registreret som bevægelser både mod og fra bilen. I Indien døjer Tatras system med den ejendommelige blanding af trafikformer, man ser på vejene. Auto-rickshawer har udgjort et specielt problem, fordi de ofte er dekorerede og skræddersyede i en sådan grad, at de er uidentificerbare.

Med tusinder af billeder i et neuralt netværkwork kan man lave livagtige, kunstige billeder. Disse eksempler er genereret af Nvidia ved hjælp af et GAN (Generative Adversarial Network).

På trods af tekniske hindringer synes kapløbet om førerløse biler at være ustoppeligt. Der findes mængder af testprogrammer på offentlige veje, og Ford har planer om at lancere en fuldautomatisk bil i 2021 “i fuld skala”. De tidligste biler bliver dyre, og de bliver sandsynligvis lejet ud som en taxitjeneste snarere end at blive brugt til personlig transport. De bliver formentlig også begrænset til omhyggeligt kortlagte områder. Vi kan se frem til ballade – ulykker med førerløse biler kommer stadig i nyhederne, og de juridiske aspekter er interessante. Men bilerne kommer, inden du får set dig om.

Maskinlæring bliver snart noget, der nynner i baggrunden, hvor den hjælper med at køre stort set alt, hvad der har en netforbindelse – fra banker til kommunalkontorer. Vi kan se frem til bots i vores spil og til assistenter, der foreslår, at vi bestiller en pizza, fordi en algoritme har regnet ud, at vores adfærdsmønster indikerer, at dette er en sandsynlig reaktion på den firetimers spilsession, den har konstateret. Og hvem ved – måske får vi en skønne dag en version af Windows, som kan opdage og korrigere programfejl undervejs. Hillemænd.

Fagre nye verden? Det er måske ikke den mest smigrende analogi, men der er en tanke af dystopi her. Hvis vi ser bort fra værdige anvendelsesmuligheder såsom lægevidenskabelig forskning og nyttige værktøjer, vil der komme bjerge af markedsføring. Vores digitale fodaftryk bliver siet og sorteret i firmaernes søgen efter mønstre og clusters. De vil prøve at forudsige, hvad vi ønsker, hvor vi ønsker det, og hvornår vi vil have det. Du er kunden, men du bliver også produktet.

Maskingeværet Super aEgis II Sentry kan arbejde selvstændigt og ramme mål på 2 kilometers afstand.

Vores rettigheder til et onlineprivatliv er også under konstant pres. Hvor meget af dit liv vil du have bearbejdet af lærende maskiner? Vi har en hel opvoksende generation, der betragter en smartphone som en essentiel genstand, og disse mennesker er tilsyneladende glade for at dele de intimeste dele af deres liv online.

Vi har allerede stiftet bekendtskab med de negative konsekvenser for sociale medier, idet stadig mere avancerede bots lærer at efterligne rigtige mennesker. Twitter og Facebook sletter hvert år millioner af konti. Myndigheder og organisationer har altid praktiseret social manipulation i en eller anden form – sloganer, plakater og så videre. Integreret maskinlæring præsenterer os for et helt nyt arsenal.

Disse komiske biler har tøffet førerløst rundt på Googles campus i et stykke tid. På trods af kontrollerede forhold og lave hastigheder har man ikke undgået uheld.

Før eller siden må der trækkes nogle grænser, og nogle af dem vil være temmelig vigtige. Det ser ud til, at vi er nødt til at acceptere, at folk af og til bliver kørt ned af autonome biler, men hvad med at blive skudt af en autonom militærmaskine? De findes allerede (se tekstboksen herunder). Bliver vores verdenssyn lovlig dunkelt nu? Formentlig. Det gælder for alle de værktøjer, vi opfinder, at det er op til os selv, hvordan de bliver brugt.

En førerløs Jaguar iPace fra Waymo (del af Alphabet); bilerne bliver afprøvet i San Francisco.

Hardware-racet er i gang

Intel kom lidt sent i gang med maskinlæring, men det rodede man bod på med en hurtig række opkøb, herunder Nervana Systems.

Man kan køre maskinlæring-applikationer på stort set enhver processor. De trives imidlertid bedst på en chip, der kan kværne enorme mængder af simple beregninger med lavt strømforbrug. Det minder om kryptovaluta-minedrift. Traditionelle x86-processorer er ikke særlig velegnede til dette formål. Nvidias Tesla-gpu har været et populært valg, for den er hardware, der egner sig vældig godt til opgaven.

Den har siddet solidt på det voksende marked for servere, der kører neurale netværk. Imidlertid ændrer situationen sig hurtigt. Google har besluttet sig for at hoppe på vognen og udvikle sin egen hardware. I 2016 hørte vi om Tensor Processing Unit, der var udviklet specifikt til neurale netværk, og som til at begynde med bestod af en ret simpel 8-bit-chip. Næste år kom så den næste generation med stærkt forbedrede egenskaber.

Den kunne levere 45 teraflops. I maj 2018 annoncerede man en tredjegenerations-chip, der er dobbelt så stærk. Google arbejder hurtigt. Googles TPU’er er endnu ikke kommercielt tilgængelige, men man kan leje adgang via en cloudtjeneste. Intel står klar med Nervana-chippen næste år og høster dermed de første frugter af købet af Nervana Systems i 2016. Det er en specialudviklet maskinlæring-chip. Man har fremmet Xeon Phi, der er en x86-serverchip, som maskinlæring-hardware, men den har altid været noget af en stopklods.

IBM har sin Power9-chip, som er tilgængelig for tredjepartsfirmaer eller via IBM’s cloudtjenester. Verdens hurtigste computer, Summit, indeholder 9216 af dem. I øvrigt har Apple sin neurale engine, der er en del af A11-processoren til iPhone. Amazon har en afdeling, der arbejder med AI-udvikling, men den kommer næppe til at producere sin egen hardware. ARM udvikler også nye specialiserede hardwaretyper til neurale netværk.

Qualcomm har sin Neural Processing Engine SDK til firmaets Snapdragon-chips. Man antager, at der også er 40 eller flere nye firmaer, der er i færd med at kaste sig ud i udviklingen af denne specielle hardware. Maskinlæring har indledt et hardware-væddeløb, der på længere sigt kan blive lige så vigtigt som x86-væddeløbet.

Smarte, dumme computere

Uanset hvor “smarte” maskinerne bliver, er de stadig lidt dumme. Et treårs barn forveksler ikke et billede af en kage med et billede af en hund, men den fejl kan selv det bedste system til billedgenkendelse begå.

Mange eksisterende maskinlæringssystemer har et begrænset virkefelt. De sigter på specifikke problemer med begrænsede mål, for eksempel forbedring af søgemaskineresultater eller styring af en bil igennem trafikken. Det næste skridt bliver en mere generaliseret tilgang, hvor sund fornuft og forståelse for menneskelig adfærd og interaktion er målet. Maskiner, der ikke blot kan bestille mad til os, men som også kan gennemføre en tilfredsstillende konversation.

Ud fra studier af alle Rembrandts malerier har et hollandsk team genereret dette: “Den næste Rembrandt.” Det er helt nyt, men stilen er ikke til at tage fejl af.

Menneskelig kognitiv udvikling giver os nogle spor. Vi lærer ikke kun af vores fejl; vi bliver hjulpet på vej af interne instinkter, af naturen og af vores opvækst. Blandt de mennesker, der forsker på dette felt, finder vi Intelligence Quest, som er en gruppe, der har til huse på MIT, og Allen Institute for Artificial Intelligence. Den næste generation af maskinlæringssystemer vil formentlig kunne reagere på den kaotiske og uforudsigelige verden med mere af den mest menneskelige egenskab: sund fornuft. Når systemet til den tid ser en kage, der er formet som en hund, tager det ikke fejl.

Inden længe vil vi med nogen munterhed se tilbage på fortidens “dumme” computere med deres ufleksible logik. I 1980’erne dannede John Gage fra Sun Microsystems udtrykket “Netværket er computeren”. Han havde ret, men der gik år, før det slog an. I dag betragter vi enhver uforbundet maskine som invalid. Nu kan vi måske føje et ord til udsagnet: “Det neurale netværk er computeren.”

Autonom død

Hvis man konstaterer et væddeløb om maskinlæring i den civile verden, kan man trygt regne med, at det også foregår i militæret. USA’s militær har brugt fjernbetjente maskiner og semi-autonom hardware i årevis, men nu står vi på tærsklen til fuldautomatiske dræbermaskiner, der bliver kaldt LAWS, Lethal Autonomous Weapons Systems.

Eksisterende systemer kræver kun menneskelig medvirken til den endelige ordre om at skyde, men der er undtagelser fra denne regel – for eksempel forsvars-missilsystemer som Phalanx. Mange programmører og forskere, der arbejder med maskinlæring, har boykottet institutioner og projekter med militære forbindelser. Google har givet et løfte om ikke at arbejde på nogen militære projekter, og det samme gælder Elon Musk, men det går ikke hårdt ud over forskningen på dette område.

Rusland fremstiller automatiserede våben og missilsystemer til at forsvare baser og pipelines, og man har udviklet den svært bevæbnede dronetank Uran-9. Rusland har også erklæret, at man vil ignorere eventuelle fremtidige forbud mod LAWS. Er vi parate til at blive dræbt af en algoritme? Forenede Nationer overvejer i øjeblikket et forbud mod alle våben, der kan dræbe uden menneskelig medvirken. ImidIertid bliver forhandlingerne forsinket af de sædvanlige kværulanterier og indvendinger.

Det kunne eller være en ide at skynde sig, for russerne er ikke alene – den sydkoreanske våbenproducent Dodamm forhandler allerede kanontårne, der teknisk er i stand til at udføre fuldstændig autonome handlinger, og de bliver opsat langs grænsen til Nordkorea og i Mellemøsten. Mange frygter, at hvis sådanne våben ikke bliver begrænset, vil vi se et våbenkapløb, hvor hver af de store magter vil stræbe efter at være i spidsen. Når sådanne systemer først er udviklet, bliver det meget svært at vende om.