De lærende maskiner er over os

De lærende maskiner er over os

Share
Digitale assistenter og biler

Vi har også hurtigt vænnet os til virtuelle eller digitale assistenter. De har kun været på markedet siden 2011 – den første var Apples Siri på iPhone 4S. Sidste år steg salget af smarte højttalere med over 100 procent, og de lå øverst på Amazons bestsellerliste. Man forventer, at der ved udgangen af dette år vil være over 100 millioner i folks hjem, og ved udgangen af 2020 vil der være over 225 millioner, der alle lytter til de magiske ord.

Disse digitale assistenter holder sig ikke til vores hjem. Der er planer om at indføre dem i biler og på kontoret, og man kan bygge dem ind i andre enheder. Var det noget med et køleskab, man kan tale med? Disse assistenter nøjes heller ikke med at tale til os. I år har Google demonstreret Google Duplex, der kan foretage telefonopkald for en.

Adobes kommende Cloak feature kan fjerne udvalgte elementer fra videoer. Det er slut med pinefuld redigering billede for billede, og resultaterne er imponerende.

I øjeblikket kan den kun håndtere dagligdags opgaver som at bestille bord på en restaurant. Systemets stemme lyder naturlig, og den kan endda krydre med et “øh” og “æh” indimellem. Men i skrivende stund kun på engelsk. Om der kommer en dansk version – og i givet fald hvornår – ved vi endnu ikke.

En af de største og mest offentlige anvendelser af maskinlæring i den virkelige verden er den førerløse bil. Dette projekt forbruger i øjeblikket milliarder af dollars til forskning, og mere end en halv snes af verdens største firmaer er involverede, fra giganter som Google og traditionelle bilproducenter som Ford til en ny generation af firmaer, herunder Tesla og Uber. Det er en kolossal test af teknologien, og resultaterne har generelt været positive, om end der også har været svipsere.

Se også:  Om 11 år bliver din hjerne simuleret

Der findes myriader af potentielle omstændigheder, som kan ryste et system, og de er ofte uventede. Da Volvo afprøvede sit system i Australien, konstaterede man, at det blev forvirret over kænguruers færden. Hoppede de frem eller tilbage? Tilsyneladende blev dyrenes spring registreret som bevægelser både mod og fra bilen. I Indien døjer Tatras system med den ejendommelige blanding af trafikformer, man ser på vejene. Auto-rickshawer har udgjort et specielt problem, fordi de ofte er dekorerede og skræddersyede i en sådan grad, at de er uidentificerbare.

Med tusinder af billeder i et neuralt netværkwork kan man lave livagtige, kunstige billeder. Disse eksempler er genereret af Nvidia ved hjælp af et GAN (Generative Adversarial Network).

På trods af tekniske hindringer synes kapløbet om førerløse biler at være ustoppeligt. Der findes mængder af testprogrammer på offentlige veje, og Ford har planer om at lancere en fuldautomatisk bil i 2021 “i fuld skala”. De tidligste biler bliver dyre, og de bliver sandsynligvis lejet ud som en taxitjeneste snarere end at blive brugt til personlig transport. De bliver formentlig også begrænset til omhyggeligt kortlagte områder. Vi kan se frem til ballade – ulykker med førerløse biler kommer stadig i nyhederne, og de juridiske aspekter er interessante. Men bilerne kommer, inden du får set dig om.

Maskinlæring bliver snart noget, der nynner i baggrunden, hvor den hjælper med at køre stort set alt, hvad der har en netforbindelse – fra banker til kommunalkontorer. Vi kan se frem til bots i vores spil og til assistenter, der foreslår, at vi bestiller en pizza, fordi en algoritme har regnet ud, at vores adfærdsmønster indikerer, at dette er en sandsynlig reaktion på den firetimers spilsession, den har konstateret. Og hvem ved – måske får vi en skønne dag en version af Windows, som kan opdage og korrigere programfejl undervejs. Hillemænd.

Se også:  Huawei omdanner lys til lyd med kunstig intelligens

Fagre nye verden? Det er måske ikke den mest smigrende analogi, men der er en tanke af dystopi her. Hvis vi ser bort fra værdige anvendelsesmuligheder såsom lægevidenskabelig forskning og nyttige værktøjer, vil der komme bjerge af markedsføring. Vores digitale fodaftryk bliver siet og sorteret i firmaernes søgen efter mønstre og clusters. De vil prøve at forudsige, hvad vi ønsker, hvor vi ønsker det, og hvornår vi vil have det. Du er kunden, men du bliver også produktet.

Maskingeværet Super aEgis II Sentry kan arbejde selvstændigt og ramme mål på 2 kilometers afstand.

Vores rettigheder til et onlineprivatliv er også under konstant pres. Hvor meget af dit liv vil du have bearbejdet af lærende maskiner? Vi har en hel opvoksende generation, der betragter en smartphone som en essentiel genstand, og disse mennesker er tilsyneladende glade for at dele de intimeste dele af deres liv online.

Vi har allerede stiftet bekendtskab med de negative konsekvenser for sociale medier, idet stadig mere avancerede bots lærer at efterligne rigtige mennesker. Twitter og Facebook sletter hvert år millioner af konti. Myndigheder og organisationer har altid praktiseret social manipulation i en eller anden form – sloganer, plakater og så videre. Integreret maskinlæring præsenterer os for et helt nyt arsenal.

Disse komiske biler har tøffet førerløst rundt på Googles campus i et stykke tid. På trods af kontrollerede forhold og lave hastigheder har man ikke undgået uheld.

Før eller siden må der trækkes nogle grænser, og nogle af dem vil være temmelig vigtige. Det ser ud til, at vi er nødt til at acceptere, at folk af og til bliver kørt ned af autonome biler, men hvad med at blive skudt af en autonom militærmaskine? De findes allerede (se tekstboksen herunder). Bliver vores verdenssyn lovlig dunkelt nu? Formentlig. Det gælder for alle de værktøjer, vi opfinder, at det er op til os selv, hvordan de bliver brugt.

En førerløs Jaguar iPace fra Waymo (del af Alphabet); bilerne bliver afprøvet i San Francisco.

Hardware-racet er i gang

Intel kom lidt sent i gang med maskinlæring, men det rodede man bod på med en hurtig række opkøb, herunder Nervana Systems.

Man kan køre maskinlæring-applikationer på stort set enhver processor. De trives imidlertid bedst på en chip, der kan kværne enorme mængder af simple beregninger med lavt strømforbrug. Det minder om kryptovaluta-minedrift. Traditionelle x86-processorer er ikke særlig velegnede til dette formål. Nvidias Tesla-gpu har været et populært valg, for den er hardware, der egner sig vældig godt til opgaven.

Den har siddet solidt på det voksende marked for servere, der kører neurale netværk. Imidlertid ændrer situationen sig hurtigt. Google har besluttet sig for at hoppe på vognen og udvikle sin egen hardware. I 2016 hørte vi om Tensor Processing Unit, der var udviklet specifikt til neurale netværk, og som til at begynde med bestod af en ret simpel 8-bit-chip. Næste år kom så den næste generation med stærkt forbedrede egenskaber.

Den kunne levere 45 teraflops. I maj 2018 annoncerede man en tredjegenerations-chip, der er dobbelt så stærk. Google arbejder hurtigt. Googles TPU’er er endnu ikke kommercielt tilgængelige, men man kan leje adgang via en cloudtjeneste. Intel står klar med Nervana-chippen næste år og høster dermed de første frugter af købet af Nervana Systems i 2016. Det er en specialudviklet maskinlæring-chip. Man har fremmet Xeon Phi, der er en x86-serverchip, som maskinlæring-hardware, men den har altid været noget af en stopklods.

IBM har sin Power9-chip, som er tilgængelig for tredjepartsfirmaer eller via IBM’s cloudtjenester. Verdens hurtigste computer, Summit, indeholder 9216 af dem. I øvrigt har Apple sin neurale engine, der er en del af A11-processoren til iPhone. Amazon har en afdeling, der arbejder med AI-udvikling, men den kommer næppe til at producere sin egen hardware. ARM udvikler også nye specialiserede hardwaretyper til neurale netværk.

Qualcomm har sin Neural Processing Engine SDK til firmaets Snapdragon-chips. Man antager, at der også er 40 eller flere nye firmaer, der er i færd med at kaste sig ud i udviklingen af denne specielle hardware. Maskinlæring har indledt et hardware-væddeløb, der på længere sigt kan blive lige så vigtigt som x86-væddeløbet.

Smarte, dumme computere

Uanset hvor “smarte” maskinerne bliver, er de stadig lidt dumme. Et treårs barn forveksler ikke et billede af en kage med et billede af en hund, men den fejl kan selv det bedste system til billedgenkendelse begå.

Mange eksisterende maskinlæringssystemer har et begrænset virkefelt. De sigter på specifikke problemer med begrænsede mål, for eksempel forbedring af søgemaskineresultater eller styring af en bil igennem trafikken. Det næste skridt bliver en mere generaliseret tilgang, hvor sund fornuft og forståelse for menneskelig adfærd og interaktion er målet. Maskiner, der ikke blot kan bestille mad til os, men som også kan gennemføre en tilfredsstillende konversation.

Ud fra studier af alle Rembrandts malerier har et hollandsk team genereret dette: “Den næste Rembrandt.” Det er helt nyt, men stilen er ikke til at tage fejl af.

Menneskelig kognitiv udvikling giver os nogle spor. Vi lærer ikke kun af vores fejl; vi bliver hjulpet på vej af interne instinkter, af naturen og af vores opvækst. Blandt de mennesker, der forsker på dette felt, finder vi Intelligence Quest, som er en gruppe, der har til huse på MIT, og Allen Institute for Artificial Intelligence. Den næste generation af maskinlæringssystemer vil formentlig kunne reagere på den kaotiske og uforudsigelige verden med mere af den mest menneskelige egenskab: sund fornuft. Når systemet til den tid ser en kage, der er formet som en hund, tager det ikke fejl.

Inden længe vil vi med nogen munterhed se tilbage på fortidens “dumme” computere med deres ufleksible logik. I 1980’erne dannede John Gage fra Sun Microsystems udtrykket “Netværket er computeren”. Han havde ret, men der gik år, før det slog an. I dag betragter vi enhver uforbundet maskine som invalid. Nu kan vi måske føje et ord til udsagnet: “Det neurale netværk er computeren.”

Autonom død

Hvis man konstaterer et væddeløb om maskinlæring i den civile verden, kan man trygt regne med, at det også foregår i militæret. USA’s militær har brugt fjernbetjente maskiner og semi-autonom hardware i årevis, men nu står vi på tærsklen til fuldautomatiske dræbermaskiner, der bliver kaldt LAWS, Lethal Autonomous Weapons Systems.

Eksisterende systemer kræver kun menneskelig medvirken til den endelige ordre om at skyde, men der er undtagelser fra denne regel – for eksempel forsvars-missilsystemer som Phalanx. Mange programmører og forskere, der arbejder med maskinlæring, har boykottet institutioner og projekter med militære forbindelser. Google har givet et løfte om ikke at arbejde på nogen militære projekter, og det samme gælder Elon Musk, men det går ikke hårdt ud over forskningen på dette område.

Rusland fremstiller automatiserede våben og missilsystemer til at forsvare baser og pipelines, og man har udviklet den svært bevæbnede dronetank Uran-9. Rusland har også erklæret, at man vil ignorere eventuelle fremtidige forbud mod LAWS. Er vi parate til at blive dræbt af en algoritme? Forenede Nationer overvejer i øjeblikket et forbud mod alle våben, der kan dræbe uden menneskelig medvirken. ImidIertid bliver forhandlingerne forsinket af de sædvanlige kværulanterier og indvendinger.

Det kunne eller være en ide at skynde sig, for russerne er ikke alene – den sydkoreanske våbenproducent Dodamm forhandler allerede kanontårne, der teknisk er i stand til at udføre fuldstændig autonome handlinger, og de bliver opsat langs grænsen til Nordkorea og i Mellemøsten. Mange frygter, at hvis sådanne våben ikke bliver begrænset, vil vi se et våbenkapløb, hvor hver af de store magter vil stræbe efter at være i spidsen. Når sådanne systemer først er udviklet, bliver det meget svært at vende om.

Del denne