Home » Kunstig intelligens » Maskinlærings-revolutionen bryder ud
Maskinlærings-revolutionen bryder ud

Maskinlærings-revolutionen bryder ud

Share
GPT-3 – et godt eksempel

Generative Pre-trained Transformer 3 (GPT-3) blev udviklet i San Francisco af firmaet Open-AI og lanceret i 2020. Det er et eksempel på et sådant maskinlæringssystem til naturlige sprog. Det blev trænet ved hjælp af milliarder af engelsksprogede artikler, der var hentet på nettet. GPT-3 blev modtaget med begejstring, og The New York Times karakteriserede det som “frygtindgydende godt” til at skrive og læse.

GPT-3 var så imponerende, at Microsoft valgte at købe en eksklusiv licens med henblik på at bruge teknologien til at udvikle og levere avancerede AI-drevne løsninger til naturlige sprog. Den første var et redskab, der konverterer tekst til Microsoft Power Fx-kode – et programmeringssprog, der bruges til data-basesøgninger, og som bygger på Microsoft Excel-formularer.

AI-drevne selvkørende enheder som Teslas Autopilot har været sværere at udvikle end forventet.

GPT-3 går videre end de sædvanlige spørgsmål og svar-Turingtest-tricks. Det kan for eksempel bygge web-layouts med JSX-kode som svar på spørgsmål på naturlige sprog.

Med andre ord skriver man noget i retning af “byg en side med en tabel, der viser de 20 lande, som har de største BNP’er, og giv tabellen en relevant overskrift”, så gør GPT-3 netop det. Det demonstrerer både evnen til at tage ved lære og et system, der bygger på at bearbejde data snarere end komplicerede håndkodede regler.

Imidlertid er GPT-3 også et eksempel på maskinlæringens begrænsninger. Man kan afgjort diskutere, om GPT-3 overhovedet er intelligent. Man kunne hævde, at der er tale om noget af en digital tryllekunst. Det skyldes, at GPT-3 og dets slægtninge, der praktiserer maskinlæring i forbindelse med naturlige sprog, ikke forstår sprog – eller noget som helst andet, når det kommer til stykket. Alt, hvad de gør, bygger simpelthen på statistik og mønstre.

Ved at analysere enorme mængder af skrevet tekst kan man lave statistiske regler, der leverer troværdige svar på spørgsmål i naturligt sprog – uden noget behov for det, der på et menneskeligt niveau ville blive karakteriseret som forståelse. Og det er strengt taget grundlaget for hovedparten af – hvis ikke al – maskinlæring.

Se også:  Corona skubber til kunstig intelligens – men der er en slem forhindring

Og det gælder, uanset om det drejer sig om det problem, som knytter sig til bearbejdelse af naturligt sprog og stemmeassistenter, selvkørende biler, ansigtsgenkendelse eller anbefaling af produkter eller indhold til kunder eller forbrugere. Det er blot mønstergenkendelse på et ekstremt højt niveau.

Fra Amazons Alexa til Teslas Autopilot er den grundlæggende tilgang den samme. Du kan læse mere om begrænsningerne ved eksisterende AI-systemer i boksen på næste side, men hvis vi siger, at vi nu har skitseret de rå parametre bag AI, drejer det næste spørgsmål sig om, hvordan AI bliver implementeret, og hvilken form for hardware der er krævet.

En chip-designguru og AI’s ufattelige fremtid

CPU-arkitekten fra amd vurderer Maskinlæring

Findes der eksperter i chipdesign med et bedre omdømme end Jim Keller? Han er hjernen bag ikke blot AMD’s første cpu-arkitektur, der for alvor truede Intel (det var Hammer tilbage i nullerne), men han er også den drivende kraft, der stod bag Zen og AMD’s renæssance i slutningen af 2010’erne.

Han var far til Teslas Autopilot-chip, satte Apple i gang med at bygge de måske mest effektive klient-cpu’er på markedet, og for nylig var han et smut forbi Intel. Nu leder Keller Tenstorrent, der specialiserer sig i chips til accelerering af AI-opgaver. Alene den omstændighed er med til at give AI og maskinlæring et præg af seriøs troværdighed. Ifølge Keller er der nu tre slags computere.

Først kom cpu’erne. Så fulgte gpu’erne efter. Og nu er AI-computeren kommet. Keller forklarer computernes udvikling: “I begyndelsen var der skalar-matematik i stil med A er lig med B plus C gange D. Med et lille antal transistorer er det al den matematik, man kan klare.” I takt med at transistorantallet i computerchips steg eksponentielt, steg også kompleksiteten af den matematik, der var mulig. Først kom vektor-matematik, så kom matrix-multiplikation.

Teslas specialudviklede Autopilot-chips udgør blot en af mange bedrifter i Jim Kellers imponerende bagkatalog.

I dag skubber kompleksiteten chipudviklingen i en anden retning. “Når man får flere transistorer, vil man tage store operationer og dele dem op. Hvis man gør sin matrix-multiplikator for stor, begynder man at spilde energi. Derfor laver man en optimal blokstørrelse, der ikke er for lille – som en thread i en gpu – men heller ikke for stor. Som når man dækker hele chippen med én matrix-multiplikator.”

Se også:  3 digitale veje til evigt liv

Ifølge Keller er resultatet en række mellemstore processorer, der kan klare fire tera-operationer i sekundet. Det, Keller beskriver, er det næste skridt inden for AI-computere fra specialiserede blokke, der accelererer matrix-matematik (som Nvidias Tensor-kerner) til en ny type chip, der accelererer det, han kalder “graph”-computer-arbejde.

Den anden brik i puslespillet er software, som ifølge Keller er lige så vigtig som hardware, og som han kalder Software 2.0. “Første gang jeg hørte om Software 2.0, blev begrebet brugt af Andrei Karpathy, der er chef for AI og autopiloter hos Tesla. Hans idé var, at vi går fra en verden, hvor man skriver programmer, der modificerer data, til en situation, hvor man laver neurale netværk, og derefter programmerer man dem med data for at få dem til at gøre de ting, man ønsker.

Derfor bliver moderne computere programmeret med data. Det indebærer en meget anderledes holdning til programmering på mange områder, hvor AI har haft så stor succes. Jeg tror, at i Software 2.0-fremtiden vil 90 procent af computerarbejdet finde sted på den måde.” Den mest fascinerende af Kellers forudsigelser er den fremtidige mangel på forståelse af AI-computerarbejde.

“Hvis man kigger ind i et neuralt netværk, der er blevet trænet, og spørger, hvorfor netop dette element har fået en vægt på for eksempel 0,0015843, er der ingen, der aner, hvad svaret er. Der findes i dag fænomener, hvor man har et system til maskinlæring med inputs og outputs. Der er en AI-sort boks mellem disse inputs og outputs, men hvis man kigger ind i boksen, kan man ikke se, hvad det betyder. Man forstår ikke matematikken eller kredsløbene bag.” Keller medgiver, at den fulde kompleksitet bag en stærk chip fra AMD, Intel eller Apple allerede er næsten ubegribelig, men hvis man graver sig ned i en detalje, vil der være nogle, der ved, hvad den laver.

Hvis Keller har ret, vil det ikke vare længe, før 90 procent af computerarbejdet er hinsides menneskets fatteevne. Om det så er intelligent, er en helt anden historie.

TAGS
AI
Kunstig intelligens
Maskinlæring

DEL DENNE
Share


Mest populære
Populære
Nyeste
Tags

Find os på de sociale medier

Find os på FaceBook

AOD/AOD.dk

Brogårdsvej 22
DK-2820 Gentofte
Telefon: 33 91 28 33
redaktion@aod.dk

Audio Media A/S

CVR nr. 16315648,
Brogårdsvej 22
DK-2820 Gentofte
Telefon: 33 91 28 33
info@audio.dk
Annoncesalg:
Lars Bo Jensen: lbj@audio.dk Telefon: 40 80 44 53
Annoncer: Se medieinformation her


AOD/AOD.dk   © 2022
Privatlivspolitik og cookie information - Audio Media A/S