Home » Kunstig intelligens » Maskinlærings-revolutionen bryder ud
Maskinlærings-revolutionen bryder ud

Maskinlærings-revolutionen bryder ud

Share
DLSS – dyb læring

Den bedst kendte anvendelse af Nvidias Tensor-kerner er dens Deep Learning Super Sampling technology (DLSS). Det er en teknologi til opskalering af grafikken med henblik på at levere højere billedkvalitet og højere framerates.

Grundideen er at rendere en spil-engine ved en lavere opløsning som for eksempel 1080p for at opnå højere framerates og derefter bruge DLSS til at opskalere billedet, så det ligner den visuelle kvalitet hos en højere opløsning såsom 4K.

Tanken om en opskalering er ikke ny. Men i stedet for konventionel spatiel opskalering er DLSS en temporal algoritme, der sammenligner den aktuelle frame med den forrige og genererer bevægelsesvektorer, som kan bruges til at forbedre billedkvaliteten under opskalering. DLSS er faktisk også et godt eksempel på, hvordan AI-infrastruktur interagerer med klienthardware.

DLSS bygger på en supercomputer-drevet træningsproces, der sammenligner millioner af reference-frames af høj kvalitet, renderet ved 16K (15.360 gange 8640 pixel), til skalerede outputs, hvorved der efterhånden bliver genereret forbedrede algoritmer.

Når “træningsprocessen” er færdig, bliver DLSS-skaleringsmodellen for et givet spil inddraget i Nvidias grafikdrivere og dernæst accelereret af Tensor-kernerne i Nvidias RTX-grafikchips, således at DLSS kan blive brugt i realtid på en kørende spil-engine.

Den gode nyhed er, at når DLSS er bedst, kan teknologien gøre ting, som andre opskaleringer simpelthen ikke kan opnå. Nvidias ærkerival AMD har for nylig lanceret et mere konventionelt ikke-AI-alternativ til DLSS, og selvom det virker udmærket, mangler det magien hos DLSS. Nvidias AI-opskalering er ikke fejlfri, men den kommer tættere på en overbevisende efterligning af oprindelig opløsnings-rendering end noget andet.

AI’s begrænsninger

Det er alt sammen sket før …

Tilbage i 1950’erne, da computeren var i sin vorden, forventede forskerne at se en maskine med intelligens på menneskeligt niveau inden for 10 år eller allerhøjst 20 år. Der er nu gået 70 år, og man kan argumentere for, at AI ikke er kommet nærmere virkeligheden.

Se også:  Hvor går professionel it hen? 5G, kvanter og AI er gode bud

Skal vi derfor arkivere AI ved siden af en mirakelkur mod kræft og kernefusion som endnu en teknologi, der på forunderlig vis bliver mere uopnåelig, jo tættere vi kommer på en forståelse af fænomenet? Begrænsningerne for den aktuelle mønsterregistrerings-maskinlæring bliver i hvert fald stadig mere åbenlyse.

I 2015 forudså Elon Musk, der blandt andet er Teslas overhund, selvsikkert, at selvkørende teknologi ville opnå “fuldstændig autonomi” i 2018. Han var ikke den eneste, som fremsatte den slags kække forudsigelser. I 2016 forudså Ford, at man ville sælge “fuldstændig selvkørende” kommercielle køretøjer til delekørsel-applikationer i 2021. Men situationen er nu, at førerløse biler ikke synes at være tættere på virkeligheden, end de var for 10 år siden.

Man kan faktisk hævde, at udfordringen blot er blevet endnu større. Tidligere på året understregede John Krafcik, der er topchef i Google-datterselskabet Waymo, som arbejder med førerløse biler, at det er svært at udvikle førerløs teknologi. “Det er en ekstraordinær kraftanstrengelse, en større udfordring,” sagde Krafcik.

Det er noget af en kovending i forhold til 2018, da Waymo havde planer om at sende 62.000 førerløse minivans på vejene ved udgangen af det år. Ved den seneste optælling havde Waymo blot 600 køretøjer. “Vi troede i 2015, at vi ville have en bredt tilgængelig tjeneste i 2020, og det var ikke nogen vanvittig idé. Hvis vi har én prototype, kan vi gå til masseproduktion i løbet af blot et par år, ikke? Det var en tilstand af – jeg vil ikke sige uvidenhed – men en mangel på information og en mangel på erfaring. Vi er blevet meget ydmyge på de seneste fem år.”

Waymo forventede at have en flåde på mindst 60.000 selvkørende biler i dag. Det reelle tal er 600.

Selvkørende bilteknologi er ikke det eneste område, hvor løfterne om AI ikke er blevet opfyldt. Langtfra. Magasinet The Economist mener, at entusiasmen for AI på tværs af brancher er ved at gå i stå. En af grundene er alt for megen medieståhej. Magasinet citerer en undersøgelse af europæiske AI-iværksættervirksomheder, som viste, at 40 procent af dem overhovedet ikke brugte AI.

Se også:  Kunstig intelligens er en nødvendighed for at få fuldt udbytte af 5G

Anskuet mere generelt mener The Economist, at AI står over for to kerneproblemer. Det første er overraskende nok mangel på data. På trods af vores stadig mere digitaliserede liv er kritiske data ofte utilstrækkelige. Det har for eksempel vist sig at være umuligt at spore covid-19-overførsel uden en omfattende mængde af individuelle bevægelser.

Det andet problem er en endnu større udfordring. Eksisterende AI afhænger typisk af mønsterregistrering og kan løse visse opgaver som billedgenkendelse og sprogbearbejdelse langt bedre end gammeldags software med håndkodede regler. Men disse systemer er ikke “intelligente” i den form, begrebet normalt bliver forstået.

Der er ingen erkendelse eller ræsonnement, ingen evne til at generalisere, kun en snæver evne til at gøre én ting vældig godt. Faktisk er udvalget af eksisterende AI-systemer så snævert, at der i dag er tvivl om, at fuldstændig autonome biler nogensinde bliver mulige.

Så stor er kompleksiteten bag det at håndtere uforudsigeligheden ved at køre i den virkelige verden på virkelige veje – eller endda en anelse uden for dem.

TAGS
AI
Kunstig intelligens
Maskinlæring

DEL DENNE
Share


Mest populære
Populære
Nyeste
Tags

Find os på de sociale medier

Find os på FaceBook

AOD/AOD.dk

Brogårdsvej 22
DK-2820 Gentofte
Telefon: 33 91 28 33
redaktion@aod.dk

Audio Media A/S

CVR nr. 16315648,
Brogårdsvej 22
DK-2820 Gentofte
Telefon: 33 91 28 33
info@audio.dk
Annoncesalg:
Lars Bo Jensen: lbj@audio.dk Telefon: 40 80 44 53
Annoncer: Se medieinformation her


AOD/AOD.dk   © 2022
Privatlivspolitik og cookie information - Audio Media A/S