Home » Kunstig intelligens » Maskinlærings-revolutionen bryder ud
Maskinlærings-revolutionen bryder ud

Maskinlærings-revolutionen bryder ud

Share
Intel, Google og Apple

AI-specifik logik i chips fra Nvidias konkurrenter drejer sig også om matrix-matematik. Intels kommende Sapphire Rapids Xeon-processor til servere rummer for eksempel det, Intel beskriver som en “indbygget” AI-accelerations-engine ved navn Intel Advanced Matrix Extensions eller AMX. Der kommer ikke mange specifikationer fra Intel, men man forventer, at AMX bliver en matrix-matematisk-overbygning til Intels eksisterende AVX-512-vektor-engines.

Tilfældigvis har Apple sine egne matrix-optimerede AI-blokke i sine egne chips. De begynder med A13 SoC i iPhone 11, og de er revideret til de nye A14- og M1-chips, hvoraf den sidstnævnte kan findes i den seneste MacBook Air, MacBook Pro, Mac Mini og iMac.

Digitale assistanter som Amazon Alexa er typisk det, man tænker på, når talen falder på eksisterende AI-appliaktioner.

Disse blokke bliver også kaldt AMX, men i dette tilfælde refererer betegnelsen til “Apple Matrix” i modsætning til Intels Advanced Matrix Extensions. Forvirrende nok har Apples chips endnu en AI-accelererende blok ved navn Neural Engine. Læs mere om den og om neurale netværk i boksen til højre.

Se også:  Abstrakt tænkning eller papegøjesnak?

Googles TPU (Tensor Processing Unit) er en hel chip, der er dedikeret til matrix- eller tensor-matematik, og den er nu i sin fjerde generation efter lanceringen i 2015. Google TPU er ikke noget, man finder i sin pc eller telefon, men den er endnu et eksempel på, at computerbranchen anlægger en fælles tilgang til AI-acceleration, og det bekræfter, at AI er et meningsfuldt computer-paradigme, ikke blot et markedsføringstrick.

Google siger i øvrigt, at disse TPU’er blev brugt til at identificere og bearbejde al den tekst, der forekom i firmaets StreetView-database i Google Maps på under fem dage.

Den kommende Sapphire Rapids-arkitektur til Xeon-serverchips bliver den første, som får Intels AMX-matrix-matematiske accelerationsudvidelser.

Begrebet AI udgør generelt en fascinerende dobbelthed. På den ene side er der ingen tvivl om den enorme indflydelse, den har på computere og på vores levevis. AI og maskinlæring kan gøre ting, som ingen andre computer-paradigmer formår.

Se også:  Kunstig intelligens er fremtidens største sportsstjerne

På den anden side er det svært at slippe en følelse af, at AI er forkert beskrevet. Maskiner kan afgjort lære at gøre tilsyneladende dygtige ting, men det kan diskuteres, om der er nogen ægte intelligens involveret.

Hvis der ikke er det, hvis det blot er mønstergenkendelse, kan AI ende med at være forvist til snævre, om end talrige kompetenceområder, mens de gyldne løfter (og farer) ved en mere generaliseret kunstig intelligens forbliver frustrerende uden for rækkevidde.

Neurale netværk

Læringen går for alvor i dybden

Computerforskere har puslet med neurale netværk siden 1950’erne. Dengang forudså forskere på området, at teknologien ville føre til maskiner, der ville være i stand til at beherske gang, tale, bevidsthed og sågar selvreproduktion.

Det lyder måske langt ude, men der er ingen tvivl om, at neurale netværk i dag er et af de vigtigste elementer i den generelle AI-forskning. Men hvad er neurale netværk, hvordan fungerer de, og hvad bruger man dem til? Neurale netværk er en form for datastruktur, der løseligt er inspireret af biologiske neuroner, hvor den digitale neuron er en matematisk funktion, der inddrager vægtede summer.

TAGS
AI
Kunstig intelligens
Maskinlæring

DEL DENNE
Share


Mest populære
Populære
Nyeste
Tags

Find os på de sociale medier

Find os på FaceBook

AOD/AOD.dk

Brogårdsvej 22
DK-2820 Gentofte
Telefon: 33 91 28 33
redaktion@aod.dk

Audio Media A/S

CVR nr. 16315648,
Brogårdsvej 22
DK-2820 Gentofte
Telefon: 33 91 28 33
info@audio.dk
Annoncesalg:
Lars Bo Jensen: lbj@audio.dk Telefon: 40 80 44 53
Annoncer: Se medieinformation her


AOD/AOD.dk   © 2022
Privatlivspolitik og cookie information - Audio Media A/S