Home » Kunstig intelligens » Maskinlærings-revolutionen bryder ud
Maskinlærings-revolutionen bryder ud

Maskinlærings-revolutionen bryder ud

Share
Hvad er en Tensor?

Nøjagtig hvad er Nvidias Tensor-kerner, og hvordan adskiller de sig fra velkendte kredsløb som pixelshaders i gpu’er eller heltal- og flydende komma-enheder, der bliver brugt i cpu’er? Er der virkelig noget ved dem, som berettiger koblingen til “kunstig intelligens”?

Udtrykt i fundamentale computerbegreber accelererer Tensor-kerner matrixoperationer ved at udføre mixed precision-beregninger med matrix-multiplikation og akkumulere beregninger i en enkelt handling. Denne slags beregninger er matematisk set ligetil, men de er computerintensive på almindelige computerarkitekturer såsom cpu-kerner.

I øvrigt hidrører ordet “Tensor” fra et matematisk begreb af samme navn, som vedrører datacontainere, hvoraf matricer er en delmængde, og som også omfatter skalarer og vektorer. Man kan betragte skalarer som nuldimensionale tensorer, der består af et enkelt antal; en vektor er en endimensional tensor, der består af en enkelt søjle af tal; og matricer er todimensionale tensorer, der består af både talrækker og -søjler.

Det virker måske ikke sådan, men recommendation-engines som den, der bliver brugt af YouTube, er drevet af avanceret AI.

Moderne cpu’er har flydende komma-enheder med single instruction multiple data-udvidelser (SIMD), som blandt andet er beregnet til at accelerere beregninger, der omfatter matricer. Men den hardware er stadig generel og ikke udelukkende beregnet til matrix-matematik.

Se også:  Kunstig intelligens stormer frem i dansk erhvervsliv

Paralleliserede gpu’er er endnu bedre til at knuse matricer, men selv de inddrager bredt programmerbare enheder såsom Nvidias CUDA-kerner, der ikke snævert og eksklusivt er beregnet til matrix-matematik.

Bortset, naturligvis, fra Nvidias Tensor-kerner. Nvidias GV100-chip, som man finder i grafikkortet Titan V, var firmaets første gpu med Tensor-kerner – 640 af dem, for at være nøjagtig, og angivet som 110 Tflops. Til sammenligning har GV100 også 5120 af Nvidias konventionelle Cuda-kerner, der også kan håndtere matrix-matematik.

Det kombinerede beregnings-output af disse Cuda-kerner når lige op på 27,6 TFlops, på trods af at de er langt mere talrige og fylder størstedelen af GV100-chippen. Når det gælder matrix-matematik, er Tensor-kerner altså langt mere effektive.

Se også:  Maskinoversættelse på vej til Zoom – ikke kun på engelsk

Hertil kommer, at matrix-matematik-ydelsen hos Nvidia-gpu’er vokser hurtigt. I den ene ende af skalaen har vi GeForce RTX 3060, der i øjeblikket er den ydmygste RTX 30-gpu, man kan få. Den modsvarer stort set GV100, når det gælder Tensor-kerneydelse.

Til gengæld har Nvidias seneste gpu i den dyre ende, A100, omkring tre gange så stor Tensor-kerneydelse. Faktisk udgør A100-chippen basis for Nvidias Perlmutter-supercomputer, der hævdes at være verdens hurtigste AI-maskine. Den er udviklet i samarbejde med HP, og den rummer ikke færre end 6159 A100-gpu’er. Den leverer næsten 4 exaflops computerkraft – det er et tal, som er så højt, at det er svært at fatte.

TAGS
AI
Kunstig intelligens
Maskinlæring

DEL DENNE
Share


Mest populære
Populære
Nyeste
Tags

Find os på de sociale medier

Find os på FaceBook

AOD/AOD.dk

Brogårdsvej 22
DK-2820 Gentofte
Telefon: 33 91 28 33
redaktion@aod.dk

Audio Media A/S

CVR nr. 16315648,
Brogårdsvej 22
DK-2820 Gentofte
Telefon: 33 91 28 33
info@audio.dk
Annoncesalg:
Lars Bo Jensen: lbj@audio.dk Telefon: 40 80 44 53
Annoncer: Se medieinformation her


AOD/AOD.dk   © 2022
Privatlivspolitik og cookie information - Audio Media A/S