Artikel top billede

(Foto: Computerworld)

Stortest: 10 af de vildeste grafikkort

Tiden er måske inde til at opgradere grafikkortet, men hvordan forbereder man sig på gpu'ens fremtid? Vi tester ti nye grafikkort og fortæller dig, hvad du skal vide om.

Af Torben Okholm, Alt om Data

Denne artikel er oprindeligt bragt på Alt om Data. Computerworld overtog i november 2022 Alt om Data. Du kan læse mere om overtagelsen her.

Grafikkortet er den komponent, der betyder mest for pc'ens gaming-ydelse. Mere end noget andet i pc'en. Man kan have den stærkeste Haswell-E-cpu siddende i maskinen, men hvis man har en mosgroet gpu til at bakke den op, kommer man aldrig op på de grafiske højdepunkter, som moderne spil kan levere.

Lige nu er det oplagt at købe et nyt grafikkort. De to førende inden for gpu-udvikling – Nvidia og AMD – har lanceret deres serier af top-grafikkort, der appellerer til de seriøst entusiastiske pc-brugere. Og til dem, der har råd, for kortene er meget dyre.

Mens Nvidia stort set har fået sin vilje, siden GTX 980 blev lanceret for et års tid siden, har AMD omsider reageret med en række nye – og andre ikke helt nye – gpu'er, der skal bringe firmaet tilbage i kampen. Tilsvarende har Nvidia opdateret sin produktserie og har sænket priserne her og der. Hvem vinder? Det gør vi alle, naturligvis. I dag kan man få et top-grafikkort til en ganske fornuftig pris. Og det er grunden til, at vi i dette nummer har samlet dem alle til en stor gpu-dyst.

Nvidia Pascal-demokortet fylder godt nok ikke meget. Nvidia Pascal-demokortet fylder godt nok ikke meget.

Vi kan se, at sådan ligger landet lige nu på markedet for grafikkort. Men hvordan tegner fremtiden sig for disse eksklusive komponenter? Kan vi se frem til økonomisk tilgængelige og effektive gpu'er, der kan levere en ægte 4K-oplevelse på den næste generation af fremragende gamingskærme? Og er enden nær, når det gælder den klassiske forbindelsesstandard, pci-e?

Både Nvidia og AMD ser frem til store, nye gpu-arkitekturer med baggrund i utrolig små produktionsprocesser i det kommende år, efter at de begge kom for sent til 20 nm-litografien. Det ser ud til at blive en meget fascinerende tid for de ikke netop ydmyge gpu'er, og det er også tiltrængt i lyset af den umættelige appetit på gpu-kraft, som den stigende skærmopløsning og VR-branchen nærer. Lad os grave ned i sagerne og se, om vi kan finde ud af, hvad der foregår.

Før vi rejser for langt ind i en fremtid, der er fuld af hukommelse med høj båndbredde (HBM), nye komponentforbindelser og nye gpu-arkitekturer, er der stadig nogle huller, der skal stoppes i AMD's og Nvidias grafikkortserier.

Når du læser dette, vil GTX 950 være Nvidias nye gamingkort i den billige ende. 950'eren rummer en let beskåret udgave af den GM 206-gpu, der sidder i det nuværende GTX 960. Den giver imponerende strømeffektivitet og fin 1080p-gaming-ydelse.

Interessant nok vil GTX 750 Ti fortsat eksistere sammen med GTX 900-kortene. 950-kort og derover kræver alle en 6-pin PEG-forbindelse, hvorimod 750 Ti trækker al den strøm, kortet skal bruge, fra bundkortet.

Hos AMD prøver man at udkonkurrere kortene i den billige ende med Radeon 370X, et Trinidad-gpu-baseret kort, der sigter på samme prisgruppe som GTX 950 Ti. Det kommer til at bruge den samme Pitcairn-gpu, som AMD satte i R9 270X, og det bliver interessant at se, hvem der vinder slaget om denne del af markedet.

En 28nm GCN chip kræver seriøs køling. En 28nm GCN chip kræver seriøs køling.

Der verserer også rygter om, at der kommer en komplet serie af HBM-understøttede grafikkort, der skal efterfølge den Fiji-model, som blev brugt i Fury-kortene. Det vides ikke, om det skal ske som led i en foreløbig opfriskning af de eksisterende kort, men det er næppe sandsynligt. Vi forventer, at den nuværende serie holder, indtil den næste AMD-gpu-arkitektur kommer til næste år.
Maxwell-gpu-arkitekturen har eksisteret i en rum tid – siden begyndelsen af 2014 og kulminerende med GTX 750 Ti fra sidste september med dens fuldfede GTX 980-kerner – og tiden må være inde til at tænke over, hvad det næste bliver.

Den næste generation af grafikkort fra både Nvidia og AMD vil omfatte en anselig beskæring i produktionsprocessen. Det er den store nyhed inden for arkitekturopdateringer, og det er grunden til, at denne generation bliver lidt anderledes, end vi havde forventet.

Det næste skridt for AMD's gpu'er bliver at gå ned til  16 nm-litografi. Det næste skridt for AMD's gpu'er bliver at gå ned til
16 nm-litografi.

Da de to firmaer oprindelig begyndte at tale om deres Maxwell- og Pirate Islands-gpu-serier, ventede alle, de ville blive de første chips på markedet med den nye 20 nm-produktionsproces. Det var ikke kun os, der ventede det; begge gpu-producenter troede, at det ville ske.

Imidlertid viste 20 nm-processen sig at blive et mareridt for siliciumproducenterne. Det var svært at producere chips med en driftssikker ydelse uden at døje med defekte dele under fremstillingen. Det gjorde hele 20 nm-litografien seriøst kostbar. Når man hertil lægger, at den faktisk ikke gav meget i form af ydelse eller strømbesparelse, kan det ikke undre, at overgangen ikke var umagen værd.

Derfor hænger Nvidia og AMD på den eksisterende 28 nm-proces i mindst én generation længere, end nogen af dem havde forventet. Nvidia har dog tilsyneladende set skriften på væggen, og med den effektive Maxwell-arkitektur kunne man stadig levere forbedrede gpu'er. AMD har derimod holdt fast ved sin eksisterende arkitektur og har simpelthen dynget mere og mere silicium oven i konstruktionen for at fremme ydelsen.

Mange flere transistorer
De nye 2016-gpu-arkitekturer fra AMD og Nvidia vil heller ikke bygge på 20 nm-processen. Det løb er kørt. Nu forventer vi, at begge foretagender flytter deres produktionsproces til den nye 16nm FinFET-litografi (ligesom Intels Tri-Gate 3D-transistorer). Den giver mulighed for at pakke langt flere transistorer ind på det samme areal (eller mindre) og opnå større strømbesparelse.

I Nvidia-lejren ser vi på en arkitektur ved navn Pascal – opkaldt efter den franske matematiker og filosof Blaise Pascal – og på rygtet om, at efterfølgeren til den fuldfede GM 200-gpu kan have helt op til det dobbelte antal transistorer. Det ville give chippen i omegnen af 16 milliarder transistorer. Det tal lader vi lige stå et øjeblik.

Pascal-gpu'en bliver det første af Nvidias kort med 3D-hukommelse, og det skal inddrage andengenerations-HBM 2.0 til at opnå den lovede framebuffer på 32 GB. Et af problemerne ved den eksisterende HBM-teknologi, der bliver brugt på AMD’s Fiji-kort, er, at den har en grænse på 1 GB i en dram-stak og kun fire hukommelsesstakke pr. gpu-interposer. Det er årsagen til, at Fury-kortene har en lidt gnieragtig, men hurtig framebuffer på 4 GB.

HBM 2.0, derimod, er udviklet til at sprænge disse grænser med en begrænsning på 8 GB pr. processorkredsløb. Med fire af disse stakke omkring selve gpu'en taler vi om framebuffere på enten 16 GB eller 32 GB, afhængig af SKU'en.

Den kommende GTX 950 Ti kan meget vel blive passivt kølet. Den kommende GTX 950 Ti kan meget vel blive passivt kølet.

Pascal skal også ensrette sin hukommelse, så den kan bruges til både cpu og gpu. I traditionelle interfaces ville det betyde latensproblemer på tværs af pci-e-forbindelsen under kommunikation mellem cpu og gpu. Men med Pascal introducerer Nvidia er nyt interface ved navn NVLink. På vores pc'er ligger ægte NVLink dog stadig et stykke ude i fremtiden (se boksen "Betyder NVLink enden på pci-e?").

Fremskridt fra AMD
AMD’s Arctic Islands-arkitektur – der også formodes at komme i år – kunne blive AMD’s første nye gpu-arkitektur siden lanceringen af Graphics Core Next i begyndelsen af 2012. Der er blevet talt om en fordobling af ydelsen pr. watt i de dyreste gpu'er.

Der bliver dog næppe tale om en alt for radikal afsked med den eksisterende GCN-arkitektur. Når man blander en ny produktionsproces med en splinterny arkitektur, kan der ske ulykker. Men det er jo netop den vej, Nvidia har valgt med Pascal ...

Hvad vi ved i øjeblikket, er, at efterfølgeren til den førende Fiji-gpu i dag får kodenavnet Greenland og vil rumme den samme hukommmelsesarkitektur som Nvidia-kortene: HBM 2.0. Det vil betyde muligheden for enorme framebuffere over det hele. Arctic Islands-serien vil også omfatte 16 nm-FinFET-teknologien, og det skulle give AMD mulighed for at nå det mål på dobbelt ydelse pr. watt, som man har sat sig.

Med indførelsen af den nye litografi og løftet om, at HBM bliver brugt på gpu-stakken, er vi ret sikre på, at Arctic Islands ikke kommer til at lide under de samme relanceringskvaler, som har ramt den aktuelle Southern Islands/R300-serie.

Det ser i det hele taget ud til, at 2016 bliver et meget spændende år, når vi taler om grafikkort. Fordele ved 16 nm-litografien vil pynte gevaldigt på mellemklassen, men de vil også bane vej for nogle reelle monster-gpu'er i topklassen. Hvem ved? Vi nærmer os måske 8K-gaming inden længe.

Hukommelse med høj båndbredde er frem-tiden for video. Hukommelse med høj båndbredde er frem-tiden for video.

 

Betyder NVLink enden på pci-e?

under præsentationen af Pascal-arkitekturen introducerede Nvidias topchef, Jen-Hsun Huang, også verden for NVLink, der er en forbindelse, som leverer mellem fem og tolv gange så stor båndbredde som den eksisterende pci-e 3.0.

Nvidia taler om, at NVLink giver hastigheder og latens i dram-klassen, og det muliggør brugen af Pascals forenede hukommelse i hele pc'en. Der bliver også tale om forbedret ydelse mellem gpu'er, således at gpu-systemer kan få en langt mere lineær skalering, når vi taler om gaminghastigheder.

Foruden NVLink-forbindelsen på selve gpu’en kræves der også specielt silicium på cpu'en, hvis vi skal tage afsked med pci-e-interfacet. Det ser dog foreløbig ud til kun at gælde for supercomputere (HPC). Intel begynder næppe at lægge Nvidia-silicium i sine egne produkter.

Hvis der ikke er nogen vej til cpu'en, kan NVLink hellige al sin tilgængelige båndbredde til gpu-til-gpu-forbindelser, og det vil potentielt bære frugt i vores gaming-pc'er.

Lige nu er vi et langt stykke vej fra at mætte den tilgængelige pci-e-båndbredde på vores maskiner. Den eksisterende forbindelse er udmærket til vores nuværende behov, men et boost i SLI-skalering kunne være nyttigt. Når det gælder HPC-applikationer, er der dog situationer, hvor programmerne laver omfattende beregninger på gpu'en – for eksempel billedbehandling til astronomiske elller seismiske opgaver –og her bliver pci-e-interfacet en alvorlig flaskehals.

Det bliver ikke noget problem for vores maskiner, og AMD ser heller ikke ud til at ville skifte interface. Vi regner ikke med at tage afsked med pci-e forløbig. I hvert fald ikke i de næste par år.