Artikel top billede

(Foto: Computerworld)

Selv gamle grafikkort kan køre de nyeste spil - hér gør du det bedste køb

Du behøver ikke tage lån i huset for at få et grafikkort, der kan håndtere de nyeste spil. Vores test af grafikkort fra de seneste seks år viser, at selv de ældre modeller, der nu kan købes billigt, klarer sagerne ganske fint.

Af Torben Okholm, Alt om Data

Denne artikel er oprindeligt bragt på Alt om Data. Computerworld overtog i november 2022 Alt om Data. Du kan læse mere om overtagelsen her.

Det seneste par års pandemi-forårsaget mangel på it-udstyr har sammen med kryptovaluta-manien knust manges håb om et nyt grafikkort.

Næsten 18 måneder efter lanceringen af gpu’erne i AMD’s Radeon RX 6000-serie og Nvidias GeForce RTX 30-serie viser data fra Steam, at kun 15 procent af gamerne bruger Ampere-kort, og under en procent bruger AMD’s RDNA 2-chips.

Men masser af grafikkort er stadig kvikke nok til at spille nutidens krævende spil. For at sætte det hele lidt i perspektiv har vi samlet alle de større gpu’er fra de seneste seks år (plus nogle få, der er endnu ældre) og har testet dem.

Hvilke kort har stadig kraft nok, og hvilke er faldet i grøften undervejs? Vores krav har været, at hvert af kortene skal kunne fungere med Windows 11. Kom med os, når vi dykker ned i gårsdagens gpu’er.

Velkommen til den Moderne æra

Midtvejs gennem 2022 nærmer Windows 11 sig sin første fødselsdag, og det lader til, at pandemien omsider er ved at klinge ud.

Det er samtidig den anden fødselsdag for de aktuelle grafikarkitekturer fra AMD og Nvidia, RDNA 2 og Ampere, og det er derfor et godt tidspunkt at tage et vue ud over situationen i gpu-branchen.

Vi er imidlertid ikke kun interesserede i de seneste udgaver; vi vil vide, hvordan tidligere generationers gpu’er klarer sig. Og derfor har vi skaffet os en enorm samling af grafikkort og afprøvet hvert af dem i en computer, der er stort set så moderne, som det kan blive.

Vi bruger en Core i9-12900K-cpu, der bliver kølet af en Corsair H150i Elite Capellix-køler. Vores bundkort er et MSI Z690-A Pro WiFi DDR4, hvilket er en lille indrømmelse til fornuften, eftersom DDR5-priserne er høje, og en udskiftning af hukommelse forbedrer ikke nødvendigvis ydelsen.

Gpu’er er ikke kun til spil; de bliver brugt af supercomputere til vejrsimulationer, AI-rutiner og andet.

Vi har 2 x 16 GB Corsair DDR4-3600 16-18-18-hukommelse, og det har virket upåklageligt med XMP-profilen aktiveret, plus en stor og rummelig 2 TB M.2 PCIe 4.0-ssd i form af et Crucial P5 Plus. Alt dette bliver drevet af en Cooler Master 80 Plus Gold-psu på 1200 W, hvilket kunne ligne overkill, indtil Nvidia lancerede RTX 3090 Ti.

Brugen af en reference-cpu og et ditto bundkort sammen med mange af de grafikkort, vi her har samlet, betyder ikke meget for ydelsen, men vi ønskede at vise hver gpu i det bedst mulige lys.

Core i9-12900K er den hurtigste cpu til gaming takket være dens høje enkelt-threadede ydelse og dens clockhastigheder. Vi oplever alligevel flaskehalse i nogle spil, for eksempel Microsoft Flight Simulator, når vi kører ved 1080p, men vi har prøvet at fjerne dem.

Vi kunne have testet ved højere opløsninger for at sikre os, at cpu’en ikke er den begrænsende faktor, men det udløser et helt andet katalog af problemer.

Moderne gpu’er med mere end 6 MB vram er muligvis i stand til at køre i maksimale indstillinger og opløsninger op til 4K, men ældre og langsommere gpu’er er en helt anden historie.

Selv når vi begrænsede vores testarbejde til 1080p, kunne vi ikke bruge ultrahøje indstillinger i i hvert fald ét spil, Red Dead Redemption 2, medmindre kortet havde mindst 5 GB. Det er vilkårene for testen, men lad os først tale om de spil, vi har testet.

Vi afprøvede otte spil i vores standard-testrække: Borderlands 3, Far Cry 6, Flight Simulator, Forza Horizon 5, Horizon Zero Dawn, Red Dead Redemption 2, Total War: Warhammer 3 og Watch Dogs Legion.

GPU’ernes historie ydelse ved 1080p ultra (FPS)

Over 50 gpu’er, der spænder over de seneste fem generationer af gpu-arkitekturer, er blevet testet.

I tilgift til disse spil testede vi yderligere seks spil på kort, der understøtter hardware-ray tracing: Bright Memory Infinite, Control Ultimate Edition, Cyberpunk 2077, Fortnite, Metro Exodus Enhanced Edition og Minecraft.

Alle seks spil bruger flere ray tracing-effekter, som efter vores mening er vigtige, når det gælder om at fremhæve billedtroværdigheden og udnytte ydelseskravene i RT-hardware.

Hver gpu blev testet flere gange i hver indstilling, og scorerne blev udvalgt, efter at vi havde elimineret eventuelle ekstreme afvigelser for at opnå den bedste række sammenlignelige resultater.

Vi testede også i højere opløsninger i de tilfælde, hvor det gav mening. Den samlede mængde indsamlede data omfatter tusinder af benchmark-kørsler, som fandt sted i løbet af adskillige måneder, hvor vi brugte de mest opdaterede drivere, der var til rådighed på det pågældende tidspunkt.

Vores valg af hardware var ikke uproblematisk, navnlig når det gjaldt nogle af de ældre grafikkort.

Et forsøg på at bruge BAR-support i bundkortets BIOS medførte for eksempel, at Radeon VII nægtede at praktisere funktionen POST (Power On Self-Test).

Efter at vi havde slået indstillingerne fra (med en anden gpu installeret), forsvandt det problem, og det er sandsynligvis en konfiguration, som kun ganske få mennesker nogensinde kommer ud for.

I det store og hele glædede det os dog, at vi kom ud for relativt få forhindringer undervejs.

Intel Arc forbereder sig på en syndflod

Intel kommer til at have to Arc-chips, ACM-G10 og den mindre ACM-G11.

De to store gpu-navne står til at få stærkt tiltrængt konkurrence fra Intels Arc, i hvert fald i teorien. Arc, der før hed DG2, også kaldet Xe-HPG, har været ude for en del forsinkelser.

Vi troede oprindelig, at det ville komme sidst i 2021, men nu ligner det snarere en lancering her i midten af 2022 på desktop-enhederne. Det kan blive for lidt og for sent for spilfolket, skønt medieaspekterne ved disse chips stadig er lovende.

Intel afslørede for nylig den indledende række af Arc A-serie-modeller til laptops, som uundgåeligt vil blive parret med Intel-cpu’er. I betragtning af Intels dominans i laptop-landskabet er det sikkert en klog forretningsbeslutning, men den giver os ikke meget håb om høj ydelse.

Intel sammenlignede sin beskedne A370M-enhed med sin egen integrerede Iris Xe Graphics fra en Core i7-1280P. Det er en mobilchip på 28 W med 96 eksekveringsenheder (nu kaldet XVE, “Xe Vector Engine”), der står over for en A370M på 35-50 W med 96 af de nye XVE’er.

Ydelsen var over 50 procent hurtigere, men vores tidligere test antyder, at den vil være en smule langsommere end selv en GTX 1050. Den stærkeste Arc-chip, A770M, vil få 512 XVE’er og hurtigere hukommelse. Det vil sige 4096 shaderkerner og en potentiel regnekraft på 13,5 TFLOPS FP32.

Teoretisk ydelse er ikke det samme som ydelse i den virkelige verden, men selv i det bedst tænkelige scenarie placerer det A770M på linje med Nvidias mobile RTX 3070. Intel taler dog ikke kun om grafikydelse.

Arc omfatter også XMX-enheder (Xe Matrix eXtensions), der er Intels svar på Nvidias Tensor-kerner. Hver XMX kan udføre 128 FP16-operationer pr. clockenhed, og derfor har A770M et maksimalt gennemløb på 108 TFLOPS til deep learning og AI-acceleration.

Intel vil bruge XMX-enhederne til sin XeSS-opskaleringsalgoritme (Xe Super Sampling), og det lyder meget som DLSS. XeSS vil også kunne køre på DP4a-hardware (INT4) til ikke-Arc-cpu’er, herunder AMD RDNA og nyere plus Nvidia Pascal og nyere arkitekturer.

Endelig vil Intel inddrage op til 32 ray tracing-units (RTU) i sin stærkeste Arc-gpu. Medmindre Intels RTU’er er langt kraftigere end dem fra Nvidia eller sågar AMD, forventer vi ikke meget fra firmaet, når det gælder den første generation af ray tracing-hardware.

Den ydmygeste enhed, Arc A350M, har for eksempel blot seks TRU’er med en frekvens på 1150 MHz og med 4 GB vram på et 64-bit-interface. Ud fra disse specifikationer kan det endda få et RX 6500 XT til at virke hurtigt.

Vi finder ud af, hvordan Arc klarer sig i den virkelige verden i løbet af de kommende måneder, men vi sidder med en utryg fornemmelse.

Tjek dine drivere

Driversupport udgør en potentiel forhindring, når man prøver at bruge et ældre grafikkort på Windows 11 – eller sågar også med Windows 10. AMD har stadig aktuel driversupport for alting tilbage til firmaets RX 400-serie af gpu’er med de nyeste drivere.

Det dækker grafikkort fra AMD, der går tilbage til 2016. Hvad med de ældre sager som for eksempel 300-serien og 200-serie-enhederne fra 2014 og 2013, for ikke at tale om den nyere R9 Fury-familie fra 2015?

Windows 11 kan downloade drivere til den hardware, men den seneste driveropdatering fra AMD kom i maj 2021, og man kan derfor komme ud for en vis grad af inkompatibilitet med nyere udgaver af spil.

Nvidias driversupport rækker videre, idet den aktuelle version understøtter alt tilbage til GTX 900-serien.

Det indebærer, at alle gpu’er fra Nvidia, der er fremstillet inden for de seneste otte år, stadig bør have support, og kortene fra GTX 700- og 600-serierne fik en endelig driverlancering i september sidste år – og en sikkerhedspatch til disse gpu’er blev lanceret i januar.

Man skulle med andre ord kunne køre et grafikkort, der er ti år gammelt, på en moderne pc og få det til at fungere ... det meste af tiden.

Intel kommer til at have to Arc-chips, ACM-G10 og den mindre ACM-G11.

Nogle få af de spil, vi har testet, klagede over forældede drivere på nogle af de ældre gpu’er. På trods af disse beklagelser kørte de fleste af spillene ganske udmærket, men Forza Horizon 5 kunne ikke bruge de standarddrivere, som Windows 11 installerede. Løsningen var at downloade de seneste Windows 10-drivere, og med dem kørte spillet fint.

Bemærk, at selvom der stadig er mange mennesker, som spiller på ældre gpu’er, er der en tendens til, at grafikkort ikke ligefrem ældes med ynde. Selvom der ikke er driverproblemer, presser moderne spil hardwaren på nye og krævende måder, og sommetider nægter ældre gpu’er simpelthen at lege med.

Men hvis man blot prøver at spille Fortnite eller andre mindre krævende spil, og man er indstillet på at sænke indstillinger og opløsning, kan selv relativt antik hardware stadig klare opgaverne – naturligvis forudsat at man ikke myrder gpu’en med krypto-minedrift.

Gamingydelse med tiden

Det kan ikke chokere nogen at se en klar tendens til forbedring af ydelsen gennem hardwaregenerationerne. Nutidens RTX 3090 Ti fordobler reelt ydelsen hos GTX 1080 Ti, og det samme gælder for RX 6900 XT og det to generationer gamle RX Vega 64.

Hvis man går endnu en generation tilbage til R9 Fury X og GTX 980 Ti, bliver svælget endnu større, idet moderne kort i den høje ende som RTX 3080 og RX 6800 XT mere end tredobler ydelsen fra de hurtigste kort i 2015, GTX 980 Ti og R9 Fury X.

Det er imponerende, men lad os lige få sat sagerne i perspektiv. De hurtigste cpu’er i 2015 rummede 8 milliarder transistorer i et areal på 601 mm2, nemlig i den GM200, der blev brugt i GTX 980 Ti. Nutidens GA102, der driver RTX 3090 Ti rummer ikke færre end 28,3 milliarder transistorer – altså 3,5 gange så mange – i en chip, der fylder 628 mm2.

Clockhastighederne er blevet forbedret fra 1,2 GHz i 2015 til næsten 2 GHz for Nvidia på RTX 30-serien, mens AMD har leveret clockfrekvenser fra over 1 GHz på R9 Fury X til over 2,5 GHz på de hurtigste RX 6000-serie-gpu’er.

GPU’ernes historie Ray tracing-ydelse ved 1080p medium (FPS)

Med andre ord: Når vi ser på transistorantal og clockhastigheder, har gpu’erne ikke formået at levere lineær skalering. Vi har større chips med mange flere transistorer, som kører ved markant højere frekvenser, men ydelsen er begyndt at svinde ind.

På den anden side kan nutidens chips klare langt mere end for seks år siden, og de indeholder funktioner som ray tracing og DLSS.

Man kan anlægge en anden synsvinkel, hvis man fookuserer på et specifikt gpu-niveau som Nvidias 980, 1080, 2080 og 3080. Det er her, slutningen på Moores lov og Dennard-skalering bliver mere synlig.

1080 har en ydelse, der er 84 procent over 980; 2080 er 55 procent hurtigere end 1080, men 3080 er kun 40 procent hurtigere end 2080. AMD’s gpu’er fortæller en tilsvarende historie om det, vi har i vente.

I den anden ende af ydelsesspektret ser sagerne anderledes ud. RTX 3050 leverer mere end en tredobling af ydelsen hos GTX 1050, men her taler vi om et billigt kort, der er fem år gammelt, og som blev solgt for pænt under 1000 kroner – og det står over for et mellemklassekort, der koster mere end det dobbelte – foreløbig har vi ikke set nogen “billig” RTX 30-serie.

AMD’s billige gpu’er har en endnu mere forbløffende historie: RX 5500 XT fordobler ydelsen hos RX 560, men det seneste RX 6500 XT tager et skridt tilbage herfra – og begge fra den nyere generation af kort koster markant mere, end RX 560 4GB stod i ved lanceringen.

Naturligvis behøver man ikke at køre med maksimale indstillinger (se afsnittet om ultra-kvalitet), men hvis man allerede bruger medium-indstillinger, får man inden længe brug for en opgradering.

De bedste gpu’er: ekstreme, højt­ydende, Middelgode og billige

Det lyder fint at satse på ren ydelse, men de fleste mennesker er nødt til at finde en balance mellem framerate og udgift. Vi har gennemgået alle de vigtigste grafikkort på markedet og har med velberådet hu valgt de fire bedste til forskellige budgetter vel vidende, at grafikkortpriserne stadig ikke er helt tilbage ved normallejet.

Hvis man har brug for noget nu og her, er det disse gpu’er, vi anbefaler. Men hvis man kan vente på, at næste generations kort kommer senere på året, får man sandsynligvis mere for pengene.

GeForce RTX 3090 Ti (18.000 kr.)

Den bedste Ekstreme GPU

Hvis dit eneste mål er at få det hurtigst mulige grafikkort, er valget enkelt. Nvidias seneste og bedste er måske ikke synderlig strømeffektivt, og ens tegnebog strejker formentlig, men der er absolut ingen tvivl om, at dette kort er toppen, når det gælder gpu-ydelse.

Får man, hvad man betaler for? Når man giver tre gange så meget i forhold til det næstbedste, får man kun omkring 35 procent mere ydelse. Takket være Nvidias DLSS kan man imidlertid generelt nå op på 60 fps ved 4K, selv ved krævende ray tracing-spil.

Radeon RX 6800 XT (7800 kr.)

Den bedste højtydende GPU

Halvandet år efter lanceringen er AMD’s Radeon RX 6800 XT et fristende valg, navnlig hvis man ikke er sikker på behovet for maksimale ray tracing-indstillinger. Hvis det er noget, man går op i, er RTX en tæt toer i denne kategori.

Man får 16 GB vram, hvilket burde være rigeligt i de kommende år, og AMD’s priser gør det til et bedre valg end andre muligheder. Gadeprisen er i skrivende stund tæt på 8000 kroner, men priserne er faldet med 10-15 procent om måneden i år. Når du læser dette, er kortene forhåbentlig kommet ned under 7000 kroner.

GeForce RTX 3060 Ti (4800 kr.)

Den bedste middelgode gpu

RTX 3060 Ti virkede næsten for god til at være sand. Gpu’en var hurtigere end den forrige generation, RTX 2080 Super, og kun en anelse langsommere end 2080 Ti, og priserne skulle have begyndt ved blot 3500 kroner.

Naturligvis bevirkede de sædvanlige syndere, blandt andet global mangel og kryptominedrift, at RTX 3060 Ti endte med at gå for pænt over 6000 kroner eller mere hovedparten af sidste år. Nu er priserne omsider faldet, og det er gået ret stærkt.

Hvis du vil spare flere penge, kan du overveje 3060 (ikke Ti) med 12 GB vram. Det var en ekstremt tæt nummer to i vores test, og man kunne i skrivende stund få det for cirka 3000 kroner.

GeForce RTX 3050 (2250 kr.)

Den bedste billige GPU

“Billig” betyder noget forskelligt for forskellige folk, men vi foretrækker at betale lidt mere for markant bedre funktioner og ydelse. RTX 3050 rangerer som det langsomste ray tracing-kort, der er værd at overveje, og prisen er meget konkurrencedygtig. GTX 1660 Super er kun en anelse billigere, men det er langsommere og duer ikke til ray tracing-spil.

Desuden understøtter RTX 3050 teknologien DLSS og kan levere et godt boost i ydelse ved spil, som understøtter den teknologi. Hvis du finder prisen for høj, skal du formentlig holde dig til det, du har, og spare pengene sammen i stedet for at lede efter noget billigere.

Behovet for mere VRAM

Der er en bemærkelsesværdig ændring, som vi har set gentagne gange i årenes løb, og det er behovet for mere vram. Der var engang, da folk diskuterede, om grafikkort skulle have 1 GB eller 512 MB, og før det skændtes vi om 128 MB vs. 64 MB.

I dag er vi nået dertil, at 4 GB knap nok rækker til at køre alle vores benchmarks, og der er adskillige spil i vores testrække, som advarer om manglen på grafikkorthukommelse – Far Cry 6, Forza Horizon 5 og Watch Dogs Legion kan endda lide under svækket ydelse med 8 GB vram!

Spiludviklere vil tydeligvis have mere vram at gøre godt med, og med teksturer i høj opløsning, mere detaljerede modeller og teknologier som ray tracing er 8 GB det absolutte minimum, vi ønsker at se i en mellemklasse-gpu eller højere. Hvis man ønsker et godt eksempel på den forskel, mere vram kan gøre, skal man blot se på R9 390 og GTX 980.

I 2015, da det nyligt lancerede R9 390 drev den tids spil, var der ingen diskussion om, hvad der var hurtigst – Nvidia-kortet var konsekvent omkring 10 procent hurtigere.

Hvis vi går frem til i dag, fører R9 390 med sine 8 GB nu foran GTX 980 med 3 procent ved 1080p, og føringen stiger ved 1440p (selvom ingen af kortene for alvor kan spille ved 1440p ultra nu om dage).

GeForce RTX 3080 Ti har 12 GDDR6X-chips, der omringer gpu’en og er med til at fodre uhyret.

Tilsvarende plejede Fury X at være næsten 30 procent hurtigere end 390, men nu er den føring faldet til 19 procent, og de to kort ligger stort set lige i ydelse ved Far Cry 6 og Forza Horizon 5.

Kort med 6 GB hukommelse rammer et interessant midterområde. Der er stadig situationer, hvor det ikke er helt nok til ultra-indstillinger, men GTX 1060 6GB overgår for eksempel GTX 980 med 12 procent i vores moderne række af spil. Her var det nogle få procent langsommere tilbage i 2016.

Længere ned skal vi ikke: Vi er stort set nået til vejs ende med 4 GB-kort. De har stadig en plads i den billige ende, men RX 6500 XT ville have haft gevaldig nytte af at få mere hukommelse og et bredere hukommelses-interface.

8 GB-kort er gennemgående stadig gode nok, men der er afgjort visse spil, som kræver, at man dæmper indstillingerne lidt (for eksempel teksturopløsningen) for at undgå hukommelsesnedbrud – dvs. situationer, hvor der er for mange data, som skal ind i gpu’ens vram, så gpu’en ender med at måtte trække data ind via den meget langsommere PCIe-bus.

Til gengæld må vi konstatere, at mere end 12 GB bestemt ikke er nødvendigt til vores aktuelle testrække. Det er uundgåeligt, at vi kommer til at se forbruger-grafikkort med 32 GB hukommelse eller mere, men der går mange år, før det nærmer sig mainstream.

Man behøver ikke Ultra-kvalitet

Selv med medium-indstilinger er spil som Forza Horizon 5 stadig visuelt imponerende.

Afhængigt af spillet kan forskellen i visuel troværdighed mellem medium- og ultra-indstillinger ikke retfærdiggøre tabet af ydelse. Hvis man kører ekstrem gpu’er som RTX 3090 eller RX 6900 XT, kan man trygt skrue op for blusset.

Men hvis ens gpu er sløv i optrækket, kan et dyk eller to i indstillingerne udvirke meget for ydelsen – især hvis man bruger et grafikkort, der ikke har mindst 4 GB vram. Nogle nyere spil kræver sågar 8 GB blot til 1080p ultra.

Tag for eksempel GTX 1050, der ligger i bunden af rangeringen, når det gælder 1080p ultra-performance, og som kun leverede 15 fps i gennemsnit. Et fald i indstillinger til 1080p medium fordoblede hos os dets ydelse, og mens nogle få spil stadig havde det svært – Warhammer 3 og Flight Simulator kunne ikke komme op over 30 fps – kunne man spille de fleste spil. Hvad kan man forvente af medium-kvalitet i forhold til ultra-kvalitet?

Der er lidt mindre af alle de finere detaljer såsom skygger og refleksioner, men i nogle spil føltes ultra-indstillingerne som placebo. Xbox One og PlayStation 4 kører i realiteten med indstillinger, der kan sammenlignes med medium-kvalitet i de fleste spil, og millioner af konsolbrugere nyder alligevel at spille spil på disse computere.

30 fps ved 1080p medium er måske ikke meget at skrive hjem om, men hvis det eneste alternativ er ikke at spille, bør man ikke være bange for at give det en chance. Tilsvarende gælder det, at hvis man ikke sidder med det ypperste inden for hardware, er man langt bedre stillet, hvis man kører med 1080p end med 1440p eller 4K.

Selv hvis man har en 4K-skærm, kan man udmærket game ved 1080p, og opskaleringsteknologier som AMD’s Radeon Super Resolution (RSR) og Nvidia Image Scaling (NIS) kan stadig levere et tilfredsstillende resultat.

Fire år med Ray Tracing

Hvem elsker ikke skønhed? Med lanceringen af grafikkortet GeForce RTX i 2018 indvarslede Nvidia en æra med realtids-ray tracing til spil. Siden da er udbredelsen gået i stå.

Vi ved alle, hvad ray tracing – eller den mere avancerede path tracing – kan gøre for film, men det er stadig vanskeligt at opnå tilsvarende resultater ved framerates i realtid.

Vi har udvalgt de bedste eksempler på ray tracing i spil med mange RT-effekter, herunder skygger, global illumination, reflektioner, ambient okklusion og caustics.

Ironisk nok ser vi det måske bedste eksempel på, hvad fuld RT kan gøre i form af Minecraft, der normalt kan køre på hvad som helst, inklusive den gamle og skimlede pc, der står henne i hjørnet.

Nvidia siger, at den udvidede version af spillet implementerer fuld path tracing, og det er ikke helt korrekt, men den ændrer radikalt udseendet med en detaljeret belysningsmodel, som håndrer refleksioner, indirekte lys og andet.

Den går også hårdt ud over ydelsen og bringer ofte et spil, der nemt kan rendere ved flere hundrede frames pr. sekund uden ray tracing, ned på under 60 eller sågar under 30.

Problemet er, at man simpelthen ikke kan få alle effekterne renderet i et komplekst spil ved acceptable framerates med nutidens hardware.

AMD og Nvidia: GPU- funktioner

Den seneste generation af gpu’er fra AMD og Nvidia understøtter begge ray tracing og det komplette DirectX 12 Ultimate-funktionssæt, som definerer udgangspunktet for det, vi kan forvente at se fremover. Nvidia har stadig noget ekstra hardware i sine Tensor-kerner, der driver teknologier som DLSS (Deep Learning Super Sampling) og Nvidia Broadcast, og de er begge nyttige tilføjelser.

DLSS vinder

AMD tilbyder en form for alternativ til DLSS med sin FSR-teknologi, som står over for en større opdatering i den ikke alt for fjerrne fremtid. FSR 2.0 vil gå videre til en opskaleringsløsning, men den vil stadig virke på en lang række gpu’er, herunder dem fra konkurrenterne. Intel har XeSS (Xe Super Sampling), der lyder påfaldende som DLSS, som blot fungerer på Intel-hardware.

Men at have en softwareløsning som DLSS eller FSR er ikke det samme som at få den godkendt af udviklerne, og DLSS vinder nemt på den arena. Et skridt tilbage til tidligere generationer af gpu’er kan betyde, at man opgiver funktioner, og i nogle tilfælde vil visse spil helt afvise at virke.

I vores testrække var Far Cry 6 det eneste spil, der ikke ville køre på en af vores ældre gpu’er. GTX 780 mangler det fornødne DirectX-funktionsniveau, og spillet virkede ikke trods vores bedste forsøg.

Naturligvis findes der også spil, der kræver ray tracing-hardware såsom Metro Exodus Enhanced Edition, og derfor skal man have mindst et kort fra AMD RX 6000-serien eller et Nvidia RTX-kort for at afvikle det.

Cachen mindre vigtig

Andre funktioner, som i den sidste ende leverer mere ydelse – for eksempel AMD’s Infinity Cache – er ikke særlig vigtige for slutbrugerne, fordi målet ofte er større hastighed.

Til gengæld kan videocodec-support være vigtig, især hvis man overvejer at bruge et kort til en hjemmebiograf. Nvidia leverer i øjeblikket den bedste generelle kodnings- og afkodnings-hardware, men Intels kommende Arc-gpu’er bliver de første med understøttelse af hardware-AV1-kodning og afkodning.

Nvidias Ampere- og Turing-gpu’er understøtter hardware-HEVC og AVC-kodning og afkodning, bortset fra GTX 1650. AMD’s gpu’er fra 6000- og 5000-serierne understøtter også hardware-HEVC og AVC-kodning og afkodning, bortset fra RX 6500 XT.

Nvidia var den første – og eneste i over to år – producent, der leverede ray tracing-hardware, og det kan derfor ikke overraske, at de forskellige RTX-gpu’er ligger på toppen af vores ray tracing-lister.

Vi bruger vores medium-ray tracing-indstillinger til vores generelle oversigter, og det placerer Nvidias RTX 3090 Ti 50 procent foran AMD’s bedste RX 6900 XT.

[/su_box]

Og det hidtil langsomste ray tracing-kort, AMD’s RX 6500 XT, magtede ikke at afvikle et af spillene (Control forlanger mindst 6 GB vram, før det overhovedet kan levere ray tracing), og det kunne ikke engang nå op på 20 fps i de øvrige spil.

Cyberpunk 2077 og Bright Memory Infinite var begge langt nede i encifrede tal. Vi har en mistanke om, at Intels ringeste Arc-tilbud kan være langsommere end 6500 XT (se tekstboksen om Intel Arc).

Mange af gpu’erne magter ikke, at man skruer indstillingerne op til maksimum, men Nvidias føring vokser til 66 procent ved 1080p ultra og 75 procent ved 1440p “ultra” – på dette stade kan selv RTX 3090 Ti kun lige akkurat komme op på 60 fps i gennemsnit med vores testrække på seks spil, og halvdelen af spillene falder ned under 50 fps.

Med højeste indstillinger måler Cyberpunk 2077 i snit kun 23 fps ved 4K på et 3090 Ti.

Ved 4K ultra kan man kun opnå en spilbar ydelse ved hjælp af en form for opskalering såsom DLSS; 4K gav blot 29 fps i testrækken på 3090 Ti, og halvdelen af spillene lå i bunden af 20’erne.

AMD’s entre på ray tracing-scenen svarer mere eller mindre til Nvidias første generation af RTX-kort. RX 6900 XT leverer en ydelse, der er næsten identisk med Titan RTX, og RX 6600 ligger en anelse bagefter RTX 2060.

Nvidia har end ikke prøvet at levere billig RT-hardware i første omgang, og det sølle Navi 24 antyder grunden. Til gengæld er RT-hardware af anden generation fra Ampere omkring 75 procent hurtigere end Turing RT-kernerne, selvom RTX 3050 stadig ender med at være langsommere end RTX 2060.

helt i top ved 4K

Det giver ingen mening at teste alle grafikkort ved 4K og ultra-kvalitet, fordi langt de fleste ældre gpu’er vil blive tynget i knæ i forsøget på at kapere sådan en belastning. Men af hensyn til dem, der har den krævede skærm og gerne vil vide, hvilken form for grafikkort de bør bruge, har vi testet et udvalg af de hurtigste 18 gpu’er fra de seneste fem år.

Naturligvis ligger RTX 3090 Ti øverst på listen med en endnu større føring foran konkurrenterne end ved lavere opløsninger – cpu-flaskehalse er ikke længere en faktor ved 4K. Kortet er 10 procent hurtigere end RTX 3090 og 20 procent hurtigere end AMD’s RX 6900 XT.

Nok så vigtigt nåede den forrige generations top-gpu’er et godt stykke under 60 fps-grænsen i testen: 48 fps på Titan RTX, 45 fps ved RTX 2080 Ti og 39 fps hos RX 5700 XT. Hvis man går endnu en generation tilbage, kunne Radeon VII og GTX 1080 Ti knap nok klare et gennemsnit på 30 fps, og mange spil falder under denne grænse.

frames pr. sekund i gennemsnit over de testede spil

Ray Tracing, tredje omgang

Vi skal have markant hurtigere hardware, hvis vi ønsker at pløje os gennem alle disse ray tracing-effekter uden at give køb på høje framerates. De bør heldigvis snart gå i opfyldelse med Nvidias Ada og AMD’s RDNA 3-gpu’er – og også Intel Arc-jokeren, men vi tvivler på, at den vil være konkurrencedygtig.

Det vil sandsynligvis dreje sig om henholdsvis RTX 40-serien og RX 7000-serien, men uanset navnene forventer vi, at begge firmaer vil vride endnu flere transistorer ind i enhederne.

Det skyldes en overgang til TSMC’s 5 nm-proces-noder – måske endda “4 nm” eller 4N, skønt procesnavnene nu om dage navnlig er udtryk for markedsføring.

Hvad med GPu’er i bærbare?

Mange bruger en bærbar pc til gaming og computerarbejde, men når man bliver mobil, må man opgive en del af ydelsen.

Alt vores testarbejde har fokuseret på desktop-grafikkort. Det giver mulighed for at afprøve de forskellige gpu’er, mens al den øvrige hardware forbliver konstant. Men der findes også mobile udgaver af de fleste grafikkort.

Det siger sig selv, at man ikke kan putte et RTX 3090 Ti på 450 W ind i en bærbar pc, i hvert fald ikke uden drastiske konsekvenser for strømforbruget. Det indebærer, at de seneste mobile cpu’er fra Nvidia og AMD generelt er mindst et skridt bagefter deres desktop-modstykker i ydelse.

Tag for eksempel det mobile RTX 3080. Kortet bruger GA104-chip’en, mens et desktop-3080 bruger GA102. Det har også 8 GB hukommelse på en 256-bit-bus i stedet for 10 GB på et 320-bit-interface og rummer 48 SM’er og 6144 CUDA-kerner imod 68 SM’er og 8704 CUDA-kerner. Det kører også typisk ved lavere clockfrekvenser.

Alle disse begrænsninger har til formål at holde strømforbruget under kontrol, og det giver en gpu, som kan konfigureres til at køre ved 80-150 W, afhængigt af den specifikke laptop og konfiguration. Desktopudgaven af 3080 kører ved 320 W. Noget tilsvarende gælder for AMD.

RX 6800M bruger den mindre Navi 22 og har 40 CU’er og 2560 shaderkerner med 12 GB vram og en TGP (Total Graphics Power), der begynder ved 145 W. Desktopvarianten af RX 6800 bruger Navi 21 med 60 CU’er, 3840 shadere, 16 GB hukommelse og en TGP på 250 W.

De forskellige grafikchips’ specifikationer kan variere med tiden, men slutresultatet er det samme: lavere ydelse. Det mobile RTX 3080 på 150 W kommer for eksempel tættere på niveauet for et desktop-RTX 3070, mens konfigurationen med en lavere grænse på 80 W ofte halter bagefter desktopudgaven, RTX 3060 Ti. AMD’s RX 6800M yder tilsvarende ringere end desktop-kortet RX 6700 XT.

Fordelen er naturligvis, at man ikke steger sine ædlere dele på farten, men batterilevetiden er stadig mindre end to timer til alt, hvad der for alvor bruger gpu’en. Og nej: En tekstbaseret genudgivelse af Zork tæller ikke.

For Nvidia vil det være den tredje arkitektur med understøttelse af ray tracing. Ampere føjede en ekstra ray/triangle-pipeline til sin RT-kerne plus noget ekstra hardware til at hjælpe med mere komplekse ray tracing-beregninger som motion blur.

Ada bliver også den fjerde generation af Tensor-kerner, og vi ved fra datacenteret Hopper H100, at Nvidia kan lave store gpu’er med enorm regnekraft.

Vi venter ikke, at de forbrugerorienterede Ada-chips bliver helt så ekstreme som Hopper, men Nvidia kunne potentielt fordoble kerneydelsen fra RT og Tensor endnu engang.

En anden mulighed er, at man inddrager mere RT-hardware og fokuserer mindre på yderligere indsatser inden for dyb læring og AI-ydelse.

Tidligere på året så vi et Nvidia-hack, der lækkede nogle oplysninger om de kommende Ada-gpu’er. Den største chip, AD102, har op til 144 SM’er – 71 procent mere end Ampere GA102.

Selv hvis Nvidia fastholder den samme relative ydelse pr. gpu-kerne og SM, vil så mange SM’er kunne levere et enormt boost til ydelsen – uanset belastningen.

Den anden udgave af AD103-chippen har det samme SM-maksimum på 84 som GA102, men den skal blive mindre og formentlig mindre kostbar at producere, hvilket kunne føre til nogle attraktive bud på højtydende udstyr. Tag det med et gran salt, men vi glæder os til Ada.

AMD er ikke blevet kigget i kortene af hackergruppen Lapsus$, og derfor ved vi ikke så meget om den kommende RDNA 3-arkitektur.

Datacenteret Aldebarans chips, der driver MI250X, og har matrix-kerner i stil med Nvidias Tensor-hardware, men indtil nu har AMD tøvet med at fokusere på maskinlæring-hardware på forbrugerprodukter.

Hvis AMD dropper matrix-hardware på RDNA 3, kan man potentielt tilføje flere CU’er (computer units, der svarer til Nvidias SM’er). Eller man kan beslutte at tilføje matrixkerner og se på understøttelse af Intels XeSS-algoritme – man har hørt om det, der var værre.

tid til opgradering

Hvis din gamle pc ser sådan ud, kan du måske få brug for mere end et nyt grafikkort.

Man bliver nemt revet med, når man ser på de bedst ydende grafikkort, og finder tiden moden til en opgradering. Modstå den fristelse, i hvert fald indtil de spil og applikationer, du bruger, kan retfærdiggøre udgiften. Og selv da bør du sikre dig, at din “opgradering” faktisk udgør en reel forbedring af ydelsen.

Normalt siger man, at en tidligere gpu-generation indebærer et skridt tilbage i ydelse, men det er ikke helt korrekt. Når det gælder Nvidia, lander RTX 2080 midtvejs mellem 3060 og 3060 Ti; GTX 1080 yder omtrent det samme som RTX 2060; og GTX 980 ligger på linje med GTX 1060.

Det er to skridt ned, men hvis man ser på -70-kortene, er der måske tale om halvandet skridt ned, og blandt -60-serierne er der sommetider tale om mindre end et enkelt skridt – selvom billedet bliver uklart på grund af gpu’erne fra Turing GTX 16-serien.

AMD har flyttet rundt på diverse navnesystemer, hvilket gør sammenligninger sværere, men RX 5700 XT ligger på linje med RX 6600 XT, Vega 64 svarer til 5600 XT, og Fury X yder som RX 580.

Hvis man har et GTX 1060, der stadig rangerer som det mest populære grafikkort, er det sandsynligvis oplagt at overveje en opgradering. Vores anbefaling er at prøve at få et grafikkort, der giver mindst det dobbelte af den ydelse, dit nuværende kort har, hvis du vil opleve en stor forbeding.

Det vil et RTX 3060 give dig, og det vil et RX 6600 også, men hvis du har råd til et RTX 3070 eller RX 6700 XT, får du en tredobling af ydelsen. En anden ting, man bør overveje, er det tidspunkt, hvor nye gpu-arkitekturer og hardware bliver lanceret.

Hvis man opgraderer, umiddelbart før de nye sager kommer på markedet, har man formentlig truffet det værste valg. Og hvis man insisterer på at være tidligt ude, kan man ende med at betale for meget.

På den anden side: Hvis man betalte 6000 kroner for et RTX 3080 efter kortets lancering, ville man sikkert være glad for den beslutning, for priserne steg til over 12.000 kroner fire måneder senere. Lad os håbe, at det aldrig sker igen.