Artikel top billede

(Foto: Computerworld)

Den ultimative opgradering

Den første bølge af DX11-mellemklassekort er over os. Men er det umagen værd at investere i et dual card-system?.

Af Redaktionen, Alt om Data

Denne artikel er oprindeligt bragt på Alt om Data. Computerworld overtog i november 2022 Alt om Data. Du kan læse mere om overtagelsen her.

CrossFire og sli er omsider blevet voksne. For få år siden kunne man lige akkurat vride ekstra spilydelse ud af sit system ved at tilføje et identisk kort til samlingen. Og det var et afsindigt pillearbejde. Det virkede fint med nogle spil og overhovedet ikke med andre. Man kunne opleve, at ens fps-tal blev mindre og mindre, og at man lige så godt kunne satse på et stort flagskibskort.

Men ATI og Nvidia har begge forbedret deres teknikker så meget, at vi nu ser betydelige forbedringer i polygontallet – i nogle tilfælde næsten dobbelt så meget kraft med to kort – og begge producenter har taget ved lære af udviklingen.

Hvis vi ser bort fra arkitektonisk fornyelse og api-udvikling, har man måttet arbejde med sine drivere for virkelig at få to kort til at synge sammen.

Lige så vigtigt er det, at de har været nødt til at investere mere end tidligere i tæt samarbejde med spiludviklere. Den form for indsats er ikke billig, især ikke når man tænker på de vilkår for hardware, drivere og spiludvikling, som folkene har skullet leve op til.

Men både Nvidia og ATI har grebet fast om nældens rod og opbygget dette samarbejde. Deres ingeniører iler på arbejde hos spiludviklerne for at sikre sig, at sagerne faktisk virker.

Resultatet er en finindstillingsproces, der gør det muligt at arbejde med to kort, så de virker med de spil, vi alle spiller. Alligevel prøver begge selskaber at differentiere sig og tilbyde noget, der er lidt anderledes.

Elegante ATI synes at bejle til multimediemarkedet med EyeFinity og energieffektivitet, mens magtfikserede Nvidia som sædvanlig ønsker at flytte flere pixel hurtigere end konkurrenten og prøver at gøre 3D-vision til en almindeligt udbredt teknologi.

I den følgende duel vil vi som altid vurdere, hvilken gpu-kombination der giver mest for pengene. Begge selskaber har deres mellemklasse-DX11-kort på bordet, så lad os komme i gang ...

Livet med sli og CrossFire har aldrig været nemmere. Hvis du har et bundkort, der understøtter dem, og du ikke begrænser disse fine DX11-gpu’er med noget mere forældet end en hæderlig Core 2 Duo, vil du se, at en dual card-opsætning kan levere seriøse fordele.

Det er ikke for at lyde oversmarte, når vi siger, at cpu’er før Core 2 Duo hæmmer grafikkortet. Ikke blot vil en ældre cpu begrænse et nyt grafikkorts hastighed, men man skal også tage DX11 i betragtning.

DX11 sætter ikke blot standarder for tessellation og streamprocessor-ydelse. Det satser på at få din cpu til at arbejde hårdere med spil ved hjælp af multithreadet rendering.

Jo flere kerner og jo flere threads pr. kerne i din cpu, desto bedre spilydelse får du. En laber Phenom eller Core i7 letter virkelig byrden for din gpu, så den kan arbejde uhindret.

Men før vi nærmer os testene for vores kort, og hvad de betyder for købsbeslutningen, bør vi se på dine motiver. Når du overvejer at have to grafikkort, bør du først spørge dig selv hvorfor. Der er to gode grunde til at satse på et par kort, og de afhænger helt af din økonomiske situation.

Den første er udsigten til en billig fremtidig opgradering, der kræver, at du allerede har købt et bundkort med dual card-funktioner. Fremtidssikring er altid klogt.

Hvis et kort er godt til prisen, hvorfor så ikke spare op i et par måneder og føje endnu et kort til systemet og få en betydelig stigning i framerates? Det er en fristende tanke, navnlig når forhandlerne konstant sænker priserne på kort for at følge med konkurrenterne. Og nu da sli og CrossFire virkelig tilbyder markante fordele ved at doble op, er den motivering mere gyldig end nogensinde tidligere.

Den anden grund til at investere i to kort drejer sig om udgiften ved et enkelt køb. Kan man virkelig få bedre ydelse med to kort end med et enkelt, der er dyrere? Det er et spørgsmål til pengepungen, og det vender vi tilbage til.

Formålet med vores test er at finde den for tiden bedste konfiguration med to mellemklassekort. Vi ser på fire kortpar: ATI’s HD 5750 og HD 5770 og Nvidias GTS 450 og GTX 460.

Alle disse fire kort adskiller sig i pris, ydelse og funktioner. Man kan sige, at udvalget af mellemklassekort aldrig har været større – og det har forvirringen heller ikke.

Når vi siger mellemklasse, mener vi kort med mellemklasseopløsning – mellem 1.680×1.050 og 1.920×1.080 – altså 22-24”-skærme. Uanset grafikkortets øvrige funktioner er vi navnlig interesserede i spilydelse, og når man anlægger det standpunkt, er skærmens standardopløsning en afgørende faktor. Forholdet mellem pris og ydelse peger på kort, der kører spil ubekymret ved din standardopløsning.

De billige rækker

I den billige ende af vores skala finder vi HD 5750 og GTS 450. De er begge neddroslede udgaver af gpu’erne i deres større DX11-kolleger. Det betyder traditionelt færre kerner/streamprocessorer og en lavere hukommelsesbåndbredde end hos de dyrere kort i serien. Det gælder også for disse billige kort. De kan ikke flytte så mange data som deres storebrødre, og det betyder lavere framerates.

Den formildende omstændighed er imidlertid som altid prisen. 1GB-udgaver af både HD 5750 og GTS 450 (det er dem, vi har testet over for deres modstykker på 768MB) kan man få for under 1.000 kroner.

De lidt større brødre til HD 5750 og GTS 450 er HD 5770 og GTX 460. Hvad angår specifikationer, har de nøjagtig, hvad man ville forvente: et større hukommelsesinterface med betydeligt støre hukommelsesbåndbredde og større strømforbrug oven i hatten.

Det er her, priserne for alvor skiller sig ud. 1GB-udgaven af HD 5770 er omkring 500 kroner billigere end det tilsvarende udstyrede GTX 460. Mens konkurrencen er meget hård i den billige ende, begynder de i den øvre klasse at trække væk, og en anden historie tegner sig.

Hvad er det, der gør disse grafikkort så forskellige? Vi bør se på nogle testresultater. Men først et par ord om kompatibilitet.

Driverproblemer

De spil, vi har kørt i vores test, er DiRT 2, Far Cry 2, Just Cause 2 og den syntetiske DX11-test Heaven 2.0 Benchmark. Det eneste spil, der gav nogle spøjse resultater i en dual card-konfiguration, var DiRT 2 på CrossFire.

Forskellen på ATI’s og Nvidias dual card-opsætninger er, at CrossFire ofte kræver Application Profile-pakker, der skal installeres sammen med driveren (selvom det er underligt, at de to ikke kan kombineres i en enkelt pakke). Hvis man ikke har downloadet og installeret den seneste Application Profile fra AMD’s website, får man et dyk i ydelsen hos de spil, der kræver den.

Vores test blev udført med de nyeste Catalyst- og Forceware-drivere, og i alle andre test med alle vores andre spil var alting helt i vinkel. Det lader ikke til, at Catalyst endnu har en Application Profile til DiRT 2. Derfor så vi et dyk i ydelse med to kort, idet spillet døjede med at følge med hardwaren.

Vi tager dog disse resultater med et gran salt. Kortene kan sagtens køre spillet i CrossFire-tilstand, og CataLyst 9x-pakkerne havde deres egen hotfix. Vi er blot endnu ikke blevet præsenteret for 10.9, og når det sker, får vi den stigning i ydelse.

Det er kun lidt irriterende, at vi overhovedet skal have diskrete Application Profile-pakker med CrossFire i betragtning af, at SLI virker uden dikkedarer med rimelige fordele i forhold til et kort, og her kræves der ikke ekstra software.

Lad os begynde med det ydmyge HD 5750. Alene kører kortet spil ved en respektabel hastighed med middelgod opløsning. Men ved næsten 40fps i Far Cry ved 1.920×1.080 med høj AA og AF og alle effekterne slået til? Det er fin DX10-ydelse til under 1.000 kroner. Kortet er også meget tyst, og selvom ventilatoren skruer op, når der er pres på, kan det næsten aldrig høres.

Hvis man smækker to kort sammen i CrossFire, får man en stigning i framerates på 65-90 procent, afhængig af spillet. Scoren slår alle de enkelte kort i testen på nær GTX 460.

Far Cry 2 med høj opløsning springer op på 54fps, kun lidt under den hellige gral, der er 60fps. Og hvis man kører ved 1.680×1.050, når konfigurationen næsten op på 100fps. Meget imponerende.

Skru op for sagerne

Når det gælder prisen, er 5750 i direkte konkurrence med Nvidias GTS 450, og det er her, slaget skal stå. Alene giver 450 en ekstremt kompetent ydelse ved middelgode opløsninger – tæt på 60fps i Far Cry 2 og 30fps i det langt mere krævende Just Cause 2. Som man vil forvente af et billigt kort, mister det pusten ved højere opløsninger, men ikke så hurtigt som 5750.

Kombiner det med en tvilling, og alt ændrer sig. Ydelsen hos 450 i sli-tilstand ved 1.680×1.050 er ganske enkelt fremragende: 70fps i DiRT 2, 125fps i Far Cry 2, 57fps i Just Cause 2 og 40fps i det ekstremt krævende Heaven 2.0 Benchmark.

Ikke blot sætter det HD 5750 CF-opsætningen i skyggen, det slår et enkelt GTX 460 med en betydelig margen. Opsætningen kan endda levere sund ydelse ved 1.920×1.200 med 98fps i Far Cry 2 og en acceptabel 29fps i Just Cause 2.

Som alle andre billige kort med lav hukommelsesbåndbredde mister det pusten før dets større kolleger, navnlig når spillene bliver mere krævende. Men i betragtning af dets mellemklassestatus er vi forbløffede.

Det er ikke godt nyt for HD 5770, der i CrossFire-tilstand knap kan følge med GTS 450-parret ved 1.680×1.050. 5770 klarer Just Cause 2 kvikkere end Nvidia-varianten, men forskellen er lille.

Desuden koster et par 5770’er omkring 500-700 kroner mere end et par 450’er, der ligger på cirka 2.000 kroner, og som slår et enkelt 460 ved 1.680×1.050. Kan du mærke konklusionen nærme sig? Lad være med det.

Der er mere ved ATI’s 5770 – faktisk ved hele HD-serien – end blot spilydelse. Det er utrolig stille, strømbesparende, og man kan bruge ATI EyeFinity til kombinationer af flere skærme.

Den eneste ulempe med det sidstnævnte er, at når det gælder spil, skal man bruge en langt større gpu til at trække flere skærme ved fornuftige framerates. Til spil med mellemklassekort er EyeFinity ingen løsning. Men hvis du vil have et stille, effektivt, køligt system, der kan klare aldeles kompetente framerates ved mellemgod opløsning, er HD 5770 CF stadig en overvejelse værd.

Og hvad med GTX 460, det dyreste enkeltkort i testen? De Zotac-modeller, vi testede, var kun en anelse billigere end et par GTS 450, og mens et enkelt 460’s framerate ved alle opløsninger ikke rigtig kunne konkurrere, sker der virkelig noget, når man samler et par.

Til 3.800 kroner får man en højtydende konfiguration med seriøse resultater i den høje ende. Faktisk så høj, at et par 460’er sagtens kan udkonkurrere et enkelt GTX 480, der koster det samme.

Præmien for forhold mellem pris og ydelse må imidlertid gå til et par GTS 450 i sli-tilstand. Strålende mellemklasseydelse til under 4.000 kroner? Vi tager to.

Kan ATI’s multiskærmsteknologi bevise påstanden om, at lidt er bedre end meget?

Denne gang synes vi, at det er en god ide at se lidt på ATI’s fornyelse: EyeFinity.
EyeFinity er en platformstandard til ATI’s HD-serie, og den leverer funktioner til mulitiskærmsvisning. »Op til seks skærme på et enkelt kort,« står der på AMD’s website.

Anvendelsesområderne er mangfoldige. Det første og mest enkle er to-tre skærme på skrivebordet, der sætter liv i effektiviteten. E-mail-klient på en lodret skærm, en vandret skærm til dine regneark og din porno på den tredje. Enkelt.
AMD promoverer imidlertid funktionen som en spilløsning.

Spørgsmålet er, om gpu’en kan trække de potentielt voldsomme opløsninger. Tre 22”-skærme, der kører ved 1.680×1.050, ender på hele 5.040×1.050.

Det vil kræve et ret seriøst superkort. Et mellemklassekort – eller for den sags skyld et par af dem – vil få svært ved at klare det uanset hastighed. Hvis man vil praktisere multiskærmsspil, så man får noget ud af effekterne, skal man have et 5870 ... eller to.

Desuden betyder EyeFinity-spil mindst tre skærme. Det er simpelthen ikke praktisk med to. Har du nogensinde prøvet at spille med en stor, tom bjælke ned over midten af skærmen? Prøv at tape en lineal lodret på din skærm og se, hvordan det går.

Men der er en anden mulighed, og det er efter vores mening den bedste måde at bruge teknologien på. Du har din højtydende spilmaskine i en stue, og her ligger også alle dine hd-videofiler og din musik. Hvorfor ikke trække kabler til dine flimmerkasser? Så længe din cpu og gpu kan håndtere hd-afspilning og spil, vil det glæde alle i huset.

Kan blandede gpu’er arbejde sammen?

Ideen er enkel og forjættende: Kombiner to gpu’er fra forskellige producenter, og opnå bedre dual card-ydelse. Hydra er en teknologiplatform fra Lucid, og ved hjælp af en ekstra controller på bundkortet kan man blande grafikkort.

Se det for dig: Du har et HD 5750, der kan håndtere flere skærme ved hjælp af EyeFinity. Men kortet har ikke selv kraft nok til at trække spil ved høj opløsning (for eksempel 3.840×1.024 over tre skærme). Hvorfor ikke sætte et GTX 480 i det andet pci-e-slot?

Når man tænker på den vaklende begyndelse, både sli og CrossFire havde, frygter vi, at dette er endnu en herlig fornyelse, som aldrig bliver til noget.

Hvis CrossFire, der insisterer på identiske gpu’er, stadig skal bruge Application Profiles til spil, hvad betyder det så for to stykker fuldstændig forskellige arkitektur arm i arm? Har Lucid de ressourcer, der skal til for at sikre, at det virker ved alle spil? Hvor stor en forbedring i ydelsen kommer vi til at se? Hvor megen support får Lucid fra ATI og Nvidia? Og hvad vil det gøre ved prisen på bundkort?

Vi finder Hydra spændende, og vi vil holde øje med teknologien i de næste måneder. Men indtil disse spørgsmål bliver besvaret, og indtil vi ser konkrete resultater, er det blot en fin ide.

Det har været en bizar og ofte overraskende oplevelse at teste disse dual card-opsætninger. Ikke blot er sli og CrossFire blevet voksne, når det gælder om at få håndgribelige fordele ved at fordoble systemets gpu’er, de gør det til en pris, der ofte skyder den samme producents dyrere kort i foden.

Forskellen er naturligvis, at de fleste systemer stadig ikke understøtter to grafikkort: To pci-e X16-porte er endnu ikke standard for bundkort, og man skal ofte investere i et nyt kort, hvis man vil have et dual card-system. Det er forståeligt set fra bundkortproducentens synspunkt. Flere porte betyder større udgifter, og de udgifter bliver sendt videre til forbrugeren.

Men bundkortproducenter – og producenter af standard-pc’er – bør vågne op: Disse højtydende dual card-opsætninger er ikke dyre. Hvis en ekstra pci-e-port betyder større generelle omkostninger i en enkelt computer, kan det kun være godt for pc-branchen.

Og selvom ATI’s konfigurationer her ikke leverer helt samme ydelse som deres modparter fra Nvidia, når det gælder spil, er der mange producenter af standard-pc’er, der dynger ekstra på deres systemer.

Behovet for at tilføje et ekstra grafikkort, fordi man for eksempel opdaterer til en skærm med højere opløsning, burde være en valgmulighed og ikke en kompliceret og potentielt kostbar luksus.

Det er i grunden, hvad disse test fortæller os: Med forholdet mellem pris og ydelse fra både ATI og Nvidia burde dual card-konfigurationer være hverdagskost. Det er afgjort værd at overveje, hvis du har mulighed for at tilføje endnu et kort.

Lidt tal at tygge på ...