Artikel top billede

(Foto: Computerworld)

AMD’s bud

Det stærke Asus Radeon HD 6990 er AMD’s bud på to gpu’er på et kort.

Af Redaktionen, Alt om Data

Denne artikel er oprindeligt bragt på Alt om Data. Computerworld overtog i november 2022 Alt om Data. Du kan læse mere om overtagelsen her.

AMD slog Nvidia på målstregen ved at lancere sit dual-gpu-grafikkort i topklassen få uger før GeForce GTX 590. HD 6990 er det hurtigste enkelt-pcb-grafikkort, det texanske mærke har lavet. Det rummer to af kernerne fra virksomhedens i øjeblikket hurtigste enkelt-gpu-kort – HD 6970. Cayman XT fra det kort har fået navnet ”Antilles”, og det bliver leveret med langsommere clockhastighed, shader og hukommelse.

Man får ikke så meget gang i clockhastigheden som med GTX 590’s gpu’er, men det skyldes, at Cayman XT kører lidt langsommere end GF110-gpu’erne i GTX 580. Der er en afgørende forskel her, og den hænger sammen med Antilles’ Unlocking Switch. Ligesom de Cayman-baserede kort, der kom før det (HD 6950 og HD 6970), bliver 6990 leveret med en dual-bios-kontakt, der er monteret fysisk på pcb’et. Den er dækket af en nydelig gul advarselsmærkat, der fortæller, at man mister garantien, hvis man bruger kontakten.

Det virker sært, man det kan til en vis grad retfærdiggøres, fordi der stort set er tale om en hardwarekontakt til overclocking. Den pumper Antilles’ kerner op til samme clockhastighed som HD 6970. Det giver kortet en fordel frem for GTX 590, når det gælder ydelse, men det gør også dette grafikkort til 4.700 kroner til et strømslugende uhyre. Det trækker angiveligt op til cirka 450W. Man bør derfor sikre sig, at computeren – navnlig strømforsyningen – kan klare dette strømforbrug.

Når man vil afgøre, hvilket dual-gpu-kort der er bedst, står det lige. HD 6990 og GTX 590 har hver deres fortrin, men intet af dem har det afgørende forspring, der adskiller det markant fra konkurrenterne.

Ligesom andre AMD-grafikkort satser Radeon HD 6990 på stereoskopiske tredjepartsløsninger til 3D-grafik, og de er simpelthen ikke så gode som Nvidias 3D Vision.