Artikel top billede

(Foto: Computerworld)

Test: Grafikteknologier: AMD FreeSync 2 vs. Nvidia G-Sync

Konkurrencen mellem G-Sync og FreeSyncs adaptive refresh-teknologier er Nvidia versus AMD i en nøddeskal. G-Sync er proprietær og kostbar, mens FreeSync bygger på åbne standarder. Nvidia siger, at fuld kontrol over G-Sync giver en bedre oplevelse, mens tilhængere af FreeSync fremhæver, at den seneste standard tilføjer en række ekstra funktioner. Hertil kommer, at Nvidia nu har åbnet for FreeSync-kompatibilitet på sine gpu’er, og det ændrer situationen".

Af Torben Okholm, Alt om Data

Denne artikel er oprindeligt bragt på Alt om Data. Computerworld overtog i november 2022 Alt om Data. Du kan læse mere om overtagelsen her.

1. Omgang: Innovation

Den må gå til Nvidia, som først kom på markedet med G-Sync i 2013. G-Sync høster modstand på grund af dens proprietære væsen, behovet for dyre moduler i displayet og den omstændighed, at G-Sync kun fungerer med Nvidia-gpu’er. Men i 2013 var noget i den retning den eneste mulighed for at gøre adaptive refresh mulig i et desktop-scenario. AMD reagerede inden for et halvt år med FreeSync.

Problemet var, at i den tidlige udformning var FreeSync kun mulig på grund af den variable refresh-profil i embedded DisplayPort (eDP), en funktion, der var udviklet til strømbesparelse snarere end til at gøre gaming mere ubesværet. I maj 2014 havde AMD og standardorganisationen VESA arbejdet sammen om at tilføje adaptive refresh som en valgfri mulighed til 1.2a-udgaven af DisplayPort, og så var man i gang.

Man kan hævde, at FreeSync 2 siden da har styrket AMD’s position. Man kan endda mene, at G-Sync i mellemtiden har stagneret, og at det er grunden til, at Nvidia til sidst gav efter og føjede FreeSync-support til sine 3D-kort. Men det er også muligt, at intet af dette var sket, hvis Nvidia ikke havde banet vejen med G-Sync. Derfor giver vi med glæde Nvidia denne omgang.

Vinder: G-Sync

2. omgang: Kompatibilitet

Den oplagte vinder er FreeSync. Den bygger på åbne standarder, og den stiller færre krav til skærmproducenterne. Den er i grunden en del af DisplayPort-standarden snarere end at være bundet til en grafikudbyder. Hertil kommer, at når Nvidia nu understøtter VESA adaptive refresh-interfacet med sine grafikkort, fungerer FreeSync nu med både AMD- og Nvidia-gpu-er.

G-Sync er derimod bundet til Nvidia-kort og kræver, at skærmproducenterne integrerer et dyrt skalermodul. Det komplicerer sagerne lidt, at FreeSync 2 opstiller en større række krav til compliance. Det er ikke længere nok blot at inkludere det seneste DisplayPort-interface.

Funktioner som HDR-support og lav framerate-kompensation øger afgjort FreeSync-skærmes tiltrækningskraft, men de gør det også sværere for skærmproducenterne at lave kompatible skærme. Det er også værd at bemærke, at kun Nvidia-grafikkort leverer support til både G-Sync og Free-Sync. Derfor er det ikke en total og utvetydig sejr for AMD, men FreeSync er den mest åbne platform. Når Intel går ind på markedet og understøtter FreeSync, nærmer enden sig formentlig for G-Sync.

3. Omgang: Valuta for pengene

Det er problematisk at regne ud, hvor stor valuta G-Sync giver for pengene. Det skyldes, at det er en proprietær hardwareløsning, hvorimod FreeSync bygger på standarder. G-Sync kræver et specielt skaleringsmodul, der omfatter en Altera Arria V GX-FPGA med 156 K-logic elements, 396 DSP-blokke og 67 LVDS-kanaler.

Resultatet bliver produceret af TSMC på firmaets ældre 28LP-proces, og når det bliver parret med tre ddr3l-dram-chips, bliver hele historien temmelig bekostelig – og det er slutbrugeren, der hænger på regningen. Det betyder, at G-Sync-skærme typisk koster mere end andre sammenlignelige modeller. I begyndelsen kunne det retfærdiggøres af oplevelsens kvalitet.

Med G-Sync fik man en skærm, der var tilpasset og optimeret, navnlig når det gjaldt om at kombinere adaptive refresh med pixel-overdrive. Tidlige FreeSync-skærme var usikre, og nogle af dem led af ghosting. FreeSync-implementeringer er nu mere driftssikre, og det gør fordelene ved G-Sync mere diskutable. Imidlertid gælder det for FreeSync 2, at de øgede krav har presset priserne. Man får dog stadig flere funktioner for pengene end med G-Sync.

Vinder: FreeSync 2

4. Omgang: Gameplay

Dette er naturligvis hovedsagen: glat og ubesværet gaming. G-Sync er dyr og låst til Nvidia-hardware, men gevinsten er den glatteste og mest polerede gaming-oplevelse, man kan få, ikke sandt? Det er i hvert fald rigtigt, at G-Sync tidligere var den mest pålidelige løsning. Nvidia lagde meget arbejde i at gøre G-Sync så glatpoleret som muligt.

Det indebar ikke kun optimering til at fungere rigtigt med pixel-overdrive, men også funktioner som såkaldt collision avoidance, der skulle hjælpe under forhold med lave framerates, hvor skærmen bliver opdateret med kopierede frames, der fungerer som stopklodser, mens man venter på, at en ny frame bliver renderet.

Systemet bruger algoritmer til at undgå et scenario, hvor en ny frame er parat, men er nødt til at vente på, at skærmen er færdig med at blive opdateret med en kopieret frame. FreeSync har sin egen løsning: Low Framerate Compensation-support.

Denne teknik udvider det område af refreshrates, som FreeSync virker på, og sikrer bedre ydelse ved lavere framerates. Tidligere var den en valgfri funktion; med FreeSync 2 er den obligatorisk. Derfor er det uden betydning set fra et subjektivt gameplay-perspektiv.

Vinder:Uafgjort

5. Omgang: Andre funktioner

Er der andre funktioner, som ikke er direkte beslægtede med at opnå og optimere adaptive refreshrates, og som kan forskyde balancen? Det er svært at give et endegyldigt svar på det spørgsmål, og det skyldes til dels en vis mangel på klarhed om G-Syncs specifikationer og krav.

Man kan for eksempel se referencer til G-Sync-HDR-skærme, men det refererer i virkeligheden til en G-Sync-skærm med tilføjet HDR-kapabilitet. HDR er understøttet af G-Sync, ikke direkte krævet af teknologien. Når det gælder FreeSync 2, anlægger man her et nyt syn på HDR-rendering.

Den konventionelle fremgangsmåde omfatter kortlægning af det krævede dynamiske område to gange, først i spillet for at leve op til en HDR-standard såsom HDR10, og så igen i skærmen for at gå fra HDR10 til skærmens indbyggede dynamiske område.

Det forenkler FreeSync 2 ved at gøre det muligt for spil at tone-mappe direkte til en skærms oprindelige dynamiske område. I teorien kan det spare nogle få kostbare millisekunder og forbedre responses i HDR-spil. I praksis kræver det specifik support fra spiludviklerne, og det er bestemt ikke ideelt.

Vinder: FreeSync 2 – i teorien

Og vinderen er... FreeSync 2

Dengang adaptive refresh-teknologi var noget nyt, var det svært ikke at pege på Nvidias G-Sync. Der var udmærkede implementeringer af FreeSync-skærme fra den første dag, men hvis man skulle vælge mellem G-Sync- og FreeSync-skærme, kunne man stole på, at valget af G-Sync ville give en god oplevelse. FreeSync? Ikke i så høj grad.

Men sådan er det ikke længere. Selv før FreeSync 2 kom, leverede de fleste FreeSync-skærme varen i form af en glat og kvik gamingoplevelse uden nogen iøjnefaldende problemer med billedkvaliteten. Med FreeSync 2’s obligatoriske LFC-teknologi plus nogle gode latens-løsninger er forskellen helt udjævnet, set fra et gameplay-perspektiv.

Det er uden tvivl en del af grunden til, at Nvidia har frigjort FreeSync-support for firmaets gpu’er. Den beslutning er en tavs indrømmelse af, at enden er nær for G-Sync. En proprie-tær teknologi er nødt til at være bedre end åben-standard-alternativet. Selv hvis det har været tilfældet, er det det ikke længere. Det er derfor, FreeSync 2 ikke blot vinder vores dyst; den vil næsten stensikkert komme til at dominere i den virkelige verden.