Artikel top billede

(Foto: Computerworld)

Nu kommer de fotorealistiske spil

Forestil dig, at grafikken i dine spil er så virkelighedsnær, at du ikke kan skelne den fra et foto eller en film. Fotorealisme i realtid er gamerens drøm. Og den kommer til pc’en tidligere, end du nok tror.

Af Torben Okholm, Alt om Data

Denne artikel er oprindeligt bragt på Alt om Data. Computerworld overtog i november 2022 Alt om Data. Du kan læse mere om overtagelsen her.

Lige siden man begyndte at arbejde med computergrafik, har der eksisteret ét mål, som overskygger alle andre: Det endelige stade for pc-gaming, en slutdestination.

Vi taler naturligvis om fotorealisme i realtid. Det vil sige grafik, der bliver renderet i realtid, og som ikke kan skelnes fra virkeligheden, i hvert fald, når den bliver vist på en 2D-skærm.

Når dette mål er nået, kan beskueren ikke se forskel på renderet computergrafik og video i realtid. Naturligvis vil det altid være subjektivt, hvornår et bestemt stykke computergenereret grafik har opnået fotorealisme.

Vi kan alle blive enige om, at de bedste computergenererede sekvenser i film og på tv matcher spillene i hvert fald noget af tiden. Men har noget pc- eller konsolspil endnu præsteret blot en flig af fotorealisme? Det kan diskuteres.

En sjælden gang får man en stump gaming – måske noget, der omfatter en teksturpakke med ultrahøj detaljeringsgrad, som overskrider fotorealisme-barrieren. Hvis du har set den Real Life Mod, der hedder Star Wars: Battlefront, ved du, hvad vi taler om. I få, korte øjeblikke kan den se fotorealistisk ud.

Men lige nu sker der noget. Mens du læser disse linjer, er pc-grafikbranchen i færd med at tage det, der ser ud til at blive de sidste skridt hen imod vedvarende fotorealisme. Ikke fotorealisme hele tiden i ethvert spil. Men vedvarende passager i visse spil, der kan levere noget, som de fleste vil betragte som fotorealisme.

Et enormt opbud af teknologier, som omfatter både hardware og software, arbejder i øjeblikket sammen om at nå det slutresultat. Derfor er tiden inde til at forberede sig. Fotorealisme er på vej til pc’en, og den kommer, før du aner det.

Et ord: ydelse. Det er i sidste ende det, der står imellem gamerne og fotorealistisk grafik. Siden de første computere, der overhovedet var i stand til at levere nogen form for grafik, har alting drejet sig om ydelse.

Enhver computer, som kan håndtere almindeligt anvendelige instruktioner, kan rendere en grafisk scene ved den grad af kompleksitet, man vælger.

Forud-renderet eller i spillet? Kan du se det?

Selv en komplet ray-tracet 8K-sekvens, der bliver renderet på en gammel 286-cpu med alle 33 millioner pixel i ultrahøj fotorealistisk kvalitet, kan lade sig gøre. Spørgsmålet er blot, hvor lang tid det tager at klare opgaven. Det kan tage nogle måneder at spytte en enkelt frame ud, men det kan ikke desto mindre lade sig gøre.

Det, der betyder noget her, er selvfølgelig, hvor lang tid man kan acceptere. Nu om dage vil de fleste gamere ikke lade sig nøje med mindre end 60 frames pr. sekund. Det vil sige, at en komplet spilscene bliver renderet og sendt til skærmen 60 gange i sekundet.

Man kan måske leve med en lavere framerate. Man foretrækker måske, at den er højere. Men noget i retning af 60 fps er en fornuftig tommelfingerregel.

Hvis en enkelt frame kræver et sekund, et minut, måske endda en time for at blive renderet, betyder det ikke noget, hvor godt den ser ud – man kommer ikke ud af stedet.

Ydelse er alt, og løsningen på problemet er tvedelt. Man kan enten øge ydelsen med hardware, eller man kan gøre en givet renderingsopgave nemmere og hurtigere.

Det bringer os meget passende til den overfladisk set måske mest enkle metode til at forbedre ydelsen og opnå det fotorealistiske slutmål på, nemlig opskalering.

Der er intet nyt i det grundlæggende princip om at tage et lavtopløst billede og give det en højere opløsning. Historien viser blot, at resultaterne har været meget lidt imponerende.

Det gælder navnlig i den digitale æra, hvor fladskærme er hårde ved generisk spatielle opskaleringsalgoritmer, som breder gennemsnitsdata fra en enkelt pixel i et kildebillede ud over adskillige billedpunkter i et opskaleret billede.

Når det gælder billedkvalitet, er resultatet typisk blødt og uskarpt, men når det gælder ydelsen, kan boostet fra en opskalering være kolossalt.

For eksempel kræver en opskalering fra 1080p til 4K en firdobling af pixelantallet. Hvis man bruger en gammeldags spatiel opskaleringstilgang, der har den fordel, at den stort set ikke forlænger den tid, det tager at sende et billede, taler vi om en fjerdedel af renderingsarbejdet for gpu’en i sammenligning med grundlæggende 4K-rendering og langt højere framerates.

Men hvad nu, hvis man kunne opnå hovedparten af ydelsesgevinsterne ved opskalering, samtidig med at man beholdt den oprindelige billedkvalitet?

Red Dead Redemption 2 ser helt forrygende ud, men det er ikke helt fotorealistisk.

Det ville være interessant. I teorien er det et spring i ydelse på flere generationer, når det gælder hardware. Når man går fra en gpu-generation til den næste, skal man trods alt normalt være heldig for at få 50 procent mere ydelse.

Og når man tager i betragtning, at en gpu-families livscyklus typisk varer omkring to år, kunne en effektiv opskaleringsteknologi være med til at bringe gpu’erne forbi den fotorealistiske barriere fem eller seks år tidligere, end man ellers ville forvente.

Her kommer begrebet temporal opskalering ind i billedet. I modsætning til spatiel opskalering er den ikke begrænset til kun at bruge data fra den eksisterende frame.

I stedet kan man inddrage flere frames, som fører op til den nye frame, og dermed kombinere billeddata med vektor- eller bevægelsesdata med henblik på at generere flere detaljer.

Man kan hævde, at vi har Nvidia at takke for netop denne innovation, i hvert fald i forbindelse med dens anvendelse i gaming i form af firmaets Deep Learning Super Sampling-teknologi (DLSS). Uden DLSS ville vi ikke tale om temporal opskalering lige nu.

Fra begyndelsen har Nvidia karakteriseret DLSS som en maskinlæringsteknologi, der bygger på de AI-accelererende Tensor-kerner i firmaets moderne RTX-grafikkort. Men DLSS kom først til at betyde noget i sin anden udgave med en opgradering til temporal skalering.

Bedre end det oprindelige billede

Det skal siges, at DLSS gør en masse avancerede ting. Teknologien tager det rå inputbillede i lav opløsning og bruger bevægelsesvektorerne sammen med dybdebuffere og eksponeringsdata og vrider det hele gennem algoritmer, som er forfinet af Nvidias egen omfattende neurale netværks-infrastruktur.

Men det vigtigste element er den temporale snarere end spatielle tilgang til skalering. Det raffinerede er, at temporal opskalering kan resultere i en billedkvalitet, der i hvert fald delvis er bedre end det oprindelige billedes kvalitet.

Minecrafts ray tracing viser betydningen af god belysning,
selv med den klodsede grafik.

Det hænger sammen med, at bevægelsesdataene kan bruges til at uddrage detaljer, som ikke er fuldt repræsenteret, selv ikke ved den oprindelige opløsning.

Der, hvor AI og deep learning-elementer har størst sandsynlighed for at styrke Nvidias DLSS, er i oprydningen i de billedrester, som kan opstå ved temporal opskalering, for eksempel smearing og ghosting ved bevægelige objekter og boblende eller vaklende pixels i finere detaljer.

Den eneste hage er, at den anden generation af AMD’s konkurrerende FSR eller Fidelity FX Super Resolution-teknologi også tog det spring fra spatiel til temporal opskalering.

Men AMD fremsatte ikke selvsikre udsagn om brugen af AI eller maskinlæring, og firmaets skaleringsteknologi kan køre på enhver moderne gpu uden såkaldt AI-acceleration.

I stedet bruger AMD håndkodede algoritmer. AMD har endda omtalt denne forskel som noget af det, der adskiller FSR fra Nvidias DLSS.
“Generelt betragtet er maskinlæring (ML) en utrolig nyttig række redskaber og teknikker, som kan understøtte og accelerere denne proces.

Imidlertid kan det ske, at det, som ML opnår, ikke er det mest optimale. Det mangler den gnist af menneskelig fantasi, som ofte kan føre til gennembrud ved komplekse problemer,” udtalte firmaet i en officiel blog-postering.

1-0 til menneskene mod maskinerne? Måske. Selv har vi den fornemmelse, at maskinlæringselementet ved DLSS ikke er så afgørende.

Vi fornemmer også, om end det i højere grad er spekulation, at man vil kunne få DLSS til at køre på enhver moderne gpu uden behov for at bruge Nvidias proprietære Tensor-kerner – og give stort set de samme resultater.

Selvom det ikke er fotorealistisk, er Cyberpunk 2077 en fortaler for hybride renderingsteknikker.

I praksis kræver det imidlertid en detaljeret analyse at differentiere mellem FSR 2.0 og den seneste version af DLSS, når det gælder visuel kvalitet.

Begge klarer opgaven godt, og det er deres fælles brug af temporal opskalering, som er vigtig, snarere end eventuelle detaljeforskelle, der kan henføres til maskinlæring versus håndkodning.

Dette skal ikke ses som et forsøg på at nedgøre Nvidias bidrag til den nyeste skaleringsteknologi. Det kan godt være, at Nvidia overspiller maskinlæringselementet for at få det til at passe ind i firmaets bredere marketingindsats i forbindelse med AI-teknologi, men DLSS har ikke desto mindre igangsat en minirevolution.

Så vidt de vigtigste initiativer, der har til formål at forbedre ydelsen. Nu gælder det en række mere specifikke billedteknologier. Blandt dem finder man belysning, og hovedpersonen her er formentlig ray tracing.

Ray tracing er relativt nyt på pc’en, men teknologien har været grundlaget for forud-renderet fotorealistisk grafik på film og tv i årevis. Teknologien er simpelthen så beregningstung, at den ikke tidligere har været en mulighed for rendering i realtid.

Tæt på, men ikke helt der: Af og til kommer Forza Horizon 4 ret tæt på fotorealisme.

Ideen er enkel nok: Man simulerer den måde, lys opfører sig på i den virkelige verden – den måde, det bliver reflekteret på, dets refleksion, spredning og absorption.

Det er grundstammen i lysmodellering, men når man skal generere realistisk lys, kræves der et enormt antal stråler, der hver følger en kompleks vej igennem en scene, hvor den reflekteres af genstande og undergår forskellige forvandlinger.

Resultaterne kan ofte være overvældende. Men selv med den nyeste og mest kostbare hardware kan det at producere ren ray tracing af Hollywood-kvalitet i ekstreme tilfælde kræve timers rendering pr. frame på en dedikeret render-server.

Nvidias RTX ray tracing-teknologi, der først så dagens lys i firmaets Turing-serie af GeForce 2000-gpu’er i 2018, bruger en række teknikker for at løse det problem. For det første reducerer RTX drastisk antallet af stråler, der kræves for at rendere en scene.

Belysnings-engines som Lumen i Unreal 5 er vigtige for realismen.

Det rå resultat er et kludret billede med talrige huller og tomme felter. Dernæst bruger Nvidia maskinlæring-algoritmer til at rense billedet og kompensere for det relativt begrænsede antal stråler i billedet.

RTX flytter også noget af ray tracing-arbejdet over på dedikerede RT-kerner. Et eksempel på disse accelererede opgaver er en beregningstung teknik, der hedder Bounding Volume Hierarchy (BVH).

Den beskæftiger sig med at afgøre, hvilke trekanter i spilscenen en bestemt stråle rammer. Den proces blev tidligere beregnet af cpu’ens almindelige shaders, men takket være BVH bliver den generelle framerate markant reduceret.

Da Nvidias gpu-serie RTX 2000 blev introduceret, kørte en typisk spilscene med hardware-accelereret illumination på baggrund af BVH-beregninger to til tre gange hurtigere. Det skyldtes den nye ray tracing-hardware.

Det kan lyde imponerende, men sandheden er, at brugen af ray tracing stadig hæmmede ydelse på disse tidlige RTX-kort. Og det var endda med begrænset ray tracing, ikke over hele scenen.

Med “Ampere”-udgaven af RTX 3000-grafikkortene specificerede Nvidia en yderligere fordoblet ray tracing-ydelse. Vi forventer mindst endnu en fordobling af ydelsen, når Nvidias Lovelace RTX 4000-gpu’er kommer på markedet senere på året – og muligvis mere endnu.

To år længere ude i tiden, når endnu en ny cpu-arkitektur bliver introduceret, kan vi sikkert se frem til endnu en fordobling.

I øjeblikket er det svært at sige, hvor meget mere ray tracing der skal til for at nå fotorealisme i realtid. Men vi kan konstatere, at ray tracing-gennemløb stiger eksponentielt, og dermed vil den uden problemer overhale eksisterende forbedringer af konventionel raster-renderingydelse.

Når ydelsen stiger to til tre gange for hver generation, vil det ikke kræve mange gpu-livscyklusser, før vi får meget store mængder ray tracing til rådighed.

Det skal imidlertid nævnes, at ray tracing ikke er den eneste måde, man kan opnå realistisk belysning på. En udløber af ray tracing, der kaldes path tracing, er en form for turboladet ray tracing, der går videre end at spore en enkelt stråles vej rundt på scenen.

I stedet laver den en endnu mere realistisk model af belysning, som omfatter individuelle stråler, der bliver delt op i flere stråler, afhængigt af de simulerede overflader, der er tale om.

Som man kan regne ud, er path tracing endnu mere beregningstungt end almindelig ray tracing. Belysning af komplette scener med path tracing er slet ikke nogen realistisk mulighed for realtidsrendering på pc’en.

Løsningen på den uoverstigelige udfordring for pc’en og for en generelt mere nyttig brug af ray tracing er det, der bliver kaldt hybrid rendering. Og den teknologi drejer sig om en fin balance mellem ray tracing-behandlet belysning og gammeldags rasterisering.

Næste generations gpu’er sætter fart i udviklingen allerede i år

Det er måske den værst bevarede hemmelighed i historien. Både Nvidia og AMD lægger op til at lancere nye grafik-arkitekturer senere på året. Hertil kommer Intel, der snart introducerer sit første ægte bud på gaminggrafik, Arc.

Vi venter os ikke meget af Intel Arc, men rygterne om AMD’s og Nvidias nye gpu-teknologier – henholdsvis RDNA 3 og Lovelace – har været intet mindre end spektakulære. Tag nu RDNA 3.

AMD’s aktuelle top-gpu, Radeon RX 6950 XT, rummer 5120 shaders, der kører ved en maksimal boosthastighed på 2310 MHz. Alt i alt rummer 6950 XT 21,5 TFLOPS af ren computerkraft.

Den er et monster. Men tidlige rygter om dens afløser talte om tre gange så mange shaders plus markant højere clockhastigheder takket være en ændring i produktionen fra TSMC’s 7 nm-node til den mere avancerede 5 nm-teknologi.

Som om det ikke var nok, sagde rygterne, at AMD har leveret et endnu større boost til RDNA 3’s ray tracing-ydelse i forhold til RDNA 2. Disse shaderantal ser imponerende ud, men ray tracing-stigningen lød endnu mere forrygende – også selvom kerneantal og clockhastigheder ikke svarer direkte til reelle framerates i spil.

Men man talte om en realistisk stigning på tre gange den eksisterende RDNA-familie af Radeon RX 6000-gpu’er. For nylig er disse RDNA 3-tal blevet reduceret. De seneste rygter taler om 12.288 shaders i top-gpu’en Navi i RDNA-serien.

Den bliver sandsynligvis solgt under navnet Radeon RX 7900 XT. Hvis man hertil føjer højere clockhastigheder, er der stadig tale om en markant stigning i ydelse. Tre gange de framerates, man ser hos 6950 XT? Formentlig ikke.

Men en fordobling af framerates virker sandsynlig. Tilføj stigningen fra FSR 2.0, og vi taler måske om tre til fire gange en framerate ved 4K fra et 7900 XT med FSR aktiveret i forhold til et 6950 XT ved 4K uden FSR. Det kan man kalde et generationsspring fremad.

Når det gælder Nvidias kommende Lovelace-gpu’er, der også formodes at komme i år, ser vi en tilsvarende historie. Nvidia-chips får et særlig stort boost takket være et skifte fra Samsungs ikke ganske vellykkede 8 nm-proces til TSMC’s avancerede 5 nm-node.

AMD brugte i forvejen TSMC til sine gpu’er, og derfor er springet fra TSMC 7 nm til TSMC 5 nm ikke så stort. Ligesom med RDNA 3 er rygterne om Nvidias Lovelace gradvis blevet nedjusteret fra voldsomme gæt på 2,5 gange ydelsen med den eksisterende Ampere-generation af RTX 3000-serie-kort til en mere realistisk forventning på omkring 1,8 til 2 gange.

Disse forudsigelser gælder naturligvis for den højeste ende af Lovelace-serien. Længere nede finder vi kort som RTX 4070 og 4060, og her ser gevinsterne mindre imponerende ud.

De seneste rygter siger, at 4060 vil levere cirka en stigning på 30 procent i shaderantal i forhold til 3060. Hvis vi lægger yderligere 30 procent oveni på grund af clockhastighed, når vi op på i alt 60 procent.

Det er en sund udvikling fra generation til generation, men det er ikke noget, der tyder på øjeblikkelig fotorealisme i realtid.

Fra polygoner til pixels

Rasterisering har naturligvis været grundlaget for hovedparten af pc’ens 3D-grafik i årtier. Med rasterisering bliver genstande genereret fra et net af virtuelle polygoner, som hver bliver konverteret til pc-skærmens pixels eller synlige prikker.

Hver pixel bliver tildelt en oprindelig farveværdi fra de data, som er lagret i polygonens elementer. Man kan foretage yderlige pixelbehandling eller “shading”, herunder ændring af pixelfarve ved hjælp af generelle lysmodeller (ikke ray tracing) og brug af teksturer.

Detaljerede add-on-pakker som denne Real Life Mod til Star Wars Battlefront er det bedste, man kan få i øjeblikket.

Rasterisering har den fordel, at den er hurtig. Men den er hverken vanvittig nøjagtig eller ægte dynamisk, når det gælder belysning.

Ideen bag hybrid rendering består i at tage en rasteriseret scene og booste lyskvaliteten via begrænset, men målrettet brug af ray tracing.

Der er forskellige elementer i en scene, som kan have særlig nytte af ray tracing i stedet for rasterisering, for eksempel skygger eller refleksioner. Fidusen består i kun at bruge ray tracing, når det gør en stor forskel på realismen.

Belysningsteknikker er altafgørende, men de er ikke den eneste vigtige faktor, når det gælder om at opnå fotorealisme. Hvis man for eksempel har prøvet at spille Minecraft med ray tracing aktiveret, vil man vide, hvor atmosfærisk og overbevisende lyset kan være.

Men man vil også vide, at den klodsede arkitektur i et typisk Minecraft-niveau aldrig vil kunne få nogen til at tro, at der er tale om scener fra det virkelige liv. Det, man skal bruge sammen med realistisk belysning, er geometriske detaljer. Og en kolossal masse af dem.

Igen er det forud-renderede Hollywood–eksempel nyttigt. Det er muligt at generere tilstrækkelig geometrisk kompleksitet til fotorealisme i en filmproduktion, hvor man kan leve med, at rendering af enkelte frames kan måles i timer eller endda dage.

Hvis man derimod importerer filmsekvenser, som hver rummer millioner af polygoner, ind i et spil, kommer man hurtigt til at sidde med en scene, der omfatter milliarder af polygoner, og som ikke har skyggen af en chance for at opnå spilbare framerates.

Eksisterende spilengines prøver at løse det problem med flere versioner af det samme element eller objekt. Tanken er at skifte disse versioner ind og ud så gnidningsløst som muligt, afhængigt af objektets distance.

Hvis en figur eller et træ eller en bil er langt ude i horisonten, skal man ikke have nær så mange geometriske detaljer for at opnå realisme, som man har brug for på kort afstand.

Den fremgangsmåde virker indtil et vist punkt. Men den giver også problemer, herunder kravene til båndbredde og lagerkapacitet, når man skal indlæse flere versioner af det samme element, for ikke at tale om udviklingsomkostningerne, når man skal generere mange flere elementer.

Løsningen? Her har vi brug for at introducere en spilengine, der meget vel kan vise sig at blive den første, som rutinemæssigt opnår fotorealisme.

Tillad os at præsentere Unreal Engine 5 og dens Nanite-engine. Nanite er faktisk kun en ud af en række teknologier i Unreal 5, der ser ud til at skulle revolutionere spilgrafik, og som kan blive afgørende i arbejdet med at opnå fotorealisme.

Hvis man tror på hypen, vil Nanite muliggøre næsten “ubegrænsede” niveauer af spilgeometri. Folkene bag Unreal Engine 5, Epic, beskriver Nanite som et “virtualiseret geometrisystem”, der kan levere detaljer på pixelniveau og mange gange flere geometriske detaljer, end man tidligere har kunnet. Men hvordan kan Nanite præstere det? Det korte svar er: Det er kompliceret.

En del af raffinementerne består i at begrænse sig til kun at udføre renderingsarbejde på detaljer, som man faktisk kan se. Det vil sige, at man ikke renderer objekter, som ikke er med i billedet, er skjult af noget andet eller står i vejen for sig selv.

Et andet aspekt omfatter komprimering og finkornet streaming af geometriske detaljer ved hjælp af automatiserede processer. Hvad vil det sige? Det vil sige, at man bruger en enkelt, ultradetaljeret model til at fange geometriske detaljer i farten.

Det er slut med at skifte mellem flere versioner af den samme model. Man kan importere et enkelt element i filmkvalitet ind i denne engine uden at smadre spillets framerates.

Resultatet er ifølge Epics tekniske direktør, Kim Libreri, at “Nanite giver frihed til spiludviklere, frihed til at importere elementer af fuld filmkvalitet. Man behøver ikke at bekymre sig om at generere normal kortlægning eller proxyer med lav opløsning.”

Libreris pointe med “normal kortlægning” er også vigtig. Normale kort og bump-kort er shader-accelererede funktioner, der simulerer geometriske detaljer, hvor det ville være for beregningstungt at udføre opgaven direkte i geometrien.

Disse kort bliver behandlet af gpu’ens shaders. Men alle gpu’er har kun en given mængde shader-hestekræfter, der kan deles over det samlede renderingsarbejde.

Hvis geometrien ikke længere skal simuleres af shaderne via bump-kort og normale kort, kan disse tusindvis af bittesmå shaders i en moderne pc bruge deres pixel-behandlingskraft på andre elementer i en scene og dermed skubbe det samlede slutresultat en smule tættere på fotorealisme.

Det er også værd at huske, at alt det, der gør det lettere for udviklerne at producere spil, også fører os hurtigere til fotorealisme. Det er klart, at man skal have tilstrækkelig renderingskraft for at opnå fotorealisme, men denne forbedrede hardware skal også have noget, den kan rendere.

Hvis man kan bruge eksisterende biblioteker med elementer af høj kvalitet uden manuelt at skulle oprette flere versioner eller bruge tid på at håndjustere hver scene for at undgå, at polygonantallet smadrer scenens framerates, kan selv mindre foretagender arbejde med fotorealistiske spil.

Unreal Engine 5’s Nanite-teknologi lover at løse problemet med geometrien.

Det er ret spændende. Og jo flere der arbejder hen mod et givet mål, desto mere sandsynligt er det, at målet bliver nået. Når redskaber som Nanite får større udbredelse, er det ikke nødvendigvis kun de tunge drenge med flere hundrede millioner dollar i ryggen, der kan levere de visuelle sager. Det kan være en lille indie-spiludvikler, der opnår noget specielt.

Unreal Engine 5 har også en højtudviklet lys-engine ved navn Lumen. Det er en ray tracing-baseret tilgang, der tilbyder mange af de samme funktioner, man finder i belysningsteknologier, såsom hybrid rendering.

Men Epic oplyser, at den gør det mere effektivt og uden den kostbare dedikerede hardware, man ser i Nvidias og AMD’s seneste gpu’er.

Den nøjes med at bruge ray tracing og path tracing, når det styrker realismen. Som med mange aspekter ved denne Unreal 5-engine, er det spændende, men endnu ikke helt afprøvet.

Opdeles i håndterlige dele

Et andet bidrag til fotorealisme fra Unreal Engine 5 er funktionen World Partition. Den påvirker ikke direkte billedkvaliteten, men den gør det meget nemmere at opnå realistiske spilverdener, både i realtid på en pc og når det gælder det arbejde, udviklerne udfører.

World Partitions trick består i at strømline og delvis automatisere opgaven med at opdele store spilverdener i mindre og mere håndterlige dele. Det hjælper med udviklingsarbejdet.

De ansatte kan arbejde på flere områder af spillet samtidig uden at påvirke hinanden. Tidligere var det ofte sådan, at arbejdet skulle planlægges omhyggeligt, idet spilfiler blev isoleret fra andre brugere, mens de ventede på, at en anden udvikler gjorde en opgave færdig.

World Partition betyder også mindre arbejde for selve pc’en under gaming. Ved at bryde spilverdenen op i mindre dele, som kan indlæses i realtid, får man en mindre mængde spil, der skal indlæses i hukommelsen og behandles.

Det svarer til at tillade mindre dele af en detaljeret spilverden at streame, mens man spiller, i stedet for at indlæse en stor klump, der kan komme til at afbryde spillet.

Forhåbentlig vil disse teknologier skubbe pc’en i retning af fotorealisme i realtid. Kombinationen af opskalering, ray tracing og hybrid rendering med næsten uendelig geometri og mere effektiv streaming af spilverdener bringer os tættere på fotorealismen.

Der er sager, vi ikke har nævnt. Hvad med fysikken i spillet, flydende dynamik og karakter-AI? Disse elementer er ikke nødvendigvis vigtige for realismen – mange scener inddrager ikke vandsimulation eller andre karakterer på skærmen. Men af hensyn til realisme i mere end et øjeblik er de afgjort vigtige.

I den forstand kommer rejsen mod fotorealisme ikke til at omfatte et big bang-øjeblik – før det var intet spil fotorealistisk; efter det er fotorealisme allestedsnærværende. Sådan bliver det ikke. Men inden længe vil fotorealisme indiskutabelt nå frem til pc’en.

Den finder ikke vej til alle spil. Den bliver ikke engang brugt hele tiden i et enkelt spil. Men fotorealistisk gaminggrafik i realtid bliver et fænomen, som pc’en kommer til at kunne føje til sin liste over teknologiske bedrifter.

Et øjeblik ... vil det virkelig komme til at ske?

Tiden er inde til besindighed. Naturligvis er pc-grafik på vej ind i en guldalder af hurtige forbedringer efter en periode med relativ stagnation. Men fotorealisme? Hold op!

Det vigtigste argument mod vores entusiastiske fortælling er det faktum, at det tager forfærdelig lang tid, før den nyeste hardware bliver mainstream. Vist er det troligt, at pc’er i den høje ende kan håndtere fotorealisme om fem til ti år.

Men det bliver ikke den hardware, som spiludviklerne sigter på. De vil i stedet fokusere på noget, der mere minder om nutidens stærke maskiner, og de maskiner vil udgøre udviklernes fællesnævner. Og selvom nutidens bedste hardware er imponerende, kan den endnu ikke klare fotorealisme i realtid.

Kort sagt duer det ikke at spendere millioner af dollar på at udvikle spil, der kun kan køre på en lillebitte brøkdel af de eksisterende pc’er. Men meget af det, der indgår i fotorealisme, kan skaleres op inden i en given spil-engine.

Et oplagt eksempel er teksturdetaljer. Indrømmet, det vil tage mange år, før et ydmygt gamingkort kan håndtere fotorealistiske teksturdetaljer. Men det forhindrer ikke udviklerne i at inddrage detaljerede teksturpakker til dem, som har den rette hardware. En tilsvarende holdning gælder for belysningsteknikker såsom ray tracing.

Det er netop den form for funktion, som man kan slå til og fra i overensstemmelse med hardwarens formåen. Som vi har set, gør de seneste spil-engines, herunder Unreal 5, det også nemmere at skalere geometriske detaljer.

Alt dette fører os tilbage til eksemplet med Star Wars: Battlefront Real Life Mod. Det er blot en teksturpakke. Men man kan forestille sig, at man tænder for langt mere realistiske belysningseffekter og skruer op for geometrien.

Resultatet vil blive spil, der ser ret godt ud på almindelig hardware, men som lige glider over i fotorealisme, når man skruer op for detaljerne og kører på hardware i den høje ende.