Home » Andet » 2019 tech forudsigelser og spådomme
2019 tech forudsigelser og spådomme

2019 tech forudsigelser og spådomme

Share
Forbindelserne bliver bedre

Hvad sker der med forbindelsesstandarderne?

Der går rygter om, at pci-e 4.0 kommer frem til forbrugerne. Muligvis ikke her i begyndelsen af året, men man kan roligt regne med, at det sker ved årets slutning. Pci-e 4.0 blev annonceret i 2016 og blev ratificeret af PCI-SIG (et super-konglomerat af mere end 900 firmaer, heriblandt Intel, AMD, Dell, HP og IBM) i sommeren 2017.

Standarden skulle allerede have været i produktion og på mainstreamkort i løbet af 2018. Imidlertid kneb det med støtte på processorsiden, og der var tilsyneldende ikke noget behov for denne standard, og derfor er indførelsen af specifikationen stagneret. Vi havde simpelthen ikke brug for den. Indtil nu.

Hvis Threadripper og Ryzen 3 følger de specifikationer, vi kender fra EPYC 2, vil begge processorserier omfatte support af pci-e 4.0 som standard, og Intel følger formentlig trop med sine 10 nm-enheder. Og eftersom standarden er bagudkompatibel, ville det simpelthen være latterligt ikke at inddrage den på den næste generation af bundkort.

Hvad er det, der er så forrygende ved pci-e 4.0? Til at begynde med fordobler den bitraten pr. pin fra 8 GT/sek. til 16 GT/sek. Den indebærer også en reduktion af den generelle systemlatens og forbedret fleksibilitet og lanebredde-konfigurationer for udviklere, der er interesserede i at bruge den til applikationer og enheder med lavt strømforbrug.

Det vigtigste for os er imidlertid den øgede datarate. 16 GT/sek. pr. lane burde sætte pci-e x4-enheder i stand til at arbejde ved hastigheder på op til 6,4 GB/sek. i modsætning til de 3,2 GB/sek., som vi er begrænset til i øjeblikket. Det vil give os langt bedre plads til flashlager-enheder, og det vil forhåbentlig også forbedre cpu/gpu-kommunikation og ydelse i situationer med flere kort, navnlig ved høje opløsninger.

NVLink gennembryder pci-e-barrieren.

Det sidstnævnte er naturligvis ikke det store problem for Nvidia, der har sit NVLink, men for AMD er det ret afgørende, navnlig hvis foretagendet for alvor kommer tilbage i gpu-kampen med Navi.

PCI-SIG har også drillet os med pci-e 5.0. På trods af, at det i øjeblikket kniber med detaljerede specifikationer, ved vi, at der bliver tale om endnu en fordobling af båndbreddebegrænsningerne i form af 32 GT/sek. pr. lane eller en teoretisk maksimal hastighed på flashenheder på 12,8 GB/sek. plus en båndbredde på hele 128 GB/sek. til for eksempel en 16-slot-gpu.

Det store spørgsmål er: Hvordan skal disse standarder indføres – hvis de overhovedet bliver det? Det er der delte meninger om. Den ene lejr, der hepper på pci-e 4.0, mener, at på grund af EPYC 2’s integration af pci-e 4.0 vil det ikke give synderlig mening at udvikle og fremstille to separate processor-typer, når man i stedet kan producere én og slå nogle af kernerne fra. Eftersom pci-e 4.0 er bagudkompatibel med de andre generationer, er det relativt nemt at tilføje den.

Den anden lejr argumenterer for, at den båndbredde, som pci-e 4.0 leverer, simpelthen ikke slår til. Og eftersom det tager tid og koster penge at validere en specifikation som denne (husk, at pci-e 5.0 allerede er blevet annonceret og forventes at komme i 2020), er det spildt ulejlighed, når vi blot skal igennem den samme mølle i 2021. Det er ikke nemt, og kun tiden vil vise, hvad det ender med.

Seks kanaler eller otte?

Vi får måske først ddr5 i 2020. Hvad kan vi gøre i mellemtiden for at øge hukommelsens ydelse? Den mest indlysende løsning ville være en stigning i antallet af de hukommelseskanaler, der er til rådighed for brugere af desktopmaskiner i den høje ende, for det er typisk her, hukommelsen spiller den største rolle.

Se også:  Helt nye veje for digitale betalinger – også for fadøl

Mainstream-platforme kan slippe af sted med dual-channel og ddr4 i et stykke tid, men i den dyre ende vil enhver stigning i hukommelsens båndbredde styrke ydelsen i raytracing, video-rendering, cad/cam og så videre.

AMD vil næppe indføre flere kanaler på sine dyre bundkort lige nu. Bortset fra at man inddrager support i de seneste Threadripper-processorer, ville det kræve en ændring i LGA-soklerne på bundkortene, og dermed ville nyere chips ikke længere være bagudkompatible med eksisterende X399-bundkort.

 

Der er imidlertid en lille chance for, at AMD kan slå til tidligere, end vi aner, men det afhænger af, hvad Intel gør. Siden august 2018 har vi vidst, at Intel agter at lancere en ulåst Xeon med 28 kerner på sine dyre forbrugerplatforme inden længe: 28 kerner, 14 nm, 56 threads på et nyt chipsæt (X599) og med en ny sokkel (LGA 3647). Den kræver en masse strøm og en gevaldig VRM-løsning, der kan kompensere for dette krav.

Men endnu vigtigere er det, at på grund af processorens Xeon-herkomst omfatter den en hukommelsesløsning med seks kanaler. Det har vi allerede set et vidnesbyrd om i Asus’ ROG Dominus, som rummer 12 ddr4-dimm-slots foruden to specielle M.2 ddr3-agtige dimm’er. Hertil kommer, at kortet kræver fire ottepin-strømstik, to sekspin-12 V-stik og to 24-pin-bundkortstik. Fik vi nævnt, at det har et aktivt kølet 32-fase-VRM? Vanvittigt.

Denne sekskanals-hukommelsessupport er den første af sin art, og hvis kort og chip sælger godt, før AMD’s Threadripper 3-serie kommer, kan Threadripper 4 måske medføre den ottekanals-hukommelsessupport, vi kender fra serverkomponenterne EPYC og EPYC 2.

Hvad betyder det for slutbrugerne? Hvis vi tager et dualchannel-hukommelsessæt på 3.200 MT/sek., er den samlede båndbredde 51,2 GB/sek. Quadchannel fordobler dette tal til 102,4 GB/sek., mens seks kanaler giver 153,6 GB/sek. AMD’s ottekanals-hukommelse ville give 204,8 GB/sek., hvilket er ideelt til overførsel af større datamængder.

NVLink-fornyelser

AMD kan meget vel have lagt multi-cpu-stik med høj båndbredde bag sig, men da formatet ikke i øjeblikket ligger i toppen, når det gælder grafik, er det nemt nok at forstå, hvorfor man kan mene, at de er overflødige. Nvidia, på den anden side … det er en helt anden historie.
Der har været udtrykt mange forbehold over for RTX-serien, når det gælder pris og support af endnu ikke frigivne spil-funktioner.

Se også:  Det er ikke længere kunstigt med kunstig intelligens

Ikke desto mindre er det sandt, at disse kort kan pumpe absurde datamængder ud på samme tid. Det gælder navnlig RTX 2080 Ti, der kan levere over 150 fps i nogle 1080p-spil ved maksimale indstilinger.
Når man kører flere af disse kort, især i relativt ekstreme arbejdsstation-miljøer, er det afgørende at kunne overføre data på tværs af disse kort samtidig, hvis man vil maksimere ydelsen. Og det er netop her, NVLink har sin oprindelse: i servermiljøet.

Pci-e 3.0 er måske omsider på vej ud.

Kort sagt er NVLink en proprietær standard, der er udviklet af Nvidia, og den går tilbage til Pascal-arkitekturen. Den variant, vi kender i dag, blev først set i forbindelse med de Tesla V100-gpu’er, der var i DGX-1-serveren. Hver NVLink-forbindelse understøtter en overførselsrate på op til 50 GB/sek. (25 GB/sek. hver vej samtidig), og det er mere end ti gange så meget, som en enkelt pci-e 3.0-kanal kan overføre. Det giver hurtig og uhindret datatrafik mellem kortene. V100-kortene understøttede op til seks NVLink-forbindelser med en maksimal overførselsrate på 300 GB/sek.

Når det gælder mainstream-kort, understøtter RTX 2080 Ti to NVLink-forbindelser med et maksimum på 100 GB/sek., mens RTX 2080 kun understøtter én og dermed 50 GB/sek. I modsætning til SLI fungerer NVLink ikke som et skærminterface, der blander video-outputs sammen som en scheduler og sender dem tilbage til gpu-udgangen.

Takket være NVLinks superlave latens og høje båndbredde tillader den i stedet, at flere gpu’er kan samle deres ressourcer som en delt enhed og kommunikerer på tværs af broen, hvilket reducerer trafikken gennem pci-e-busen nedenunder, og det gør kortene mere effektive.

Det er svært at sige, hvor stor en indflydelse dette vil få på gaming-scenen, men Hothardware.com giver udtryk for, at man i Shadow of War ved 1440p kan opnå en fordobling af ydelsen, når man bruger NVLink i stedet for traditionel SLI, hvad angår skalering.

USB 3.2 og Type C- standarden

Det kommer næppe som nogen overraskelse, at 2019 bør blive året, hvor vi kommer til at se langt flere usb C-kompatible enheder – skærme, gpu’er, masselagring og med tiden også ekstraudstyr. Usb Type C bliver fremover det dominerende format, og det hænger navnlig sammen med dens specifikationer og dens format.

Usb C-kabler er meget nemmere at bruge end deres Type A-slægtninge. Når man parrer det med support af MHL, Thunderbolt 3, HDMI 1.4b og DisplayPort 1.4-standarder, begynder den at ligne en vinder. Den helt store gevinst kommer imidlertid først med indførelsen af usb 3.2-specifikationen.

Den blev ratificeret i begyndelsen af 2017, og den fastholder stadig sin bagudkompatibilitet. Usb 3.2 forventes at give en fordobling i den samlede båndbredde fra omkring 10 Gbps til 20 Gbps (eller 2,5 GB/sek.).

TAGS
innovation
nvidia
ny teknologi

DEL DENNE
Share


Mest populære
Populære
Nyeste
Tags

Find os på de sociale medier

Modtag dagligt IT-nyhedsbrev

Få gratis tech-nyheder i din mail-indbakke alle hverdage. Læs mere om IT-UPDATE her

Find os på FaceBook

Alt om DATA

Lautrupsgade 7,
DK-2100 København Ø
Telefon: 33 91 28 33
redaktion@altomdata.dk

Datatid TechLife

Lautrupsgade 7,
DK-2100 København Ø
Telefon: 33 91 28 33
redaktion@datatid.dk

Audio Media A/S

CVR nr. 16315648,
Lautrupsgade 7,
DK-2100 København Ø
Telefon: 33 91 28 33
info@audio.dk
Annoncesalg / Prislister:
Lars Bo Jensen: lbj@audio.dk Telefon: 40 80 44 53
Annoncer: Medieinformation


Alt om DATA, Datatid TechLife  © 2020
Privatlivspolitik og cookie information - Audio Media A/S