Nvidia g

Indholdsfortegnelse:
- Alt om Nvidia G-Sync HDR-teknologi
- Problemer med at implementere G-Sync HDR og dets høje omkostninger
- Nvidia G-Sync HDR forbedrer spiloplevelsen
4K-, G-Sync- og HDR-teknologier har revolutioneret den måde, vi spiller med vores pc'er, selvom vi brugere har haft en torn inde i en lang tid, da det ikke var muligt at finde en skærm, der kombinerede alle disse teknologier i et enkelt produkt. Noget, der omsider har ændret sig i hænderne på G-Sync HDR og Nvidia-teknologi, dette er den nyeste skærmteknologi fra grafikkortgiganten, der sætter spiloplevelsen på det niveau, vi altid har drømt om.
Indholdsindeks
Alt om Nvidia G-Sync HDR-teknologi
Indtil ankomsten af G-Sync HDR, var brugere nødt til at stå over for en hård beslutning, når de købte en ny skærm til at afspille, da det ikke var muligt at få fat i en enhed, der havde et panel i høj kvalitet med 4K-opløsning og stor fluiditet. spil leveret af G-Sync. G-Sync HDR blev født til at afslutte dette problem, fordi vi for første gang kan anskaffe en skærm med et 4K-panel af bedste kvalitet, support til HDR og med G-Sync-teknologi.
Nvidia G-Sync blev født med det formål at løse et af de store problemer med pc-spil, grafikkortes manglende evne til at opretholde et antal billeder pr. Sekund, hvilket falder sammen med skærmens opdateringshastighed. Dette problem får grafikkortet og skærmen til at være ude af synkronisering, hvilket resulterer i billeddefekter, der kaldes Stutter (mikro stammere) og udtørring (klip i billedet).
Vi anbefaler, at du læser vores indlæg om, hvordan man vælger en gamer-skærm?
G-Sync er en teknologi, der er ansvarlig for at justere skærmens opdateringshastighed til antallet af billeder pr. Sekund, som grafikkortet sender det, hvilket giver perfekt synkronisering. Dette resulterer i en meget glat spiloplevelse uden stamming eller billedskæring. Det næste trin var at tilføje HDR for at få den ultimative oplevelse.
Problemer med at implementere G-Sync HDR og dets høje omkostninger
Det var ikke let at oprette denne G-Sync HDR-teknologi, for for at gøre det muligt var det nødvendigt at ty til Intel og en af dens FPGA'er. Specifikt bruges en Intel Altera Arria 10 GX 480, en meget avanceret og meget programmerbar processor, der kan kodes til en lang række applikationer. Denne Intel Altera Arria 10 GX 480 ledsages af 3 GB DDR4 2400MHz hukommelse, der er produceret af Micron, en komponent, der i øjeblikket er meget dyr. Alt dette betyder, at implementeringen af G-Sync HDR overhovedet ikke er billig, da det anslås, at det tilføjer cirka en ekstra omkostning på $ 500 til den samme skærm, men uden denne teknologi.
En anden vanskelighed med at implementere G-Sync HDR er relateret til båndbreddebegrænsningen af DisplayPort 1.4 og HDMI 2.0b specifikationer. Et 4K 144 Hz-billede med HDR og G-Sync genererer en mængde information, der overskrider kapaciteten i disse standarder, og de er de mest avancerede i eksistensen. For at løse dette var det nødvendigt at reducere Chroma-underampling fra 4: 4: 4 til 4: 2: 2. Dette resulterer i et lille tab af farve troværdighed, selvom producenterne forsikrer, at det er minimalt, og fordelene opvejer langt denne lille ulempe. Hvis vi ikke ønsker at lide dette tab af Chroma-subprøver, skal vi nøjes med en opdateringshastighed på 120 Hz.
Nvidia G-Sync HDR forbedrer spiloplevelsen
Nvidia har arbejdet hårdt sammen med hovedmonitorproducenterne for at optimere denne teknologi maksimalt, med dette vil vi have garantien for, at den billedkvalitet, der tilbydes os, er den størst mulige med den nuværende teknologi. Dette tab af Chroma-undersampling elimineres, når vi har de nye HDMI 2.1- og DisplayPort 5-specifikationer tilgængelige.
Vi anbefaler at læse vores indlæg om Asus ROG Swift PG27UQ-gennemgang på spansk (fuld analyse)
En anden stor ulempe er den magt, der er nødvendig for at flytte de førende spil til 4K og 144 Hz, der er simpelthen ikke noget grafikkort, der kan gøre det. Dette skaber en situation, hvor det er nødvendigt at ty til SLI-konfigurationer, det vil sige at sætte flere kort sammen på den samme pc. SLI-konfigurationer er dyre, især hvis vi er afhængige af de mest kraftfulde grafikkort som Nvidia GeForce GTX 1080 Ti, hvis pris er næsten 800 euro. Det andet problem med at sætte to kort sammen er den store mængde varme, der genereres, hvilket gør det nødvendigt at have et stort kølesystem på pc'en. Vi har allerede en idé om, hvor dyrt det vil være at bruge G-Sync HDR.
Den anden største vanskelighed har været i implementeringen af HDR på disse skærme, generelt 32 tommer maks. Her taler vi om en ægte HDR-oplevelse, som kræver en lysstyrke på mindst 1000 nits, som det har været nødvendigt at installere 384 lyszoner på skærmen, hvilket giver en usædvanlig høj ANSI-kontrast. Det er ikke let at implementere så mange lyszoner på en 32-tommers skærm, når du vil opnå det bedst mulige resultat.
Her slutter vores indlæg på G-Sync HDR: Hvad det er, og hvad det er til. Hvis du har spørgsmål, kan du give os en kommentar nedenfor, eller du har brug for at vide udtalelsen og oplevelsen af et meget godt hardwarefællesskab, kan du registrere dig gratis i vores specialiserede hardwareforum. Vi vil gerne vide din mening!
Nvidia jetson tx1, nvidia tilslutter sig kunstig intelligens

Nvidia tilslutter sig den kunstige intelligens sektor og præsenterer sit Nvidia Jetson TX1-kort med store muligheder inden for robotik
▷ Nvidia gtx vs nvidia quadro vs nvidia rtx

Du ved ikke, hvilket grafikkort du skal vælge. Med sammenligningen Nvidia GTX vs Nvidia Quadro vs Nvidia RTX ✅ har du detaljer, egenskaber og anvendelser
Nvidia rtx 2060 vs nvidia gtx 1060 vs nvidia gtx 1070 vs gtx 1080

Vi foretog den første sammenligning af Nvidia RTX 2060 vs Nvidia GTX 1060 vs Nvidia GTX 1070 vs GTX 1080, ydelse, pris og funktioner