Android

Grafikkort - alt hvad du har brug for at vide

Indholdsfortegnelse:

Anonim

I ælden med gamingcomputere har grafikkortet fået lige så meget eller næsten mere betydning end CPU'en. Faktisk undgår mange brugere at købe kraftfulde CPU'er for at investere penge i denne vigtige komponent, der er ansvarlig for at behandle alt, hvad der har med struktur og grafik at gøre. Men hvor meget ved du om denne hardware? Nå her forklarer vi alt, eller noget mindre alt, hvad vi betragter som vigtigste.

Indholdsindeks

Grafikkortet og spilletiden

Uden tvivl er det mest anvendte udtryk til navngivelse af GPU'er et grafikkort, selvom det ikke er nøjagtigt det samme, og vi vil forklare det. En GPU- eller grafikbehandlingsenhed er dybest set en processor, der er bygget til at håndtere grafik. Udtrykket lyder naturligvis meget ligner CPU, så det er vigtigt at skelne mellem de to elementer.

Når vi taler om et grafikkort, taler vi virkelig om den fysiske komponent. Dette er bygget fra en PCB, der er uafhængig af bundkortet og forsynet med et stik, normalt PCI-Express, som det vil forbindes til selve bundkortet. På denne PCB har vi GPU installeret, og også den grafiske hukommelse eller VRAM sammen med komponenter som VRM, forbindelsesporte og kølepladen med dens fans.

Spil ville ikke eksistere, hvis det ikke var til grafikkort, især hvis vi taler om computere eller pc'er. I begyndelsen vil alle vide, at computere ikke havde en grafisk grænseflade, vi havde kun en sort skærm med en promp til at indtaste kommandoer. Disse grundlæggende funktioner er langt fra nu i spiltiden, hvor vi har udstyr med en perfekt grafisk grænseflade og i enorme opløsninger, der giver os mulighed for at styre miljøer og karakterer næsten som om det var det virkelige liv.

Hvorfor adskille GPU og CPU

For at tale om proprietære grafikkort, skal vi først vide, hvad de bringer os, og hvorfor de er så vigtige i dag. I dag kunne vi ikke forestille os en spillecomputer uden en fysisk separat CPU og GPU.

Hvad gør CPU'en?

Her har vi det ganske enkelt, fordi vi alle kan få en idé om, hvad mikroprocessoren gør på en computer. Det er den centrale behandlingsenhed, gennem hvilken alle instruktioner, der genereres af programmerne, og en stor del af dem, der sendes af perifere enheder og brugeren, selv passerer igennem. Programmerne er dannet af en række instruktioner, der vil blive udført for at generere et svar baseret på en input-stimulus, det kan være et simpelt klik, en kommando eller selve operativsystemet.

Nu kommer en detalje, som vi skal huske, når vi ser, hvad GPU er. CPU'en består af kerner, og vi kan sige en stor størrelse. Hver af dem er i stand til at udføre den ene instruktion efter den anden, jo flere kerner, da flere instruktioner kan udføres på samme tid. Der er mange typer programmer på en pc, og mange typer instruktioner, der er meget komplekse og opdelt i flere faser. Men sandheden er, at et program ikke genererer et stort antal af disse instruktioner parallelt. Hvordan sikrer vi os, at CPU'en "forstår" ethvert program, vi installerer? Hvad vi har brug for er få kerner, meget komplekse, og det er meget hurtigt at udføre instruktionerne hurtigt, så vi vil bemærke, at programmet er flydende og reagerer på det, vi beder om det.

Disse grundlæggende instruktioner er reduceret til matematiske operationer med heltal, logiske operationer og også nogle flydende punktoperationer. Sidstnævnte er de mest komplicerede, da de er meget store reelle tal, der skal repræsenteres i mere kompakte elementer ved hjælp af videnskabelig notation. Understøttelse af CPU'en er RAM, hurtig lagring, der gemmer kørende programmer og deres instruktioner til at sende dem over en 64-bit bus til CPU'en.

Og hvad gør GPU'en

Netop GPU er tæt knyttet til disse flydende punkt operationer, som vi har talt om tidligere. Faktisk bruger en grafikprocessor praktisk talt al sin tid på at udføre disse typer operationer, da de har meget at gøre med grafiske instruktioner. Af denne grund kaldes det ofte en matematisk coprocessor, der er faktisk en inden i CPU'en, men meget enklere end GPU'en.

Hvad er et spil lavet af? Tja, dybest set pixelbevægelsen takket være en grafikmotor. Det er intet andet end et program, der fokuserer på at efterligne et digitalt miljø eller en verden, hvor vi bevæger os, som om det var vores eget. I disse programmer har de fleste instruktioner at gøre med pixels og deres bevægelse til at danne strukturer. Disse strukturer har til gengæld farve, 3D-lydstyrke og fysiske egenskaber ved lysreflektion. Alt dette er dybest set flytningspunktoperationer med matrixer og geometrier, der skal udføres samtidigt.

Derfor har en GPU ikke 4 eller 6 kerner, men tusinder af dem, til at udføre alle disse specifikke operationer parallelt igen og igen. Ja, disse kerner er ikke så "smarte" som CPU-kernerne, men de kan udføre meget mere operationer af denne type på én gang. GPU'en har også sin egen hukommelse, GRAM, som er meget hurtigere end normalt RAM. Den har en meget større bus mellem 128 og 256 bit for at sende meget mere instruktioner til GPU.

I den video, som vi forlader dig knyttet, emulerer mytejægerne driften af ​​en CPU og en GPU og med hensyn til deres antal kerner, når det kommer til at male et billede.

youtu.be/-P28LKWTzrI

Hvad CPU og GPU gør sammen

På dette tidspunkt har du måske allerede troet, at CPU'en på spilcomputer også påvirker den endelige ydelse af spillet og dets FPS. Det er klart, og der er mange instruktioner, der er CPU's ansvar.

CPU'en er ansvarlig for at sende data i form af vertikater til GPU'en, så den "forstår", hvilke fysiske transformationer (bevægelser) den skal gøre til teksturer. Dette kaldes Vertex Shader eller bevægelsesfysik. Herefter får GPU information om, hvilken af ​​disse vertikater der vil være synlige, hvilket gør den såkaldte pixelklipning ved rasterisering. Når vi allerede kender formen og dens bevægelse, er det på tide at anvende teksturer, i Full HD, UHD eller en hvilken som helst opløsning, og deres tilsvarende effekter, ville det være Pixel Shader- processen .

Af samme grund, jo mere strøm CPU'en har, jo mere toppunktinstruktioner kan den sende til GPU'en, og jo bedre vil den låse den. Så den vigtigste forskel mellem disse to elementer ligger i specialiseringsniveauet og graden af ​​parallelisme i behandlingen af ​​GPU.

Hvad er en APU?

Vi har allerede set, hvad en GPU er, og dens funktion på en pc og forholdet til processoren. Men det er ikke det eneste eksisterende element, der er i stand til at håndtere 3D-grafik, og det er derfor, vi har APU eller Accelerated Processor Unit.

Dette udtryk blev opfundet af AMD for at navngive sine processorer med en GPU integreret i den samme pakke. Det betyder faktisk, at vi inden i selve processoren har en chip eller bedre sagt, et chipset, der består af flere kerner, der er i stand til at arbejde med 3D-grafik på samme måde som et grafikkort gør. Faktisk har mange af nutidens processorer denne type processor, kaldet IGP (Integrated Graphics Processor) i sig selv.

Men selvfølgelig kan vi først og fremmest ikke sammenligne ydelsen på et grafikkort med tusinder af interne kerner med en IGP integreret i selve CPU'en. Så dens behandlingskapacitet er stadig meget lavere med hensyn til bruttoeffekt. Hertil kommer, at vi ikke har en dedikeret hukommelse så hurtigt som GDDR på grafikkortene, hvilket er nok med en del af RAM-hukommelsen til dens grafiske styring.

Vi kalder uafhængige grafikkort dedikerede grafikkort, mens vi kalder IGP interne grafikkort. Intel Core ix-processorer har næsten alle dem en integreret GPU kaldet Intel HD / UHD Graphics, undtagen modellerne med "F" i slutningen. AMD gør det samme med nogle af sine CPU'er, specifikt Ryzen fra G-serien og Athlon, med grafik kaldet Radeon RX Vega 11 og Radeon Vega 8.

Lidt historie

Langt er de gamle computere med kun tekst, som vi har nu, men hvis der har været noget i alle aldre, er det ønsket om at skabe mere detaljerede virtuelle verdener for at fordype os indeni.

I det første generelle forbrugerudstyr med Intel 4004, 8008 og firmaprocessorer havde vi allerede grafikkort, eller noget lignende. Disse var kun begrænset til at fortolke koden og vise den på en skærm i form af almindelig tekst på ca. 40 eller 80 kolonner, og selvfølgelig i sort / hvid. Faktisk blev det første grafikkort kaldet MDA (Monocrome Data Adapter). Det havde sin egen RAM på ikke mindre end 4 KB, for at gengive perfekt grafik i form af almindelig tekst ved 80 × 25 kolonner.

Efter dette kom CGA (Color Graphics Adapter) grafikkort, i 1981 begyndte IBM at markedsføre det første farvegrafikort. Det var i stand til at gengive 4 farver samtidigt fra en intern 16 palet i en opløsning på 320 × 200. I teksttilstand var det i stand til at hæve opløsningen til 80 × 25 kolonner eller hvad der er lig med 640 × 200.

Vi bevæger os fremad med navnet HGC eller Hercules Grafikkort ! Et monokromt kort, der hævede opløsningen til 720 × 348 og var i stand til at arbejde sammen med en CGA for at have op til to forskellige videoudgange.

Spring til kort med rig grafik

Eller snarere EGA, den Enharced Graphics Adapter, der blev oprettet i 1984. Dette var det første grafikkort i sig selv, der var i stand til at arbejde med 16 farver og opløsninger op til 720 × 540 til ATI Technologies- modeller, lyder det velkendt for dig, ikke?

I 1987 produceres en ny opløsning, og ISA- videokonnektoren opgives for at indføre VGA- porten (Video Graphics Array), også kaldet Sub15-D, en analog seriel port, der indtil for nylig er blevet brugt til CRT'er og endda paneler. TFT. De nye grafikkort hævede sin farvepalet til 256 og dens VRAM-hukommelse til 256 KB. På dette tidspunkt begyndte computerspil at udvikle sig med meget mere kompleksitet.

Det var i 1989, da grafikkort stoppede med at bruge farvepaletter og begyndte at bruge farvedybde. Med VESA-standarden som forbindelsen til bundkortet blev bussen udvidet til 32 bit, så de allerede var i stand til at arbejde med flere millioner farver og opløsninger op til 1024x768p takket være skærme med SuperVGA-porten. Kort så ikoniske som ATI Match 32 eller Match 64 med en 64-bit interface var blandt tidens bedste.

PCI-slot ankommer og med det revolutionen

VESA-standarden var et helvede af en stor bus, så i 1993 udviklede den sig til PCI-standarden, den, vi har i dag med sine forskellige generationer. Dette gjorde det muligt for os mindre kort, og mange producenter sluttede sig til festen som Creative, Matrox, 3dfx med deres Voodoo og Voodoo 2, og en Nvidia med dens første RIVA TNT og TNT2 modeller, der blev frigivet i 1998. På det tidspunkt dukkede de første specifikke biblioteker til 3D-acceleration op, såsom DirectX fra Microsoft og OpenGL fra Silicon Graphics.

Snart blev PCI-bussen for lille med kort, der var i stand til at adressere 16 bit og 3D-grafik i en opløsning på 800x600p, så AGP (Advanced Graphics Port) -bussen blev oprettet. Denne bus havde en 32-bit PCI-lignende interface, men øgede sin bus med 8 yderligere kanaler for at kommunikere med RAM hurtigere. Dens bus arbejdede på 66 MHz og 256 Mbps båndbredde, med op til 8 versioner (AGP x8), der nåede op til 2, 1 GB / s, og som i 2004 ville blive erstattet af PCIe-bussen.

Her har vi allerede meget godt etableret de to store 3D-grafikkortselskaber som Nvidia og ATI. Et af de første kort, der markerede den nye æra, var Nvidia GeForce 256, der implementerede T&L-teknologi (belysnings- og geometriberegninger). Derefter placering over sine rivaler for at være den første 3D polygon grafikaccelerator og Direct3D kompatibel. Kort efter frigav ATI sin første Radeon og således udformede begge producenters navne til sine grafikkort til spil, der varer indtil i dag, selv efter købet af ATI af AMD.

PCI Express-bus og aktuelle grafikkort

Og endelig kommer vi til den aktuelle æra af grafikkort, da VGA-interface i 2004 ikke fungerede mere og blev erstattet af PCI-Express. Denne nye bus tilladte overførsler på op til 4 GB / s både op og ned samtidigt (250 MB x16 baner). Oprindeligt ville den være tilsluttet nordbroen på bundkortet og ville bruge en del af RAM til video med navnet TurboCaché eller HyperMemory. Men senere med inkorporeringen af ​​nordbroen i selve CPU'en, ville disse 16 PCIe-baner gå i direkte kommunikation med CPU'en.

Tiden med ATI Radeon HD og Nvidia GeForce begyndte og blev de førende eksponenter for grafikkort til computere på markedet. Nvidia ville snart gå foran med en GeForce 6800, der understøttede DirectX 9.0c versus en ATI Radeon X850 Pro, der var lidt bagpå. Herefter udviklede begge mærker den samlede shader-arkitektur med deres Radeon HD 2000 og deres GeForce 8- serie. Faktisk var den kraftfulde Nvidia GeForce 8800 GTX et af de mest kraftfulde kort i sin generation, og endda dem, der kom efter det, idet Nvidias endelige spring til overherredømme var. I 2006 var det, da AMD købte ATI, og deres kort blev omdøbt til AMD Radeon.

Endelig står vi på kort, der er kompatible med DirectX 12, Open GL 4.5 / 4.6- biblioteker, hvor det første er Nvidia GTX 680 og AMD Radeon HD 7000. Efterfølgende generationer er kommet fra de to fabrikanter, for Nvidia har vi Maxwell (GeForce 900), Pascal (GeForce 10) og Turing (Geforce 20) arkitekturer, mens AMD har Polaris (Radeon RX), GCN (Radeon Vega) og nu RDNA (Radeon RX 5000).

Dele og hardware på et grafikkort

Vi vil se hoveddelene på et grafikkort for at identificere, hvilke elementer og teknologier vi skal vide, når vi køber et. Naturligvis går teknologien langt frem, så vi gradvist opdaterer det, vi ser her.

Chipset eller GPU

Vi ved allerede godt, hvad funktionen af ​​grafikprocessoren på et kort er, men det vil være vigtigt at vide, hvad vi har inde. Det er kernen i det, og indeni finder vi et stort antal kerner, der er ansvarlige for at udføre forskellige funktioner, især i den arkitektur, der i øjeblikket bruges af Nvidia. Inde inde finder vi de respektive kerner og cachehukommelsen, der er knyttet til chippen, som normalt har L1 og L2.

Inde i en Nvidia GPU finder vi CUDA- eller CUDA-kernerne, der så at sige er ansvarlige for at udføre de generelle flydepunktsberegninger. Disse kerner på AMD-kort kaldes Stream Processors. Det samme antal på kort fra forskellige producenter betyder ikke den samme kapacitet, da disse afhænger af arkitekturen.

Derudover har Nvidia også Tensor-kerner og RT-kerner. Disse kerner er beregnet til processoren med mere komplekse instruktioner om realtidsstrålesporing, en af ​​de vigtigste muligheder på producentens nye generationskort.

GRAM hukommelse

GRAM-hukommelsen har praktisk talt den samme funktion som RAM-hukommelsen på vores computer og gemmer de strukturer og elementer, der skal behandles i GPU. Derudover finder vi meget store kapaciteter, med mere end 6 GB i øjeblikket på næsten alle avancerede grafikkort.

Det er en hukommelse af DDR-type, ligesom RAM, så dens effektive frekvens vil altid være det dobbelte af urfrekvensen, noget at huske på, når det kommer til overklokering og specifikationsdata. I øjeblikket bruger de fleste kort GDDR6-teknologi, hvis de hører DDR6, mens de i normal RAM er DDR4. Disse erindringer er meget hurtigere end DDR4 og når frekvenser op til 14.000 MHz (14 Gbps) effektivt med et ur på 7.000 MHz. Derudover er deres busbredde meget større og når nogle gange 384 bit på Nvidia top rækkevidde.

Men der er stadig en anden hukommelse, som AMD har brugt til sin Radeon VII, i tilfælde af HBM2. Denne hukommelse har ikke hastigheder så høje som GDDR6, men tilbyder os i stedet en brutal busbredde på op til 2048 bit.

VRM og TDP

VRM er det element, der er ansvarlig for at levere strøm til alle grafikkortets komponenter, især GPU og dens GRAM-hukommelse. Det består af de samme elementer som VRM fra et bundkort, med dens MOSFETS fungerer som DC-DC strøm ensrettere, dets Chokes og dens kondensatorer. Tilsvarende er disse faser opdelt i V_core og V-SoC for GPU og hukommelse.

På TDP-siden betyder det også nøjagtigt det samme som på en CPU. Det handler ikke om den strøm, der forbruges af processoren, men strømmen i form af varme, som den genererer arbejdende maksimal belastning.

For at bruge kortet har vi brug for et strømstik. I øjeblikket bruges 6 + 2-pin-konfigurationer til kortene, da selve PCIe-slotten kun er i stand til at levere maksimalt 75W, mens en GPU kan forbruge mere end 200W.

Forbindelsesgrænseflade

Forbindelsesgrænsefladen er måden at forbinde grafikkortet til bundkortet. I øjeblikket fungerer absolut alle dedikerede grafikkort via PCI-Express 3.0-bussen undtagen de nye AMD Radeon XR 5000-kort, som er blevet opgraderet til PCIe 4.0 Bus.

Af praktiske formål vil vi ikke bemærke nogen forskel, da mængden af ​​data, der i øjeblikket udveksles på denne 16-linjebus, er meget mindre end dens kapacitet. Af nysgerrighed er PCIe 3.0 x16 i stand til at bære 15, 8 GB / s op og ned samtidig, mens PCIe 4.0 x16 fordobler kapaciteten til 31, 5 GB / s. Snart er alle GPU'er PCIe 4.0, dette er indlysende. Vi behøver ikke at bekymre os om at have et PCIe 4.0-kort og et 3.0-kort, da standarden altid tilbyder bagudkompatibilitet.

Video-porte

Sidst men ikke mindst har vi videokonnektorerne, dem, som vi har brug for for at forbinde vores skærm eller skærme og få billedet. På det nuværende marked har vi fire typer videoforbindelse:

  • HDMI: High-Definition Multimedia Interface er en kommunikationsstandard til ukomprimeret billede og lyd multimedieenheder. HDMI-versionen vil påvirke den billedkapacitet, vi kan få fra grafikkortet. Den seneste version er HDMI 2.1, der tilbyder en maksimal opløsning på 10K, der spiller 4K ved 120Hz og 8K ved 60Hz. Mens version 2.0 tilbyder 4K @ 60Hz i 8 bit. DisplayPort: Det er også en seriel grænseflade med ukomprimeret lyd og billede. Som tidligere vil versionen af ​​denne port være meget vigtig, og vi har brug for den til at være mindst 1, 4, da denne version har støtte til at spille indhold i 8K ved 60 Hz og i 4K ved 120 Hz med ikke mindre end 30 bit. og i HDR. Uden tvivl det bedste i dag. USB-C: USB Type-C når flere og flere enheder på grund af sin høje hastighed og dens integration med grænseflader som DisplayPort og Thunderbolt 3 ved 40 Gbps. Denne USB har DisplayPort alternativ tilstand, der er DisplayPort 1.3, med support til at vise billeder i 4K opløsning ved 60 Hz. Tilsvarende er Thunderbolt 3 i stand til at afspille indhold i UHD under de samme betingelser. DVI: det er et usandsynligt stik at finde det i aktuelle skærme, hvilket er udviklingen af ​​VGA til et high definition digitalt signal. Hvis vi bedre end bedre kan undgå det, er den mest udbredte DVI-DL.

Hvor kraftfuldt er et grafikkort

For at henvise til styrken på et grafikkort er det nødvendigt at kende nogle koncepter, der normalt vises i dets specifikationer og benchmarks. Dette vil være den bedste måde at kende grundigt det grafikkort, vi vil købe, og også vide, hvordan man sammenligner det med konkurrencen.

FPS-sats

FPS er Framerate eller Frames per Second. Det måler den frekvens, hvorpå skærmen viser billederne af en video, et spil eller hvad der er repræsenteret på det. FPS har meget at gøre med, hvordan vi opfatter bevægelse i et billede. Jo mere FPS, jo mere flydende fornemmelse af et billede vil give os. Ved en hastighed på 60 FPS eller højere vil det menneskelige øje under normale forhold sætte pris på et fuldt flydende billede, som ville simulere virkeligheden.

Men alt afhænger naturligvis ikke af grafikkortet, da skærmens opdateringshastighed markerer den FPS, vi vil se. FPS er det samme som Hz, og hvis en skærm er 50 Hz, vil spillet blive vist på maksimalt 60 FPS, selvom GPU er i stand til at spille det på 100 eller 200 FPS. For at vide, hvad der ville være den maksimale FPS-sats, som GPU'en kunne være i stand til at repræsentere, er vi nødt til at deaktivere lodret synkronisering i spilindstillingerne.

Arkitektur af din GPU

Før vi har set, at GPU'er har et vist antal fysiske kerner, hvilket kunne få os til at tro, at jo mere, jo bedre ydeevne vil det bringe os. Men det er ikke nøjagtigt det, da ydelsen, som med CPU-arkitekturen, varierer, selv med den samme hastighed og de samme kerner. Vi kalder dette IPC eller instruktioner pr. Cyklus.

Arkitekturen af ​​grafikkort har udviklet sig over tid til at have simpelthen spektakulære forestillinger. De er i stand til at understøtte 4K-opløsninger over 60Hz eller endda 8K-opløsninger. Men vigtigst af alt er det dens store evne til at animere og gengive teksturer med lys i realtid, ligesom vores øjne gør i det virkelige liv.

I øjeblikket har vi Nvidia med sin Turing-arkitektur, der bruger 12nm FinFET-transistorer til at opbygge chipsætene i den nye RTX. Denne arkitektur har to differentielle elementer, der indtil nu ikke eksisterede i forbrugerudstyr, Ray Tracing- funktionen i realtid og DLSS (Deep Learning Super Sampling). Den første funktion forsøger at simulere, hvad der sker i den virkelige verden, ved at beregne, hvordan lys påvirker virtuelle objekter i realtid. For det andet er det en række kunstige intelligensalgoritmer, som kortet gengiver teksturer med i en lavere opløsning for at optimere spillets ydelse, det er som en slags antialiasing. Det ideelle er at kombinere DLSS og Ray Tracing.

Af AMD har den også frigivet arkitektur, skønt det er rigtigt, at det sameksisterer med de umiddelbart tidligere, for at have en bred vifte af kort, som, selv om det er sandt, ikke er på niveau med topvidde af Nvidia. Med RDNA har AMD øget IPC'en for sine GPU'er med 25% sammenlignet med CNG-arkitekturen og således opnået 50% mere hastighed for hver forbrugt watt.

Urfrekvens og turbotilstand

Sammen med arkitekturen er to parametre meget vigtige for at se ydeevnen for en GPU, som er dem for dens basisurfrekvens og stigningen i fabriksturbo eller overklokeringstilstand. Som med CPU'er er GPU'er også i stand til at variere deres grafikbehandlingsfrekvens efter behov på ethvert givet tidspunkt.

Hvis du ser, er frekvenserne på grafikkort meget lavere end for processorer, og er omkring 1600-2000 MHz. Dette skyldes, at det større antal kerner leverer behovet for en højere frekvens for at kontrollere kortets TDP.

På dette tidspunkt vil det være vigtigt at vide, at vi på markedet har referencemodeller og personaliserede kort. De første er de modeller, der er frigivet af producenterne selv, Nvidia og AMD. For det andet tager producenterne dybest set GPU'er og erindringer for at samle deres egne med komponenter med højere ydeevne og heatsinks. Tilfældet er, at urets frekvens også ændrer sig, og disse modeller har en tendens til at være hurtigere end referencetyperne.

TFLOPS

Sammen med urfrekvensen har vi FLOPS (Floating Point Operations per sekund). Denne værdi måler de flydende punktoperationer, som en processor er i stand til at udføre i et sekund. Det er et tal, der måler GPU's bruttoeffekt og også CPU'erne. I øjeblikket kan vi ikke blot tale om FLOSP, været fra TeraFLOPS eller TFLOPS.

Vi skal ikke forveksle med at tro, at flere TFLOPS vil betyde, at vores grafikkort er bedre. Dette er normalt tilfældet, da du burde være i stand til at flytte teksturer mere frit. Men andre elementer, såsom mængden af ​​hukommelse, dens hastighed og arkitekturen i GPU og dens cache vil gøre forskellen.

TMU'er og ROP'er

Dette er termer, der vises på alle grafikkort, og de giver os en god idé om det samme arbejdshastighed.

TMU står for Texture Mapping Unit. Dette element er ansvarlig for dimensionering, rotering og forvrængning af et bitmapbillede for at placere det i en 3D-model, der fungerer som en tekstur. Med andre ord anvender det et farvekort på et 3D-objekt, som a priori vil være tomt. Jo mere TMU, jo højere tekstureringsydelse, desto hurtigere udfyldes pixels, og jo mere FPS får vi. Nuværende TMU'er inkluderer Teksturretningsenheder (TA) og Teksturfilterenheder (TF).

Nu vender vi os for at se ROP'erne eller rasterenhederne. Disse enheder behandler tekstinformation fra VRAM-hukommelsen og udfører matrix- og vektoroperationer for at give en endelig værdi til pixlen, hvilket vil være dens dybde. Dette kaldes rasterisering og styrer dybest set Antialiasing eller sammenlægningen af ​​de forskellige pixelværdier, der er placeret i hukommelsen. DLSS er netop en udvikling af denne proces at generere

Mængde hukommelse, båndbredde og busbredde

Vi ved, at der er flere typer teknologier til VRAM-hukommelse, hvoraf i øjeblikket den mest anvendte er GDDR5 og GDDR6, med en hastighed på op til 14 Gbps for sidstnævnte. Som med RAM, jo mere hukommelse er, jo mere pixel, tekst og tekstdata kan vi gemme. Dette har stor indflydelse på den opløsning, som vi spiller, detaljeringsniveauet i verden og synsafstanden. I øjeblikket har et grafikkort brug for mindst 4 GB VRAM for at kunne arbejde med den nye generation af spil på Full HD og højere opløsninger.

Hukommelsesbussbredden repræsenterer antallet af bit, der kan transmitteres i et ord eller en instruktion. Disse er meget længere end dem, der bruges af CPU'er, med længder mellem 192 og 384 bit, lad os huske konceptet med parallelisme i processen.

Hukommelsesbåndbredde er den mængde information, der kan overføres pr. Tidsenhed og måles i GB / s. Jo større busbredde og større hukommelsesfrekvens, desto mere båndbredde vil vi have, fordi jo større mængde information der kan rejse gennem den. Det er ligesom Internettet.

API-kompatibilitet

En API er dybest set et sæt biblioteker, der bruges til at udvikle og arbejde med forskellige applikationer. Det betyder applikationsprogrammering og er det middel, hvor forskellige applikationer kommunikerer med hinanden.

Hvis vi flytter til multimedieverdenen, har vi også API'er, der tillader drift og oprettelse af spil og video. Den mest berømte af alle vil være DirectX, som er i sin 12. version siden 2014, og i de seneste opdateringer har den implementeret Ray Tracing, programmerbare MSAA og virtual reality-muligheder. Open source-versionen er OpenGL, som er version 4.5 og bruges også af mange spil. Endelig har vi Vulkan, en API specielt udviklet til AMD (dens kildekode var fra AMD og den blev overført til Khronos).

Overklokkefunktion

Før vi talte om turbofrekvensen for GPU'erne, men det er også muligt at øge den over dens grænser ved at overklokke den. Denne praksis forsøger dybest set at finde mere FPS i spil, mere flydende for at forbedre vores respons.

CPU'ernes overklokkekapacitet er omkring 100 eller 150 MHz, selvom nogle er i stand til at understøtte noget mere eller noget mindre, afhængigt af deres arkitektur og maksimale frekvens.

Men det er også muligt at overlåse GDDR-minderne og også meget. En gennemsnitlig GDDR6-hukommelse, der arbejder ved 7000 MHz, understøtter uploads på op til 900 og 1000 MHz, og når således op til 16 Gbps effektive. Faktisk er det det element, der øger FPS-hastigheden for spillet mest, med stigninger på endda 15 FPS.

Nogle af de bedste overklockningsprogrammer er Evga Precision X1, MSI AfterBurner og AMD WattMan for Radeons. Selvom mange producenter har deres egne, såsom AORUS, Farverig, Asus osv.

Test benchmarks for grafikkort

Benchmarks er stress- og ydelsestest, som visse hardwaretilskud på vores pc gennemgår for at evaluere og sammenligne deres ydelse med andre produkter på markedet. Der er selvfølgelig benchmarks til at evaluere ydelsen af ​​grafikkort, og endda grafik-CPU-sæt.

Disse test viser næsten altid en dimensionsfri score, det vil sige, den kan kun købes med dem, der er genereret af det pågældende program. På den modsatte side er FPS'en og for eksempel TFLOPS. De mest anvendte programmer til grafikkort benchmarks er 3DMark, der har et stort antal forskellige test, PassMark, VRMark eller GeekBench. De har alle deres egen statistiktabel til at købe vores GPU med konkurrencen.

Størrelse betyder noget… og køleren også

Selvfølgelig betyder det vigtige venner, så inden vi køber et grafikkort, er det mindste, vi kan gøre, at gå til dets specifikationer og se, hvad det måler. Lad os derefter gå til vores chassis og måle, hvilken plads vi har til rådighed til det.

Dedikerede grafikkort har meget kraftige GPU'er med TDP på ​​over 100W i dem alle. Dette betyder, at de faktisk bliver ret varme end faktisk varmere end processorer. Af denne grund har alle dem store heatsinks, der optager næsten hele elektronik-printkortet.

På markedet kan vi stort set finde to typer kølelegemer.

  • Blæser: Denne type køleplade er for eksempel den, der har referencemodellerne AMD Radeon RX 5700 og 5700 XT eller den forrige Nvidia GTX 1000. En enkelt ventilator suger lodret luft og får den til at strømme gennem den finkyldte køleplade. Disse kølelegemer er meget dårlige, fordi det tager lidt luft, og hastigheden for passage gennem kølelegemet er lav. Axial flow: de er fans i livet, placeret lodret i kølelegemet og skubber luft mod finnerne, der senere kommer ud fra siderne. Det bruges i alle de tilpassede modeller til at være den, der giver den bedste ydelse. Jævn væskekøling: Nogle af topmodellerne har køleplader, der integrerer et væskekølesystem, for eksempel Asus Matrix RTX 2080 Ti.

Personlige kort

Vi kalder grafikmodeller samlet af generiske hardwareproducenter som Asus, MSI, Gigabyte osv. Disse køber direkte grafikchips og minder fra hovedproducenten, AMD eller Nvidia, og monterer dem derefter på en printplade lavet af dem sammen med en køleplade, der også er oprettet af dem.

Den gode ting ved dette kort er, at de kommer overklokkede fra fabrikken med en højere frekvens end referencemodellerne, så de vil yde lidt mere. Dens køleplade er også bedre og dens VRM, og endda mange har RGB. Den dårlige ting er, at de normalt er dyrere. Et andet positivt aspekt er, at de tilbyder mange typer størrelser, til ATX, Micro ATX eller endda ITX-chassis, med meget små og kompakte kort.

Hvordan er GPU eller grafikkort på en gaming-bærbar computer

Vi undrer os bestemt på, om en bærbar computer også kan have et dedikeret grafikkort, og sandheden er, at den gør det. I professionel gennemgang analyserer vi faktisk et stort antal gaming-bærbare computere med en dedikeret GPU.

I dette tilfælde vil det ikke blive installeret på et udvidelseskort, men chipsættet bliver direkte loddet på den bærbare pcBs hovedkort og meget tæt på CPU'en. Disse design kaldes normalt Max-Q, fordi de ikke har en finnet køleplade og har et specifikt område i bundpladen til dem.

På dette område er den ubestridte konge Nvidia med sin RTX og GTX Max-Q. De er chips, der er optimeret til bærbare computere, og som forbruger 1/3 sammenlignet med desktopmodeller og ofrer kun 30% af deres ydelse. Dette opnås ved at reducere dens urfrekvens, undertiden ved at fjerne nogle kerner og bremse GRAM.

Hvilken CPU monterer jeg i henhold til mit grafikkort

For at spille såvel som at udføre alle slags opgaver på vores computer, er vi altid nødt til at finde en balance i vores komponenter for at undgå flaskehalse. Ved at reducere dette til verdenen af ​​spil og vores grafikkort skal vi opnå en balance mellem GPU og CPU, så ingen af ​​dem kommer til kort, og de andre misbruger for meget. Vores penge står på spil, og vi kan ikke købe en RTX 2080 og installere dem med en Core i3-9300F.

Den centrale processor har en vigtig rolle i arbejdet med grafik, som vi allerede har set i tidligere sektioner. Så vi er nødt til at sikre, at det har nok hastighed, kerner og forarbejdningstråde til at arbejde med fysik og bevægelse af spillet eller videoen og sende dem til grafikkortet så hurtigt som muligt.

Under alle omstændigheder har vi altid muligheden for at ændre grafikindstillingerne i spillet for at reducere effekten af ​​en CPU, der er for langsom til kravene. I tilfælde af GPU er det let at kompensere for dets manglende ydeevne, blot ved at sænke opløsningen opnår vi gode resultater. Med CPU'en er det anderledes, da selv om der er færre pixels, vil fysik og bevægelse forblive næsten den samme, og at sænke kvaliteten af ​​disse indstillinger kan i høj grad påvirke den rigtige spiloplevelse. Her er nogle muligheder, der påvirker CPU'en og andre på GPU:

De påvirker GPU De påvirker CPU
Generelt gengivelsesindstillinger Generelt de fysiske muligheder
antialiasing Karakterbevægelse
Ray Tracing Elementer, der vises på skærmen
textures partikler
tessellation
postprocessing
opløsning
Miljøbeskadigelse

Når vi ser dette, kan vi skabe en mere eller mindre generel balance, der klassificerer udstyret efter det formål, som de er bygget til. Dette vil gøre det lettere at opnå mere eller mindre afbalancerede specifikationer.

Billig multimedia og kontorudstyr

Vi starter med det mest basale eller i det mindste det, vi betragter som mere grundlæggende bortset fra mini-pc'erne med Celeron. Angiveligt, hvis vi ledte efter noget billigt, ville det bedste være at gå til AMDs Athlon-processorer eller Intels Pentium Gold. I begge tilfælde har vi integreret grafik på godt niveau, såsom Radeon Vega i første omgang, eller UHD-grafik i tilfælde af Intel, der understøtter høje opløsninger og en anstændig ydelse i krævende opgaver.

På dette felt er det helt meningsløst at købe et dedikeret grafikkort. Det er CPU'er med to kerner, der ikke vil give nok til at amortisere omkostningerne ved et kort. Desuden giver den integrerede grafik os en ydelse, der ligner det, en dedikeret GPU på 80-100 euro ville tilbyde.

Generelt udstyr og low-end spil

Vi kan betragte et almindeligt udstyr som et udstyr, der vil reagere godt under mange forskellige omstændigheder. For eksempel at surfe, arbejde på kontoret, lave små ting i design og endda redigere videoer på amatørplan og spille lejlighedsvis i Full HD (vi kan ikke komme her og bede om meget mere).

På dette område vil 4-core og højfrekvente Intel Core i3 skille sig ud, og især AMD Ryzen 3 3200G og 5 3400G med integreret Radeon RX Vega 11-grafik og en meget justeret pris. Disse Ryzen er i stand til at flytte et sidste generations spil med værdighed i lav kvalitet og Full HD. Hvis vi ønsker noget lidt bedre, lad os gå videre til det næste.

Computer med grafikkort til mellem- og høj rækkevidde

Som mellemklasse-spil havde vi allerede råd til en Ryzen 5 2600 eller en Core i5-9400F for mindre end 150 euro og tilføj en dedikeret GPU som Nvidia 1650, 1660 og 1660 Ti eller AMD Radeon RX 570, 580 eller 590. Det er ikke dårlige muligheder, hvis vi ikke ønsker at bruge mere end 250 euro på et grafikkort.

Men selvfølgelig, hvis vi ønsker mere, skal vi ofre, og det er, hvad det er, hvis vi ønsker at opnå en optimal spiloplevelse i Full HD eller 2K i høj kvalitet. I dette tilfælde er de kommenterede processorer stadig en god mulighed for at være 6-core, men vi kunne gå op til Ryzen 5 3600 og 3600X og Intel Core i5-9600K. Med disse vil det være det værd at opgradere til Nvidias RTX 2060/2070 Super og AMD's RX 5700/5700 XT.

Entusiastisk spil- og designteam

Her vil der være en masse gengivelsesopgaver og spil, der kører med filtre maksimalt, så vi har brug for en CPU på mindst 8 kerner og et kraftfuldt grafikkort. AMD Ryzen 2700X eller 3700X vil være en fantastisk mulighed eller Intel Core i7 8700K eller 9700F. Sammen med dem fortjener vi en Nvidia RTX 2070 Super eller en AMD Radeon RX 5700 XT.

Og hvis vi vil være vores misundelses misundelse, lad os gå på en RTX 2080 Super, lad os vente lidt på Radeon 5800, og lad os få en AMD Ryzen 3900X eller en Intel Core i9-9900K. Threadrippers er ikke en gennemførlig mulighed på nuværende tidspunkt, selvom Intel X og XE på LGA 2066 platformen er og deres høje omkostninger.

Konklusion om grafikkortet og vores anbefalede modeller

Indtil videre kommer dette indlæg, hvor vi i detaljer nok forklarer den aktuelle status for grafikkort, såvel som lidt af deres historie fra begyndelsen af ​​dem. Det er et af de mest populære produkter i computerens verden, da en spil-pc helt sikkert vil yde meget mere end en konsol.

Rigtige gamere bruger computere til at spille, især inden for e-sport eller konkurrencedygtig spil over hele verden. I dem skal du altid prøve at opnå den størst mulige ydelse, øge FPS, reducere responstider og bruge komponenter designet til spil. Men intet ville være muligt uden grafikkort.

  • Hvilket grafikkort køber jeg? De bedste på markedet Bedste grafikkort på markedet
Android

Valg af editor

Back to top button