Vi forklarer, hvorfor amd forbedrer sig mere end nvidia, når man går til Directx 12

Indholdsfortegnelse:
- Overhead er årsagen til AMD's forbedring med DirectX 12
- Og hvorfor kan AMD ikke lide Nvidia?
- Og hvad med asynkrone Shaders?
Sikkert, du har læst eller hørt, at AMD-grafikkort er meget bedre i DirectX 12 end Nvidia, at den arkitektur, der er brugt af den førstnævnte, er meget mere parat til at arbejde med den nye generations API. Dette er bekræftelser, som vi normalt ser hver dag, men er AMD virkelig bedre end Nvidia i DirectX 12? Vi fortæller dig alt hvad du behøver at vide i dette indlæg.
Overhead er årsagen til AMD's forbedring med DirectX 12
Siden DirectX 12 begyndte at tale, har vi set sammenlignende grafer som følgende:
Denne grafik sammenligner to ækvivalente grafikkort som GeForce GTX 980 Ti og Radeon R9 Fury X, hvis vi går forbi de foregående billeder, ser vi, at AMD har en brutal præstationsgevinst, når de går fra DirectX 11 til DirectX 12, mod Nvidia, det forbliver lige eller endda mister ydeevnen, når du begynder at arbejde med den nye API. Når man ser dette, ville enhver bruger tro, at AMD-kortet er meget bedre end Nvidia-kortet.
Nu vender vi os til at se på følgende billede:
Denne gang sammenligner grafen ydelsen for GeForce GTX 980 Ti og Radeon R9 Fury X i DirectX 11 og DirectX 12. Det, vi kan se, er, at i DirectX 11 giver Nvidia-kortet næsten det dobbelte af AMD, og når man flytter til DirectX 12, ydes ydeevnen. Vi ser, at Radeon R9 Fury X forbedrer sin ydelse meget, når de skal arbejde med DirectX 12, og GeForce GTX 980 Ti forbedrer meget mindre. Under alle omstændigheder er ydeevnen for begge under DirectX 12 den samme, da forskellen ikke når op til 2 FPS til fordel for Fury X.
På dette tidspunkt må vi spørge os selv, hvorfor AMD har en sådan forbedring, når vi flytter til DirectX 12, og Nvidia forbedrer meget mindre. Fungerer AMD bedre under DirectX 12 end Nvidia, eller har det et stort problem under DirectX 11?
Svaret er, at AMD har et stort problem under DirectX 11, et problem, der får sine kort til at fungere dårligere end Nvidias. Dette problem er relateret til den brug, som kortdriverne bruger af processoren, et problem, der kaldes " Overhead " eller overbelastning.
AMD-grafikkort bruger meget ineffektiv brug af processoren under DirectX 11, for at kontrollere dette problem behøver vi kun at se på følgende videoer, der analyserer ydelsen på Radeon R7 270X og GeForce GTX 750 Ti med en Core- i7 4790K og derefter med en Core-i3 4130. Som vi kan se, mister AMD-grafen meget mere ydelse, når man arbejder med en langt mindre kraftig processor.
Far Cry 4
Ryse: Romas søn
COD Advanced Warfare
Nøglen til dette er i " kommandokøen " eller kommandolisterne under DirectX 11. På en meget enkel og forståelig måde kan vi sammenfatte det ved, at AMD-grafikkort tager alle tegneopkald til API og sætter dem i en enkelt processorkerne, dette gør dem meget afhængige af processorens enkelttrådede strøm, og derfor lider de meget, når de arbejder sammen med en mindre kraftig processor pr. kerne. Dette er grunden til, at AMDs grafik led meget med AMD FX-processorer, langt mindre kraftfuld pr. Kerne end Intels.
I stedet tager Nvidia lodtrækningerne til API og deler dem mellem de forskellige processorkerner, med dette er belastningen fordelt, og der bruges en meget mere effektiv anvendelse, og mindre strøm afhænger af processorens kerne. Som en konsekvens lider AMD meget mere overhead end Nvidia under DirectX 11.
Det er meget simpelt at kontrollere sidstnævnte, vi skal kun overvåge et AMD og et Nvidia-grafikkort under det samme spil og den samme processor, og vi vil se, hvordan alle kernerne i Nvidia fungerer på en meget mere afbalanceret måde.
Dette overheadproblem er løst under DirectX 12, og det er hovedårsagen til, at AMD-grafikkort har en enorm ydelsesgevinst, der går fra DirectX 11 til DirectX 12. Hvis vi ser på den følgende graf, kan vi se, hvordan ydelsen under DirectX 12 ikke længere går tabt, når vi går fra en dual-core processor til en af fire.
Og hvorfor kan AMD ikke lide Nvidia?
Nvidias implementering af kommandokøer i DirectX 11 er meget dyre, hvilket kræver en stor investering af penge og menneskelige ressourcer. AMD har været i en dårlig økonomisk situation, så den har ikke de samme ressourcer som Nvidia at investere. Derudover går fremtiden gennem DirectX 12, og der er ikke dette overheadproblem, da selve API'en er ansvarlig for at styre kommandokøer på en meget mere effektiv måde.
Derudover har Nvidia-metoden problemet med at være meget mere afhængig af optimeringen af driverne, så Nvidia er normalt den første til at frigive nye versioner af sine drivere, hver gang et vigtigt spil kommer på markedet, selvom AMD har sat stabler på dette for nylig. AMD's tilgang har fordelen ved at være langt mindre afhængig af drivere, så dens kort ikke har brug for nye versioner så presserende som Nvidias, dette er en af grundene til, at Nvidias grafikkort bliver dårligere med tid, hvor de ikke længere understøttes.
Og hvad med asynkrone Shaders?
Der har også været meget snak om Asynchronous Shaders, hvad angår dette skal vi kun sige, at det har fået en masse betydning, når overhead i virkeligheden er meget vigtigere og bestemmer ydelsen af grafikkortet. Nvidia understøtter dem også, selvom dens implementering er meget enklere end AMD, årsagen hertil er, at dens Pascal-arkitektur fungerer på en meget mere effektiv måde, så den ikke har brug for Asynchronous Shaders så meget som AMD.
AMD-grafik inkluderer ACE'er, der er en hardwaremotor dedikeret til asynkron computing, en hardware, der tager plads på chippen og forbruger energi, så implementeringen er ikke et indfald, men på grund af en stor mangel i Graphics Core-arkitekturen Næste fra AMD med geometri. AMD-arkitekturen er meget ineffektiv, når det kommer til at fordele arbejdsbyrden mellem de forskellige Compute Units og de kerner, der danner dem, hvilket betyder, at mange kerner er ude af arbejde og derfor spildt. Hvad ACE'er og asynkrone Shaders gør er at "give arbejde" til disse kerner, der er forblevet arbejdsløse, så de kan udnyttes.
I den anden del har vi Nvidia-grafikken baseret på Maxwell- og Pascal- arkitekturerne, disse er meget mere effektive i geometri, og antallet af kerner er meget lavere end AMD-grafikken. Dette gør Nvidia-arkitekturen meget mere effektiv, når det kommer til at dele arbejdet, og ikke så mange kerner er spildt som i tilfældet med AMD. Implementeringen af de asynkrone Shaders i Pascal udføres via software, da en hardwareimplementering ikke ville give næsten nogen ydelsesfordel, men det ville være et træk på størrelsen på chippen og dens energiforbrug.
Følgende graf viser præstationsgevinsten for AMD og Nvidia med Mark Time Spy 3D Asynchronous Shaders:
Hvorvidt Nvidia vil implementere Asynchronous Shaders hardware i fremtiden afhænger af fordelene, der opvejer skaden.
Xiaomi mi-blandingen viser sig at være meget mere modstandsdygtig end tidligere antaget

Jerry Rig Everything YouTube-kanalen er lavet med en Xiaomi Mi Mix for at udsætte den for sine forskellige torturtest med overraskende resultater.
Xiaomi går ikke til mwc 2017, hvorfor?

Xiaomi skal ikke til MWC 2017, ved de virkelige grunde til, at Xiaomi ikke går til Mobile World Congress 2017, fordi det ikke vil præsentere Xiaomi Mi6.
Facebook forklarer, hvorfor det viser dig visse indlæg

Facebook forklarer, hvorfor det viser dig visse indlæg. Find ud af mere om den nye funktion på det sociale netværk.