Android

Nvidia 【alle oplysninger】

Indholdsfortegnelse:

Anonim

Nvidia Corporation, mere almindeligt kendt som Nvidia, er et amerikansk teknologiselskab med hjemsted i Delaware og med base i Santa Clara, Californien. Nvidia designer grafiske behandlingsenheder til videospil og professionelle markeder samt et chip- enhedssystem (SoC) til bilindustrien og det mobile computermarked. Dets kerneprodukt, GeForce, er i direkte konkurrence med AMDs Radeon-produkter.

Vi anbefaler at læse vores bedste pc-hardware og komponentguider:

Ud over at fremstille GPU'er leverer Nvidia parallelle behandlingsfunktioner over hele verden til forskere og forskere, så de effektivt kan køre applikationer med høj ydeevne. For nylig er det flyttet ind på det mobile computermarked, hvor det producerer Tegra-mobile processorer til videospilkonsoller, tablets og autonome navigations- og køretøjsunderholdningssystemer. Dette har ført til, at Nvidia er blevet et firma med fokus på fire markeder siden 2014 : spil, professionel visualisering, datacentre og kunstig intelligens og biler.

Indholdsindeks

Nvidia historie

Nvidia blev grundlagt i 1993 af Jen-Hsun Huang, Chris Malachowsky og Curtis Priem. Virksomhedens tre medstiftere antog, at den rigtige retning for computing ville gå gennem grafik-accelereret behandling, idet de troede, at denne computermodel kunne løse problemer, som almindelig computing ikke kunne løse. De bemærkede også , at videospil er nogle af de mest beregningsmæssigt udfordrende problemer, og at de har utroligt høje salgsmængder.

Fra et lille videospilsfirma til en kunstig intelligensgigant

Virksomheden blev født med en startkapital på $ 40.000, havde oprindeligt intet navn, og medstifterne navngav alle dens NV-filer, som i "næste udgivelse." Behovet for at inkorporere virksomheden fik medstifterne til at gennemgå alle ordene med disse to bogstaver, hvilket førte dem til "invidia", det latinske ord, der betyder "misundelse".

Lanceringen af RIVA TNT i 1998 befæstede Nvidias omdømme for at udvikle grafikadaptere. I slutningen af ​​1999 frigav Nvidia GeForce 256 (NV10), som mest bemærkelsesværdigt introducerede transformering og belysning på forbrugerniveau (T&L) i 3D-hardware. Den arbejdede ved 120 MHz og indeholdt fire linjer med pixels, og implementerede avanceret videoacceleration, bevægelseskompensation og hardware-underbilledblanding. GeForce overgik bedre end eksisterende produkter med en bred margin.

På grund af suksessen med sine produkter vandt Nvidia kontrakten om at udvikle den grafiske hardware til Microsofts Xbox-spilkonsol og tjente Nvidia med et forskud på $ 200 millioner. Projektet tog imidlertid mange af sine bedste ingeniører fra andre projekter. På kort sigt gjorde dette ikke noget, og GeForce2 GTS blev sendt i sommeren 2000. I december 2000 nåede Nvidia en aftale om at erhverve de intellektuelle aktiver i sin eneste rival 3dfx, en pioner inden for 3D-grafik-teknologi til forbrugeren. der førte feltet fra midten af ​​1990'erne til 2000. Erhvervelsesprocessen sluttede i april 2002.

I juli 2002 erhvervede Nvidia Exluna for et ikke offentliggjort beløb. Exluna var ansvarlig for at skabe forskellige softwaregendannelsesværktøjer. Senere, i august 2003, erhvervede Nvidia MediaQ for cirka 70 millioner dollars. Og den erhvervede også iReady, en udbyder af high-performance TCP / IP og iSCSI offload-løsninger den 22. april 2004.

Så stor var Nvidias succes på videospilmarkedet, at det i december 2004 blev annonceret, at det ville hjælpe Sony med designet af PlayStation 3s RSX-grafikprocessor, den nye generation videospilkonsol fra det japanske firma, der det havde den svære opgave at gentage succes fra sin forgænger, den bedst sælgende i historien.

I december 2006 modtog Nvidia citater fra det amerikanske justitsministerium. Med hensyn til mulige antitrustovertrædelser inden for grafikkortbranchen. På det tidspunkt var AMD blevet dens store rival, efter sidstnævnte køb af ATI. Siden da har AMD og Nvidia været de eneste producenter af grafikkort til videospil og ikke glemt Intels integrerede chips.

Forbes udnævnte Nvidia til Årets Bedste Virksomhed for 2007, med henvisning til de resultater, det har gjort i de sidste fem år. Den 5. januar 2007 meddelte Nvidia, at den havde afsluttet købet af PortalPlayer, Inc, og i februar 2008 erhvervede Nvidia Ageia, udvikler af PhysX-fysikmotoren og fysikbehandlingsenheden, der kører denne motor. Nvidia annoncerede, at den planlagde at integrere PhysX-teknologi i sine fremtidige GeForce GPU-produkter.

Nvidia stod over for store vanskeligheder i juli 2008, da det modtog et fald i omsætningen på ca. $ 200 millioner, efter at det blev rapporteret, at visse mobile chipsets og mobile GPU'er produceret af virksomheden havde unormale svigtfrekvenser på grund af produktionsdefekter. I september 2008 blev Nvidia genstand for en retssag af de berørte, og hævdede, at de mangelfulde GPU'er var blevet inkorporeret i visse modeller af bærbare computere, der er fremstillet af Apple, Dell og HP. Sæbeoperaen sluttede i september 2010, da Nvidia nåede til en aftale om, at ejere af de berørte bærbare computere ville blive godtgjort for omkostningerne til reparationer eller i nogle tilfælde udskiftning af produkter.

I november 2011 frigav Nvidia sit ARG Tegra 3-chip-system til mobile enheder efter først at have præsenteret det på Mobile World Congress. Nvidia hævdede, at chippen indeholdt den første quad-core mobile CPU. I januar 2013 introducerede Nvidia Tegra 4 såvel som Nvidia Shield, en Android-baseret bærbar spilkonsol, der er drevet af den nye processor.

Den 6. maj 2016 introducerede Nvidia GeForce GTX 1080 og 1070 grafikkort, det første baseret på den nye Pascal mikroarkitektur. Nvidia hævdede, at begge modeller var bedre end deres Maxwell-baserede Titan X-model. Disse kort har henholdsvis GDDR5X og GDDR5 hukommelse og bruger en 16nm fremstillingsproces. Pascal-arkitekturen understøtter også en ny hardwarefunktion kendt som simultan multiple projection (SMP), som er designet til at forbedre kvaliteten af multi-monitor og virtual reality gengivelse. Pascal har aktiveret fremstilling af bærbare computere, der lever op til Nvidias Max-Q designstandard.

I maj 2017 annoncerede Nvidia et partnerskab med Toyota Motor Corp, hvor sidstnævnte vil bruge Nvidias Drive X-serie kunstig intelligensplatform til sine autonome køretøjer. I juli 2017 annoncerede Nvidia og den kinesiske søgegigant Baidu, Inc. et magtfuldt AI-partnerskab, der inkluderer cloud computing, autonom kørsel, forbrugerenheder og Baidus AI-ramme, PaddlePaddle.

Nvidia GeForce og Nvidia Pascal, der dominerer spil

GeForce er mærkenavnet for grafikkort baseret på grafikbehandlingsenheder (GPU'er) oprettet af Nvidia fra 1999. Indtil i dag har GeForce-serien kendt seksten generationer siden starten. De versioner, der er fokuseret på professionelle brugere af disse kort, kommer under navnet Quadro og inkluderer nogle differentierende funktioner på førerniveau. GeForces direkte konkurrence er AMD med sine Radeon-kort.

Pascal er kodenavnet for den nyeste GPU-mikroarkitektur udviklet af Nvidia, der er kommet ind på videospilmarkedet, som en efterfølger til den forrige Maxwell-arkitektur. Pascal-arkitekturen blev først introduceret i april 2016 med lanceringen af ​​Tesla P100 til servere den 5. april 2016. I øjeblikket bruges Pascal primært i GeForce 10-serien, hvor GeForce GTX 1080 og GTX er De første 1070 videospilkort blev frigivet med denne arkitektur henholdsvis den 17. maj 2016 og den 10. juni 2016. Pascal fremstilles ved hjælp af TSMCs 16nm FinFET-proces, hvilket gør det muligt for den at tilbyde langt overlegen energieffektivitet og ydeevne sammenlignet med Maxwell, der blev fremstillet ved 28 nm FinFET.

Pascal-arkitekturen er organiseret internt i såkaldt streaming multiprocessor ( SM), funktionelle enheder, der består af 64 CUDA-kerner, som igen er opdelt i to behandlingsblokke på 32 CUDA-kerner hver af dem og ledsaget af en instruktionsbuffer, en kædeplanlægger, 2 teksturmappningsenheder og 2 afsendelsesenheder. Disse SM-drev svarer til AMD's CU'er.

Nvidias Pascal-arkitektur er designet til at være den mest effektive og avancerede i gamingverdenen. Nvidias ingeniørteam har lagt en stor indsats i at skabe en GPU-arkitektur, der er i stand til meget høje urhastigheder, mens den opretholder et stramt strømforbrug. For at opnå dette er der valgt et meget omhyggeligt og optimeret design i alle sine kredsløb, hvilket resulterer i, at Pascal kunne nå en frekvens, der er 40% højere end Maxwell, et tal, der er meget højere end processen ville have tilladt ved 16 nm uden alle optimeringer på designniveau.

Hukommelse er et nøgleelement i udførelsen af ​​et grafikkort, GDDR5-teknologi blev annonceret i 2009, så det er allerede blevet forældet til dagens mest kraftfulde grafikkort. Af denne grund understøtter Pascal GDDR5X-hukommelse, som var den hurtigste og mest avancerede hukommelsesgrænsefladestandard i historien på tidspunktet for lanceringen af disse grafikkort og nåede overførselshastigheder på op til 10 Gbps eller næsten 100 picosekunder mellem bit. af data. GDDR5X-hukommelse gør det også muligt for grafikkortet at forbruge mindre strøm sammenlignet med GDDR5, da driftsspændingen er 1, 35V, sammenlignet med 1, 5V eller endnu mere, som de hurtigere GDDR5-chips har brug for. Denne reduktion i spænding omsættes til en 43% højere driftsfrekvens med det samme strømforbrug.

En anden vigtig Pascal-innovation kommer fra hukommelseskomprimeringsteknikker uden tab af ydeevne, hvilket reducerer efterspørgslen efter båndbredde hos GPU. Pascal inkluderer den fjerde generation af delta farvekomprimeringsteknologi. Med delta-farvekomprimering analyserer GPU scener for at beregne de pixels, hvis information kan komprimeres uden at ofre scenens kvalitet. Mens Maxwell-arkitekturen ikke var i stand til at komprimere data relateret til nogle elementer, såsom vegetation og dele af bilen i projektet Cars Cars, er Pascal i stand til at komprimere det meste af informationen om disse elementer, hvilket er meget mere effektivt end Maxwell. Som en konsekvens er Pascal i stand til markant at reducere antallet af bytes, der skal udvindes fra hukommelsen. Denne reduktion i bytes omsættes til yderligere 20% af den effektive båndbredde, hvilket resulterer i en stigning på 1, 7 gange båndbredden ved hjælp af GDDR5X-hukommelse sammenlignet med GDDR5 og Maxwell-arkitektur.

Pascal tilbyder også vigtige forbedringer i forhold til asynkron computing, noget meget vigtigt, da arbejdsmængderne i øjeblikket er meget komplekse. Takket være disse forbedringer er Pascal- arkitekturen mere effektiv til at fordele belastningen mellem alle dens forskellige SM-enheder, hvilket betyder, at der næppe er nogen ubrugte CUDA-kerner. Dette gør det muligt at optimere GPU'en meget større, hvilket gør det muligt at udnytte alle de ressourcer, den har, bedre.

Følgende tabel opsummerer de vigtigste funktioner på alle Pascal-baserede GeForce-kort.

NVIDIA GEFORCE PASCAL GRAPHICS CARDS

CUDA Kerner Frekvenser (MHz) hukommelse Hukommelsesgrænseflade Hukommelsesbåndbredde (GB / s) TDP (W)
NVIDIA GeForce GT1030 384 1468 2 GB GDDR5 64 bit 48 30
NVIDIA GeForce GTX1050 640 1455 2 GB GDDR5 128 bit 112 75
NVIDIA GeForce GTX1050Ti 768 1392 4 GB GDDR5 128 bit 112 75
NVIDIA GeForce GTX1060 3 GB 1152 1506/1708 3 GB GDDR5 192 bit 192 120
NVIDIA GeForce GTX1060 6GB 1280 1506/1708 6 GB GDDR5 192 bit 192 120
NVIDIA GeForce GTX1070 1920 1506/1683 8 GB GDDR5 256 bit 256 150
NVIDIA GeForce GTX1070Ti 2432 1607/1683 8 GB GDDR5 256 bit 256 180
NVIDIA GeForce GTX1080 2560 1607/1733 8 GB GDDR5X 256 bit 320 180
NVIDIA GeForce GTX1080 Ti 3584 1480/1582 11 GB GDDR5X 352 bit 484 250
NVIDIA GeForce GTX Titan Xp 3840 1582 12 GB GDDR5X 384 bit 547 250

Kunstig intelligens og Volta-arkitektur

Nvidias GPU'er bruges i vid udstrækning inden for dyb læring, kunstig intelligens og accelereret analyse af store mængder data. Virksomheden udviklede dyb læring baseret på GPU-teknologi med henblik på at bruge kunstig intelligens til at tackle problemer såsom kræftdetektion, vejrprognose og autonome køretøjer, såsom den berømte Tesla.

Nvidias mål er at hjælpe netværk med at lære at ”tænke ”. Nvidias GPU'er fungerer usædvanligt godt til dyb læringsopgaver, fordi de er designet til parallel computing, og de fungerer godt til at håndtere vektor- og matrixoperationer, der hersker i dyb læring. Virksomhedens GPU'er bruges af forskere, laboratorier, teknologiselskaber og forretningsvirksomheder. I 2009 deltog Nvidia i det, der blev kaldt big bang for dyb læring, da neurale netværk af dyb læring blev kombineret med virksomhedens grafikbehandlingsenheder. Samme år brugte Google Brain Nvidias GPU'er til at skabe dybe neurale netværk, der var i stand til maskinlæring, hvor Andrew Ng bestemte, at de kunne øge hastigheden på dybe læringssystemer med 100 gange.

I april 2016 introducerede Nvidia den 8-GPU klyngebaserede DGX-1 supercomputer for at forbedre brugernes evne til at bruge dyb læring ved at kombinere GPU'er med specifikt designet software. Nvidia udviklede også de GPU-baserede Nvidia Tesla K80 og P100 virtuelle maskiner, der er tilgængelige via Google Cloud, som Google installerede i november 2016. Microsoft tilføjede servere baseret på Nvidias GPU-teknologi i en forhåndsvisning af sin N-serie, baseret på Tesla K80-kortet. Nvidia samarbejdede også med IBM for at oprette et softwarekit, der øger AI-kapaciteten for sine GPU'er. I 2017 blev Nvidias GPU'er også bragt online i RIKEN Center for Advanced Intelligence Project for Fujitsu.

I maj 2018 indså forskere ved Nvidi a's afdeling for kunstig intelligens muligheden for, at en robot kunne lære at gøre et job ved blot at observere personen, der udfører det samme job. For at opnå dette har de oprettet et system, der efter en kort gennemgang og test nu kan bruges til at kontrollere næste generations universelle robotter.

Volta er kodenavnet for den mest avancerede GPU-mikroarkitektur udviklet af Nvidia, det er Pascal's efterfølgerarkitektur og blev annonceret som en del af en fremtidig køreplan ambition i marts 2013. Arkitekturen er opkaldt efter Alessandro Volta, fysiker, kemiker og opfinder af det elektriske batteri. Volta- arkitekturen har ikke nået spillesektoren, selvom den har gjort det med Nvidia Titan V-grafikkortet, der er fokuseret på forbrugersektoren, og som også kan bruges i spiludstyr.

Denne Nvidia Titan V er et GV100-kernebaseret grafikkort og tre HBM2-hukommelsestacke, alt sammen i en pakke. Kortet har i alt 12 GB HBM2-hukommelse, der fungerer gennem en 3072-bit hukommelsesgrænseflade. Dens GPU indeholder over 21 millioner transistorer, 5.120 CUDA-kerner og 640 Tensor-kerner til at levere 110 TeraFLOPS-ydelser i dyb læring. Dets driftsfrekvenser er 1200 MHz base og 1455 MHz i turbotilstand, mens hukommelsen fungerer på 850 MHz og tilbyder en båndbredde på 652, 8 GB / s. Der er for nylig blevet annonceret en CEO Edition-version, der øger hukommelsen op til 32 GB.

Det første grafikkort, der blev produceret af Nvidia med Volta-arkitekturen, var Tesla V100, som er en del af Nvidia DGX-1-systemet. Tesla V100 bruger GV100-kernen, som blev frigivet den 21. juni 2017. Volta GV100 GPU er bygget i en 12nm FinFET- fremstillingsproces med 32 GB HBM2-hukommelse, der er i stand til at levere op til 900 GB / s båndbredde.

Volta bringer også den nyeste Nvidia Tegra SoC til live, kaldet Xavier, der blev annonceret den 28. september 2016. Xavier Indeholder 7 milliarder transistorer og 8 brugerdefinerede ARMv8-kerner sammen med en Volta GPU med 512 CUDA-kerner og en TPU på open source (Tensor Processing Unit) kaldet DLA (Deep Learning Accelerator). Xavier kan kode og afkode video i 8K Ultra HD-opløsning (7680 × 4320 pixels) i realtid, alt sammen med en TDP på ​​20-30 watt og en formstørrelse estimeret til omkring 300 mm2 takket være 12 fremstillingsprocesser. nm FinFET.

Volta- arkitekturen er kendetegnet ved at være den første, der inkluderer Tensor Core, kerner, der er specielt designet til at tilbyde meget overlegen ydelse i dybe læringsopgaver sammenlignet med almindelige CUDA-kerner. En Tensor Core er en enhed, der multiplicerer to FP16 4 × 4-matrixer og derefter tilføjer en tredje FP16- eller FP32-matrix til resultatet ved hjælp af fusionerede additions- og multiplikationsoperationer og opnår et FP32-resultat, der eventuelt kan nedklassificeres til et FP16-resultat. Tensorkerner er beregnet til at fremskynde træning i neuralt netværk.

Volta skiller sig også ud med at inkludere den avancerede proprietære NVLink-interface, som er en trådbaseret kommunikationsprotokol til kortdistanceret halvlederkommunikation udviklet af Nvidia, som kan bruges til datakodeoverførsel og kontrol i processorsystemer baseret på CPU og GPU og dem, der udelukkende er baseret på GPU. NVLink specificerer en punkt-til-punkt-forbindelse med datahastigheder på 20 og 25 Gb / s pr. Datafelt og pr. Adresse i dets første og anden version. De samlede datahastigheder i virkelige systemer er 160 og 300 GB / s for den samlede sum af input- og output-datastrømmene. NVLink-produkter introduceret til dato fokuserer på applikationsområdet med høj ydeevne. NVLINK blev først annonceret i marts 2014 og bruger en proprietær højhastigheds signalforbindelse udviklet og udviklet af Nvidia.

Følgende tabel opsummerer de vigtigste træk ved Volta-baserede kort:

NVIDIA VOLTA GRAFIKKORT

CUDA Kerner Core Tensor Frekvenser (MHz) hukommelse Hukommelsesgrænseflade Hukommelsesbåndbredde (GB / s)

TDP (W)

Tesla V100 5120 640 1465 32 GB HBM2 4.096 bit 900 250
GeForce Titan V 5120 640 1200/1455 12 GB HBM2 3.072 bit 652 250
GeForce Titan V CEO Edition 5120 640 1200/1455 32 GB HBM2 4.096 bit 900 250

Nvidias fremtid går gennem Turing og Ampere

De to fremtidige Nvidia-arkitekturer vil være Turing og Ampere i henhold til alle de rygter, der er vist til dags dato, det er muligt, at når du læser dette indlæg, er en af ​​dem allerede officielt annonceret. På nuværende tidspunkt vides intet med sikkerhed om disse to arkitekturer, skønt det siges, at Turing ville være en forenklet version af Volta til spilmarkedet, men det forventes faktisk at ankomme til den samme fremstillingsproces på 12 nm.

Ampere lyder som Turing's efterfølgerarkitektur, selvom det også kunne være Volta's efterfølger for den kunstige intelligenssektor. Der vides absolut intet om dette, selvom det ser ud til at være logisk at forvente, at det ankommer til 7 nm. Rygterne antyder, at Nvidia vil annoncere sine nye GeForce-kort på Gamecom i den næste måned af august, først da vil vi efterlade tvivl om, hvad Turing eller Ampere vil være, hvis de virkelig kommer til.

NVIDIA G-Sync, afslutter problemer med synkronisering af billedet

G-Sync er en proprietær adaptiv synkroniseringsteknologi udviklet af Nvidia, hvis primære mål er at fjerne skærmrivning og behovet for alternativer i form af software som Vsync. G-Sync eliminerer rivning af skærmen ved at tvinge den til at tilpasse sig rammerne af outputenheden, grafikkortet, snarere end outputenheden, der tilpasser sig skærmen, hvilket resulterer i billedrivning i skærmen.

For at en skærm skal være G-Sync-kompatibel, skal den indeholde et hardwaremodul solgt af Nvidia. AMD (Advanced Micro Devices) har frigivet en lignende teknologi til skærme, kaldet FreeSync, som har den samme funktion som G-Sync, men ikke kræver nogen bestemt hardware.

Nvidia oprettede en speciel funktion for at undgå muligheden for, at en ny ramme er klar, mens der tegnes en duplikat på skærmen, noget der kan generere forsinkelse og / eller stamme, modulet forventer opdateringen og venter på, at den næste ramme skal afsluttes. Pixeloverbelastning bliver også vildledende i et ikke-fast opdateringsscenario, og løsningen forudsiger, hvornår den næste opdatering finder sted, derfor skal overdrive-værdien implementeres og justeres for hvert panel for at undgå spøgelseseffekt.

Modulet er baseret på en Altera Arria V GX familie FPGA med 156K logiske elementer, 396 DSP blokke og 67 LVDS kanaler. Det produceres i TSMC 28LP-processen og kombineres med tre chips til i alt 768 MB DDR3L DRAM for at opnå en bestemt båndbredde. Den anvendte FPGA har også en LVDS-interface til at kontrollere skærmpanelet. Dette modul er beregnet til at erstatte almindelige klatrere og let integreres af monitorproducenter, der kun behøver at tage sig af strømforsyningskortet og indgangsforbindelserne.

G-Sync har været udsat for en vis kritik på grund af dens ejendomsret, og det faktum, at det stadig fremmes, når der findes gratis alternativer, såsom VESA Adaptive-Sync-standarden, som er en valgfri funktion i DisplayPort 1.2a. Mens AMDs FreeSync er baseret på DisplayPort 1.2a, kræver G-Sync et Nvidia-fremstillet modul i stedet for den sædvanlige skærmskaler til Nvidia GeForce-grafikkort for at fungere ordentligt og være kompatible med Kepler, Maxwell, Pascal og mikroarkitekturer. Volta.

Det næste trin er taget med G-Sync HDR-teknologi, som, som navnet antyder, tilføjer HDR-kapaciteter til i høj grad at forbedre billedkvaliteten på skærmen. For at gøre dette muligt har det været nødvendigt at foretage et betydeligt spring i hardware. Denne nye version G-Sync HDR bruger en Intel Altera Arria 10 GX 480 FPGA, en meget avanceret og meget programmerbar processor, der kan kodes til en lang række applikationer, der ledsages af 3 GB DDR4 2400MHz hukommelse fremstillet af Micron. Dette gør prisen på disse skærme dyrere.

Her slutter vores indlæg om alt hvad du har at vide om Nvidia. Husk, at du kan dele det på sociale netværk, så det når ud til flere brugere. Du kan også efterlade en kommentar, hvis du har et forslag eller noget at tilføje.

Android

Valg af editor

Back to top button