processorer

Nnp, dlboost og keem bay, nye Intel-chips til ia og neurale netværk

Indholdsfortegnelse:

Anonim

Intel annoncerede ny dedikeret hardware på AI-topmødet den 12. november væk fra massemarkedet, NNP, DLBoost og Keem Bay. Disse produkter er uden tvivl kulminationen på mere end tre års arbejde siden opkøb af Movidius og Nervana i anden halvdel af 2016 og oprettelsen af ​​deres AI Products Group, ledet af Naveen Rao, medstifter af Nervana.

NNP, DLBoost og Keem Bay, nye Intel-chips til AI og neurale netværk

Rao bemærkede, at Intel allerede er en stor aktør i AI-sektoren, og at dens AI-indtægter i 2019 vil overstige 3, 5 milliarder dollars, op fra mere end 1 milliard dollar i 2017. Intel har allerede forskellige hardware til alle. OpenVINO-fronter til IOt, Agilex FPGAs, Ice Lake på pc, DLBoost fra Cascade Lake og endnu mere dens fremtidige diskrete grafik.

Processorer: DLBoost

Intel demonstrerede kompatibiliteten med bfloat16 ved Cooper Lake 56-core, der vil være ude næste år som en del af sin DLBoost-serie af AI-funktioner i sine processorer. Bfloat16 er et numerisk format, der opnår en nøjagtighed, der ligner den for det enkelt præcisions flydende punkt (FP32) i AI-træning.

Intel leverede ikke et estimat af præstationsforbedringen, men det anførte, at Cooper Lake til 30 slutninger er 30 gange hurtigere end Skylake-SP. På pc-siden indeholder Ice Lake de samme DLBoost AVX-512_VNNI-instruktioner, der også findes i Cascade Lake.

Movidius: Keem Bay VPU

Som en del af sin strategi mod kunstig intelligens, såsom smartkameraer, robotter, droner og VR / AR, købte Intel Movidius i 2016. Movidius kalder sine laveffektchips "vision processor units" (VPU). De har kapacitet til billedsignalbehandling (ISP), hardwareacceleratorer, MIPS-processorer og 128-bit programmerbare vektorprocessorer (VLIW), som du kalder SHAVE-kerner.

Besøg vores guide til markedets bedste processorer

Intel har nu detaljeret, hvad det kalder 'Gen 3' Intel Movidius VPU-kodenavnet Keem Bay. Ifølge Intel har den en inferensydelse mere end 10 gange højere end Myriad X og bruger den samme mængde energi.

Nervana Neural Network Processors (NNP)

Intel har NNP'er til både træning og dyb neurale netværksinferencer. Intels NNP-I til inferens er baseret på to Ice Lake Sunny Cove-kerner og tolv ICE-accelerator-kerner. Intel hævder, at det vil levere stor ydelse pr. Watt og beregnet densitet. I sin M.2-formfaktor er den i stand til 50 TOPS ved 12W, hvilket svarer til 4.8TOPS / W, som tidligere annonceret. Intel afslørede, at formfaktoren på PCIe-kortet bruger 75W og producerer op til 170 TOPS (med INT8-præcision).

Intel gentog sin høje næsten lineære skaleringseffektivitet på 95% for 32 kort sammenlignet med 73% for Nvidia.

Intel har forberedt et bredt sortiment af chips til alle fronter, AI, 5G, neurale netværk, autonom kørsel osv. På et marked, der i år genererede indtægter anslået til 10 milliarder dollars. Vi holder dig informeret.

Tomshardware-skrifttype

processorer

Valg af editor

Back to top button