Hardware

Qnap introducerer Mustang Range Calculator Accelerator-kort

Indholdsfortegnelse:

Anonim

QNAP afslørede i dag to beregningsacceleratorkort, der er designet til dyb indlæring af inferens af AI. I denne nye serie er Mustang-V100 (baseret på VPU) og Mustang-F100 (baseret på FPGA). Brugere kan installere disse PCIe-baserede acceleratorkort på en Intelo-baseret server / pc på en brandet NAS.

QNAP introducerer Mustang Range Calculator Accelerator-kort

Disse Mustang-V100- og Mustang-F100-acceleratorkort er optimeret til OpenVINO-arkitekturen og kan udvide arbejdsbelastningen til Intel-hardware med maksimal ydelse. De kan også bruges med OpenVINO Workflow Consolidation Tool.

Nye acceleratorkort

Både Mustang-V100 og Mustang-F100 tilbyder billige accelerationsløsninger til AI-inferens. De arbejder også med OpenVINO værktøjssæt for at optimere inferensarbejdsbelastninger til billedklassificering og computervisionsopgaver. OpenVINO værktøjssæt hjælper med at fremskynde udviklingen af ​​højtydende computersyn og dyb læring i visionapplikationer. Inkluderer Model Optimizer og Inference Engine.

Efterhånden som QNAP NAS udvikler sig til at støtte en bredere række applikationer, er kombinationen af ​​stor opbevaring og PCIe-udvidelsesevne fordelagtig til brug i AI. OpenVINO Workflow Consolidation Tool (OWCT) er udviklet. Bruger Intels OpenVINO fælles værktøjsteknologi. Når den bruges sammen med OWCT, tilbyder den Intel-baserede NAS en ideel inferensserverløsning til at hjælpe organisationer i hurtig oprettelse af inferenssystemer. AI-udviklere kan distribuere formede modeller på en NAS til inferens og installere enten Mustang-V100-kortet eller Mustang-F100-kortet.

QNAP NAS understøtter nu Mustang-V100- og Mustang-F100-kort med den nyeste version af operativsystemet QTS 4.4.0. For at se NAS-modellerne, der understøtter QTS 4.4.0, kan du gå til www.qnap.com. For at downloade og installere OWCT-applikationen til QNAP NAS, skal du gå ind i App Center.

Hardware

Valg af editor

Back to top button