Android

▷ Intel xeon 【al information】

Indholdsfortegnelse:

Anonim

Blandt det store katalog over Intel kan vi finde Intel Xeon-processorer, som er de mindst kendte af brugerne for ikke at være fokuseret på den indenlandske sektor. I denne artikel forklarer vi, hvad disse processorer er, og hvad er forskellene med de indenlandske.

Indholdsindeks

Hvad er Intel Xeon?

Xeon er et mærke af x86-mikroprocessorer designet, produceret og markedsført af Intel, der er målrettet mod arbejdsstations-, server- og indlejrede systemmarkeder. Intel Xeon-processorer blev introduceret i juni 1998. Xeon-processorer er baseret på den samme arkitektur som normale desktop-CPU'er, men har nogle avancerede funktioner såsom ECC-hukommelsesstøtte, større antal kerner, understøttelse af store mængder RAM., øget cachehukommelse og mere mulighed for pålidelighed, tilgængelighed og serviceabilitetsfunktioner i virksomheden, der er ansvarlige for håndtering af hardwareundtagelser gennem Machine Check-arkitekturen. De er ofte i stand til sikkert at fortsætte udførelsen, hvor en normal processor ikke kan på grund af deres ekstra RAS-egenskaber, afhængigt af typen og alvorligheden af ​​undtagelsen fra maskineverifikation. Nogle er også kompatible med multi-socket-systemer med 2, 4 eller 8-stik ved hjælp af Quick Path Interconnect-bus.

Vi anbefaler at læse vores indlæg om AMD Ryzen - De bedste processorer fremstillet af AMD

Nogle mangler, der gør Xeon-processorer uegnede til de fleste forbruger-pc'er inkluderer lavere frekvenser til samme pris, da servere kører flere opgaver parallelt end desktops, kernetællinger er vigtigere end frekvenserne af se generelt fraværet af et integreret GPU-system og manglen på support til overklokke. På trods af disse ulemper har Xeon-processorer altid været populære hos desktop-brugere, hovedsageligt gamere og ekstreme brugere, hovedsageligt på grund af et større kernetællingspotentiale og et mere attraktivt pris / ydelsesforhold end Core i7 med hensyn til af den samlede computerkraft for alle kerner. De fleste Intel Xeon CPU'er mangler en integreret GPU, hvilket betyder, at systemer, der er bygget med disse processorer, kræver enten et diskret grafikkort eller en separat GPU, hvis skærmudgang ønskes.

Intel Xeon er en anden produktlinie end Intel Xeon Phi, der har det samme navn. Den første generation af Xeon Phi er en helt anden type enhed, der kan sammenlignes mere med et grafikkort, da det er designet til et PCI Express-slot og er beregnet til at blive brugt som en multi-core coprocessor, såsom Nvidia Tesla. I anden generation blev Xeon Phi en hovedprocessor, der mere ligner Xeon. Den passer til den samme sokkel som en Xeon-processor og er kompatibel med x86; sammenlignet med Xeon understreger Xeon Phis designpunkt imidlertid flere kerner med højere båndbredde i hukommelsen.

Hvad er Intel Xeon skalerbar?

Der er store ændringer i gang i virksomhedens datacenter. Mange organisationer gennemgår en udbredt transformation baseret på online data og tjenester, og udnytter disse data til kraftige kunstige intelligens- og analyseprogrammer, der kan omdanne dem til ideer, der ændrer forretningen og derefter implementere værktøjer og tjenester, der får disse ideer til at fungere.. Dette kræver en ny type server- og netværksinfrastruktur, der er optimeret til kunstig intelligens, analyse, massive datasæt med mere, drevet af en revolutionerende ny CPU. Det er her Intels Xeon skalerbare linje kommer ind.

Intel Xeon Scalable repræsenterer muligvis den største trinændring i 20 år med Xeon CPU. Det er ikke blot en hurtigere Xeon eller Xeon med flere kerner, men en familie af processorer designet omkring en synergi mellem computing, netværk og lagringsfunktioner, der bringer nye funktioner og ydeevne forbedringer til alle tre.

Mens Xeon Scalable tilbyder et 1, 6x gennemsnitligt ydeevneforøg i forhold til tidligere generation af Xeon-CPU'er, går fordelene ud over standarder til at dække reelle optimeringer til analyse, sikkerhed, AI og billedbehandling. Der er mere magt til at køre højtydende komplekser. Når det kommer til datacentret, er det en sejr på alle måder.

Den største og mest åbenlyse ændring er måske udskiftningen af ​​den gamle ringbaserede Xeon-arkitektur, hvor alle processorens kerner var forbundet via en enkelt ring, med en ny mesh- eller mesh-arkitektur. Dette justerer kernerne plus tilhørende cache, RAM og I / O i rækker og kolonner, der forbinder ved hvert kryds, så dataene kan flytte mere effektivt fra en kerne til en anden.

Hvis du forestiller dig det i form af et vejtransportsystem, var den gamle Xeon-arkitektur som en højhastighedscirkulær, hvor data, der flyttede fra en kerne til en anden, skulle bevæge sig rundt i ringen. Den nye mesh-arkitektur ligner mere et motorvejsnet, blot en, der tillader trafik at strømme med maksimal punkt-til-punkt-hastighed uden overbelastning. Dette optimerer ydelsen på multetrådede opgaver, hvor forskellige kerner kan dele data og hukommelse, samtidig med at energieffektiviteten øges. I den mest basale forstand er det et arkitekturformål, der er skabt til at flytte store mængder data rundt om en processor, der kan have op til 28 kerner. Desuden er det en struktur, der udvides mere effektivt, uanset om vi taler om flere processorer eller nye CPU'er med endnu flere kerner senere.

Hvis mesh-arkitekturen handler om at flytte data mere effektivt, forsøger de nye AVX-512-instruktioner at optimere den måde, de behandles på. Med udgangspunkt i det arbejde, Intel startede med sine første SIMD-udvidelser i 1996, tillader AVX-512 endnu flere dataelementer at blive behandlet samtidigt med med næste generation AVX2, hvilket fordobler bredden af ​​hver post og tilføjer to mere for at forbedre ydelsen. AVX-512 tillader dobbelt så mange flydepunktoperationer pr. Sekund pr. Urcyklus og kan behandle dobbelt så mange dataelementer, som AVX2 kunne have i den samme urcyklus.

Endnu bedre er disse nye instruktioner specifikt designet til at fremskynde ydeevnen i komplekse, dataintensive arbejdsbelastninger såsom videnskabelig simulering, økonomisk analyse, dyb læring, billed-, lyd- og videobehandling og kryptografi.. Dette hjælper en Xeon skalerbar processor med at håndtere HPC-opgaver, der er mere end 1, 6 gange hurtigere end den foregående generations ækvivalent, eller accelerere kunstig intelligens og dyb læringsoperationer med 2, 2x.

AVX-512 hjælper også med opbevaring, fremskynde nøglefunktioner som deduplikering, kryptering, komprimering og dekomprimering, så du kan udnytte dine ressourcer mere effektivt og styrke sikkerheden ved lokale og private skytjenester.

I denne forstand fungerer AVX-512 hånd i hånd med Intel QuickAssist (Intel QAT) teknologi. QAT muliggør hardwareacceleration til datakryptering, autentificering og komprimering og dekomprimering, hvilket øger ydelsen og effektiviteten af ​​processer, der stiller høje krav til dagens netværksinfrastruktur, og som kun øges, når du implementerer flere tjenester og digitale værktøjer.

Brugt sammen med Software Defined Infrastructure (SDI), kan QAT hjælpe dig med at gendanne mistede CPU-cyklusser brugt på sikkerheds-, komprimerings- og dekomprimeringsopgaver, så de er tilgængelige til beregningsintensive opgaver, der bringer reel værdi til selskab. Da en QAT-aktiveret CPU kan håndtere højhastighedskomprimering og dekomprimering, næsten gratis, kan applikationer arbejde med komprimerede data. Dette har ikke kun et mindre lagringsfodaftryk, men det kræver mindre tid at overføre fra en applikation eller system til en anden.

Intel Xeon skalerbare CPU'er integreres med Intels chipsæt i C620-serien for at skabe en platform for afbalanceret systemdækkende ydelse. Intel Ethernet-forbindelse med iWARP RDMA er indbygget og tilbyder 4x10GbE-kommunikation med lav latens. Platformen tilbyder 48 linjer PCIe 3.0-forbindelse per CPU med 6 kanaler DDR4 RAM pr. CPU med understøttelseskapacitet på op til 768 GB ved 1, 5 TB pr. CPU og hastigheder på op til 2666MHz.

Opbevaring modtager den samme generøse behandling. Der er plads til op til 14 SATA3-drev og 10 USB3.1-porte, for ikke at nævne CPU's indbyggede virtuelle NMMe RAID-kontrol. Support til næste generations Intel Optane- teknologi øger lagringsydelsen yderligere med dramatiske positive effekter på databaserne i hukommelsen og analytiske arbejdsmængder. Og med Intel Xeon Scalable, kommer Intels Omni-Path-stofstøtte indbygget uden behov for et diskret interfacekort. Som et resultat er Xeon skalerbare processorer klar til applikationer med høj båndbredde, lav latens i HPC-klynger.

Med Xeon Scalable har Intel leveret en række processorer, der imødekommer behovene i næste generations datacentre, men hvad betyder al denne teknologi i praksis? Til at begynde med servere, der kan håndtere større analytiske arbejdsbelastninger ved højere hastigheder og få hurtigere indsigt fra større datasæt. Intel Xeon Scalable har også lagrings- og beregningskapaciteten til avancerede applikationer til dyb læring og maskinlæring, hvilket giver systemer mulighed for at træne i timer, ikke dage eller "udlede" betydningen af ​​nye data med større hastighed og nøjagtighed ved behandle billeder, tale eller tekst.

Potentialet for database i hukommelse og analytiske applikationer, f.eks. SAP HANA, er enormt med ydelse op til 1, 59 gange højere, når du kører arbejdsbelastninger i hukommelsen på den næste generation af Xeon. Når din virksomhed er afhængig af at indsamle information fra store datasæt med kilder i realtid, kan det være nok til at give dig en konkurrencefordel.

Xeon Scalable har ydeevne og hukommelse og systembåndbredde til at være vært for større og mere komplekse HPC-applikationer og finder løsninger til mere komplekse forretnings-, videnskabelige og tekniske problemer. Det kan tilbyde hurtigere, høj kvalitet af kvalitetskodning, mens du streamer video til flere kunder.

En stigning i virtualiseringskapacitet kan give organisationer mulighed for at køre fire gange flere virtuelle maskiner på en Xeon Scalable-server end på et næste generations system. Med næsten nul overhead til komprimering, dekomprimering og kryptering af data i hvile, kan virksomheder bruge deres lager mere effektivt og samtidig styrke sikkerheden på samme tid. Dette handler ikke kun om benchmarks, det handler om teknologi, der forvandler den måde, dit datacenter fungerer, og ved at gøre det også din virksomhed.

Hvad er ECC-hukommelse?

ECC er en metode til at detektere og derefter korrigere single-bit hukommelsesfejl. En enkelt bithukommelsesfejl er en datafejl i produktionen eller produktionen af ​​serveren, og tilstedeværelsen af ​​fejl kan have en stor indflydelse på serverens ydelse. Der er to typer single-bit hukommelsesfejl: hårde fejl og bløde fejl. Fysiske fejl skyldes fysiske faktorer, såsom overdreven temperaturvariation, stressstress eller fysisk stress, der opstår på hukommelsesbits.

Bløde fejl opstår, når data skrives eller læses anderledes end oprindeligt tilsigtet, såsom variationer i bundkortets spænding, kosmiske stråler eller radioaktivt henfald, der kan få bits i hukommelsen til at komme tilbage flygtig. Da bitene bevarer deres programmerede værdi i form af en elektrisk ladning, kan denne type interferens ændre belastningen på hukommelsesbiten og forårsage en fejl. På servere er der flere steder, hvor der kan opstå fejl: i lagerenheden, i CPU-kernen, gennem en netværksforbindelse og i forskellige typer hukommelse.

For arbejdsstationer og servere, hvor fejl, datakorruption og / eller systemfejl skal undgås for enhver pris, såsom i finanssektoren, er ECC-hukommelse ofte den valgte hukommelse. Sådan fungerer ECC-hukommelse. Ved beregning modtages og transmitteres data gennem bits, den mindste enhed af data i en computer, der udtrykkes i binær kode ved hjælp af en eller nul.

Når bitene grupperes sammen, opretter de binær kode eller "ord", som er dataenheder, der dirigeres og bevæger sig mellem hukommelse og CPU. For eksempel er en 8-bit binær kode 10110001. Med ECC-hukommelse er der en ekstra ECC-bit, der er kendt som en paritetsbit. Denne ekstra paritetsbit får den binære kode til at læse 101100010, hvor den sidste nul er paritetsbiten og bruges til at identificere hukommelsesfejl. Hvis summen af ​​alle 1'er i en kodelinie er et jævnt tal (ikke inklusive paritetsbiten), kaldes kodelinjen jævnt paritet. Fejlfri kode har altid ensartet paritet. Paritet har dog to begrænsninger: Det er kun i stand til at registrere ulige antal fejl (1, 3, 5 osv.) Og tillader, at lige antal fejl passerer (2, 4, 6, osv.). Paritet kan heller ikke rette fejl, det kan kun registrere dem. Det er her ECC-hukommelse kommer ind.

ECC-hukommelse bruger paritetsbits til at gemme krypteret kode, når du skriver data til hukommelse, og ECC-kode gemmes på samme tid. Når dataene læses, sammenlignes den gemte ECC-kode med den ECC-kode, der blev genereret, da dataene blev læst. Hvis koden, der blev læst, ikke stemmer overens med den gemte kode, dekrypteres den af ​​paritetsbitene for at bestemme, hvilken bit der var fejl, så korrigeres denne bit straks. Når data behandles, scanner ECC-hukommelse konstant kode med en speciel algoritme til at opdage og rette enkeltbits-hukommelsesfejl.

I missionskritiske industrier som den finansielle sektor kan ECC-hukommelse gøre en stor forskel. Forestil dig, at du redigerer oplysningerne på en fortrolig kundekonto og derefter udveksler disse oplysninger med andre finansielle institutioner. Når du sender dataene, lad os sige, at et binært ciffer er vendt af en slags elektrisk interferens. ECC-serverhukommelse hjælper med at bevare integriteten af ​​dine data, forhindrer datakorruption og forhindrer systemnedbrud og fejl.

Vi anbefaler at læse:

Dette afslutter vores artikel om Intel Xeon og alt hvad du har brug for at vide om disse nye processorer, husk at dele den på sociale medier, så den kan hjælpe flere brugere, der har brug for det.

Android

Valg af editor

Back to top button