Intel Core I9-10980XE – et skridt fremad for AI, et skridt tilbage for alt andet

Ars går hands-on med Intels nyeste HEDT CPU, den 18-Core I9-10980XE.

Intels nye I9-10980XE, debuterende på samme dag som AMD’S nye Threadripper linje, indtager en mærkelig markedssegment: “budget high-end desktop.” Dens 18 kerner og 36 tråde lyder temmelig spændende i forhold til Intels top-end gaming CPU, I9-9900KS-men de blegner i forhold til Threadripper 3970x’s 32 kerner og 64 tråde. At gøre tingene værre, på trods af at have mere end dobbelt kerner, I9-10980XE har problemer med at differentiere sig selv fra de meget billigere I9-9900KS i mange benchmarks.

Dette efterlader den nye del falder tilbage på, hvad det har at gøre for det-omkostninger, både oprindelige og operationelle. Hvis du ikke kan bruge den fulde ydeevne af en Threadripper, vil I9-10980XE give dig omtrent halvdelen af ydeevnen for omkring halvdelen af omkostningerne, og det udvider denne besparelse i løbende elektriske omkostninger samt.

Vores I9-10980XE test rig var meget lettere at dele et kontor med end den konkurrerende Threadripper 3970x rig. Dens EVGA X399 Dark bundkort gjorde det ikke ligne en scene fra Poltergeist var at spille ud på kontoret, og det trak en masse mindre magt og kastede en masse mindre håndgribelig varme.

For at være helt fair, nogle af Threadripper rig’s obnoxiousness sandsynligvis kunne have været afbødet med bundkort indstillinger-vores NZXT Kraken x62 køligere fans var i Full-On leafblower mode hele tiden Threadripper kørte, selv mens tomgang. Mens Threadripper-systemet gjorde tomgang ved en Eye-vanding 163W til I9-10980XE systemets 69W, det er ikke nok til at forklare forskellen i fan RPMs. Den I9-10980XE system ikke spin fans op til modbydelige niveauer selv under sin fulde 257W benchmarking belastning.

Ligegyldigt hvor mange undskyldninger vi gør for Threadripper baseret på sin ROG bundkortets aggressive standard fan indstillinger, selvom, vi er stadig kigger på 69W vs 163W system Draw på desktop Idle og 257W vs 403W system Draw under fuld belastning. I den nuværende hedt segment, den I9-10980xe er absolut den mere sparsommelige del at leve med-især for dem af os, der bor i det sydlige himmelstrøg, hvor juli starter engang i april og slutter ikke indtil slutningen af oktober.

Hvis du ikke har brugt hele 2019 under en klippe, bør det ikke være nogen overraskelse, at Intels I9-10980XE kommer op kort i forhold til AMD’S Threadripper 3970x, som også frigivet denne mandag. I9-10980XE er en 18-kerne, 36-trådet del til Threadripper’s 32 kerner og 64 tråde, og AMD’S 7nm proces har afsluttet enhver modregning ydeevne-per-Core fordele Intel engang havde.

Hvad mere overraskende er, at I9-10980XE faldt generelt kort af sin ældre bror, sidste års I9-9980XE. Dens bedste generelle formål benchmarking resultat — Cinebench r20 — placerede det inden for fejlmargenen af den ældre del. Værre, både enkelttrådede og flertrådede PassMark ratings stærkt favoriserede den ældre chip.

Vi sammenlignede også I9-10980XE med sin gaming søskende, I9-9900KS. Selv om I9-10980XE scorede betydeligt højere i Cinebench r20, det ikke score betydeligt bedre i den mere generelle formål PassMark test, på trods af at have mere end to gange kerner-og koster dobbelt så meget. I mellemtiden, i enkelttrådet PassMark, 9900KS var 39% hurtigere-og endnu en gang, I9-10980XE faldt bag sin ældre søskende, den I9-9980XE.

Så igen-efter et mønster, vi alle lærer at genkende-den I9-10980XE er halvdelen af omkostningerne ved I9-9980XE, som sidder i $2.000 område sammen med den meget kraftigere Threadripper 3970x. Vi har ondt af enhver detailhandlere sidder på eksisterende købt I9-9980xe lager, fordi mens den ældre del er lidt mere ydende til generelle formål arbejdsbelastninger, forskellen bestemt ikke er værd at fordoble omkostningerne.

Arbejdsbelastninger for AI-udledning
Fordelen ved Intels softwareudviklings arbejde i AI-rummet er meget klart. Ja, OpenVINO er et Intel-udviklet projekt – men det klarer sig på en hånd gennem Tensorflow, enten på AMD eller Intel CPU’er.
Udvidelse/fordelen ved Intels softwareudvikling arbejde i AI rummet er meget klar. Ja, OpenVINO er et Intel-udviklet projekt – men det klarer sig på en hånd gennem Tensorflow, enten på AMD eller Intel CPU’er.
Jim Salter
Kunstig intelligens arbejdsbelastninger er det ene sted I9-10980XE skinner i sin egen ret. Intel har investeret en masse ingeniørarbejde i AI arbejdsbyrde optimering, og I9-10980XE funktioner sin dybe læring Boost x86 udvidelse instruktioner. Med compilere, der kan drage fordel af det nye instruktionssæt, har Intel fortalt os, at AI-arbejdsbelastninger nemt kan fordoble deres gennemløb.

Vi kørte AIXPRT’S reference benchmarking-arbejdsbelastninger for at teste denne påstand. Sikker nok, den I9-10980 mere end fordoblet den ellers mere performant I9-9980 gennemløb i OpenVINO billedgenkendelse arbejde. Det er værd at bemærke, at OpenVINO i sig selv er et Intel-initiativ, og det er usandsynligt, at være så optimeret til AMD-processorer som Intel. Denne mangel på optimering kan forklare nogle af præstations deltaet mellem Threadripper 3970x og I9-10980XE, men det er svært at komme op med noget, men dyb læring Boost som rationalet for at blæse dørene ud Intels egen I9-9980XE.

Og ja, følgeslutning arbejdsbyrde ydeevne på CPU’er virkelig betyder noget. For at forklare hvorfor, lad os først sikre, at vi er klar på nogle grundlæggende terminologi. Et neuralt netværk kan betjenes i en af to tilstande — træning eller slutning. I træningstilstand, det neurale netværk er hovedsageligt gør en drunkard gang gennem et problem rum, justere værdier og vægte, indtil det har “lært” den bedste måde at navigere dette problem plads. Inference tilstand er meget lettere vægt; i stedet for at skulle krydse hele rummet gentagne gange, det neurale netværk bare undersøger et problem i rummet og giver dig sit bedste svar, baseret på, hvad det har lært under træningen.

Når du laver betydelige mængder af uddannelse, du ønsker en high-end GPU (eller en bank af high-end GPU’er), fuld stop. De kan nemt overgå generelle formål CPU’er ved en størrelsesorden eller mere, hvilket sparer både uddannelsestid og operationel effekt. Inference, dog, er en anden historie-selv om GPU kan stadig betydeligt overgå en CPU, hvis CPU’ENS operationelle gennemløb og ventetid er tilstrækkeligt til real-time interaktion, det er meget mere bekvemt at lade det gøre arbejdet.

Running-arbejdsbelastninger på generelle CPU’er gør det muligt at implementere dem bredt som værktøjer, der kan bruges i marken, på relativt generisk hardware og uden behov for en altid internetforbindelse. Dette kan også lindre både privatliv og ventetid bekymringer, der er involveret i at sende data ud til skyen for fjern-slutning behandling.

Nogle eksempler på den virkelige verden, moderne AI-følgeslutning behandling omfatter stemmegenkendelse, billedgenkendelse og mønster analyse. Mens meget af dette sker i øjeblikket i skyen, forventer vi stigende efterspørgsel efter lokale forarbejdningskapaciteter. Digitale personlige assistenter som Cortana er et oplagt program, men AI kan gå endnu længere end det.

Lige nu, den insider oplag i Office365 tillader jer hen til skrive “Hvad var den højst sælger fabrikat i Q4?” i en tekstboks og straks nyde den passende diagram produceret nemlig jer… men det er kun, hvis du er villig til at Offload dine data til skyen. Uden lokale følgeslutning behandling koteletter, arbejde med fortrolige data, der ikke kan forlade det websted, hvor det er produceret vil føle sig mere og mere restriktiv. Intels væddemål en masse af sin fremtid på at anerkende denne kendsgerning-og at være i spidsen for den pakke, når resten af os gør, også.