▷ Intel xeon 【lahat ng impormasyon】

Talaan ng mga Nilalaman:
Kabilang sa malawak na katalogo ng Intel maaari naming mahanap ang mga processor ng Intel Xeon, na kung saan ay hindi bababa sa kilala ng mga gumagamit para sa hindi nakatuon sa sektor ng domestic. Sa artikulong ito ipinapaliwanag namin kung ano ang mga processors na ito at kung ano ang mga pagkakaiba sa mga domestic.
Indeks ng nilalaman
Ano ang Intel Xeon?
Ang Xeon ay isang tatak ng x86 microprocessors na idinisenyo, gumawa, at na-market ng Intel, target ang workstation, server, at mga naka-embed na system market. Ang mga prosesor ng Intel Xeon ay ipinakilala noong Hunyo 1998. Ang mga processors ng Xeon ay batay sa parehong arkitektura tulad ng mga normal na desktop ng CPU, ngunit may ilang mga advanced na tampok tulad ng suporta sa memorya ng ECC, mas mataas na bilang ng mga cores, suporta para sa malaking halaga ng RAM., nadagdagan ang memorya ng cache at marami pang probisyon para sa pagiging maaasahan ng grade-enterprise, pagkakaroon at mga tampok ng serbisyo na responsable para sa paghawak ng mga eksepsyon sa hardware sa pamamagitan ng arkitektura ng Machine Check. Madalas silang ligtas na magpatuloy sa pagpapatupad kung saan ang isang normal na processor ay hindi maaaring dahil sa kanilang mga karagdagang katangian ng RAS, depende sa uri at kalubhaan ng Machine Verification Exception. Ang ilan ay katugma din sa mga sistema ng multi-socket na may 2, 4 o 8 na mga socket sa pamamagitan ng paggamit ng bus na Quick Path Interconnect.
Inirerekumenda namin na basahin ang aming post tungkol sa AMD Ryzen - Ang pinakamahusay na mga processors na ginawa ng AMD
Ang ilang mga kakulangan na gumagawa ng Xeon processors na hindi angkop para sa karamihan sa mga consumer ng PC ay nagsasama ng mas mababang mga frequency para sa parehong presyo, dahil ang mga server ay nagpapatakbo ng mas maraming mga gawain na kahanay kaysa sa mga desktop, ang mga mahahalagang bilang ay mas mahalaga kaysa sa mga frequency ng panonood, sa pangkalahatan ang kawalan ng isang pinagsamang sistema ng GPU, at kawalan ng suporta sa overclocking. Sa kabila ng mga kawalan na ito, ang mga processor ng Xeon ay palaging naging tanyag sa mga gumagamit ng desktop, pangunahin ang mga manlalaro at matinding mga gumagamit, higit sa lahat dahil sa mas mataas na potensyal na pagbilang ng core, at isang mas kaakit-akit na ratio ng presyo / pagganap kaysa sa Core i7 sa mga termino ng kabuuang lakas ng computing ng lahat ng mga cores. Karamihan sa mga Intel Xeon CPU ay kulang sa isang integrated GPU, na nangangahulugang ang mga system na binuo kasama ang mga processors ay nangangailangan ng alinman sa isang discrete graphics card o isang hiwalay na GPU kung nais ng monitor output.
Ang Intel Xeon ay isang iba't ibang linya ng produkto kaysa sa Intel Xeon Phi, na napupunta sa magkatulad na pangalan. Ang unang henerasyon na Xeon Phi ay isang ganap na magkakaibang uri ng aparato na mas maihahambing sa isang graphic card, dahil idinisenyo ito para sa isang slot ng PCI Express at inilaan na magamit bilang isang multi-core coprocessor, tulad ng Nvidia Tesla. Sa ikalawang henerasyon, ang Xeon Phi ay naging pangunahing processor na mas katulad sa Xeon. Ito ay umaangkop sa parehong socket bilang isang Xeon processor at katugma sa x86; gayunpaman, kumpara sa Xeon, ang punto ng disenyo ng Xeon Phi ay binibigyang diin ang mas maraming mga kores na may mas mataas na bandwidth ng memorya.
Ano ang Intel Xeon Scalable?
Ang mga malalaking pagbabago ay isinasagawa sa sentro ng data ng kumpanya. Maraming mga organisasyon ang sumasailalim sa isang malawakang pagbabagong-anyo batay sa mga online na data at serbisyo, na ginamit ang data na iyon para sa malakas na Artipisyal na Intelligence at mga aplikasyon ng analytics na maaaring gawing mga ideya na nagbabago sa negosyo, at pagkatapos ay ipatupad ang mga tool at serbisyo na gumagana sa mga ideyang iyon.. Tumawag ito para sa isang bagong uri ng imprastraktura ng server at network, na-optimize para sa artipisyal na intelihensiya, analytics, napakalaking set ng data, at higit pa, na pinapagana ng isang rebolusyonaryong bagong CPU. Iyon ay kung saan ang linya ng Intel ng Sceable ng Intel.
Ang Intel Xeon Scalable ay kumakatawan sa posibleng pinakamalaking pagbabago sa hakbang sa dalawampung taon ng Xeon CPU. Ito ay hindi lamang isang mas mabilis na Xeon o Xeon na may maraming mga cores, ngunit isang pamilya ng mga processors na dinisenyo sa paligid ng isang synergy sa pagitan ng computing, network at mga kakayahan sa imbakan, na nagdadala ng mga bagong tampok at pagpapabuti ng pagganap sa lahat ng tatlo.
Habang ang Xeon Scalable ay nag-aalok ng isang 1.6x average na pagpapalakas ng pagganap sa mga naunang henerasyon na Xeon CPU, ang mga benepisyo ay lumalampas sa mga pamantayan upang masakop ang mga real-world optimization para sa analytics, seguridad, AI, at pagproseso ng imahe. Mayroong higit na lakas upang magpatakbo ng mga kumplikadong mga kumplikadong pagganap. Pagdating sa data center, panalo ito sa lahat ng paraan.
Marahil ang pinakamalaking at pinaka-halata na pagbabago ay ang kapalit ng lumang arkitekturang batay sa singsing na Xeon, kung saan ang lahat ng mga core ng processor ay konektado sa pamamagitan ng isang solong singsing, na may isang bagong arkitektura ng mesh o mesh. Ito ay nakahanay sa mga cores kasama ang nauugnay na cache, RAM, at I / O, sa mga hilera at haligi na kumokonekta sa bawat intersection, na nagpapahintulot sa data na ilipat nang mas mahusay mula sa isang pangunahing patungo sa isa pa.
Kung akalain mo ito sa mga tuntunin ng isang sistema ng transportasyon sa kalsada, ang sinaunang arkitektura ng Xeon ay tulad ng isang mataas na bilis ng pabilog, kung saan ang data na lumipat mula sa isang pangunahing patungo sa isa pa ay dapat lumipat sa paligid ng singsing. Ang bagong arkitektura ng mesh ay katulad ng isang parisukat na highway, isa lamang na nagpapahintulot sa trapiko na dumaloy sa pinakamataas na bilis ng point-to-point nang walang kasikipan. Ina- optimize nito ang pagganap sa mga gawain na may maraming sinulid kung saan ang iba't ibang mga cores ay maaaring magbahagi ng data at memorya, habang pinatataas ang kahusayan ng enerhiya. Sa pinaka-pangunahing kahulugan, ito ay isang layunin ng arkitektura na nilikha upang ilipat ang maraming mga data sa paligid ng isang processor na maaaring magkaroon ng hanggang sa 28 mga cores. Bukod dito, ito ay isang istraktura na pinalawak nang mas mahusay, kung pinag-uusapan natin ang tungkol sa maraming mga processors o mga bagong CPU na may higit pang mga cores sa ibang pagkakataon.
Kung ang arkitektura ng mesh ay tungkol sa paglipat ng data nang mas mahusay, kung gayon ang bagong tagubilin sa AVX-512 ay subukang i-optimize ang paraan ng pagpoproseso nito. Ang gusali sa gawaing sinimulan ng Intel sa kanyang unang mga extension ng SIMD noong 1996, pinapayagan ng AVX-512 ang mas maraming mga item ng data na maproseso nang sabay-sabay kaysa sa susunod na henerasyon na AVX2, pagdodoble ang lapad ng bawat tala at pagdaragdag ng dalawa pa upang mapagbuti ang pagganap. Pinapayagan ng AVX-512 ng dalawang beses sa maraming mga operasyon ng lumulutang na point bawat segundo bawat cycle ng orasan, at maaaring maproseso ng dalawang beses sa maraming mga item ng data tulad ng maaaring magkaroon ng AVX2 sa parehong pag-ikot ng orasan.
Mas mabuti pa, ang mga bagong tagubilin na ito ay partikular na idinisenyo upang mapabilis ang pagganap sa kumplikado, data-masinsinang mga workloads tulad ng pang-agham na kunwa, pagsusuri sa pananalapi, malalim na pagkatuto, imahe, audio at video processing, at kriptograpiya.. Nakatutulong ito sa isang processor ng Xeon Scalable na hawakan ang mga gawain ng HPC nang higit sa 1.6 beses nang mas mabilis kaysa sa katumbas ng nakaraang henerasyon, o mapabilis ang mga artipisyal na operasyon ng pag-aaral at malalim na pag-aaral ng 2.2x.
Tumutulong din ang AVX-512 sa pag-iimbak, pagpabilis ng mga pangunahing tampok tulad ng deduplication, encryption, compression, at decompression upang makagawa ka ng mas mahusay na paggamit ng iyong mga mapagkukunan at palakasin ang seguridad ng mga nasa lugar at pribadong serbisyo ng ulap.
Sa kahulugan na ito, ang AVX-512 ay gumagana nang magkasama sa teknolohiyang Intel QuickAssist (Intel QAT). Pinapayagan ng QAT ang pagpabilis ng hardware para sa pag-encrypt ng data, pagpapatunay, at compression at decompression, pagdaragdag ng pagganap at kahusayan ng mga proseso na naglalagay ng mataas na hinihingi sa imprastraktura ng network ngayon, at dadagdagan lamang ito habang nagpapatupad ka ng maraming mga serbisyo at mga digital na tool.
Ginamit kasabay ng Software Defined Infrastructure (SDI), makakatulong ang QAT sa iyo na mabawi ang mga nawalang mga siklo ng CPU na ginugol sa mga gawain sa seguridad, compression at decompression upang magamit ang mga ito para sa computationally intensive na mga gawain na magdala ng tunay na halaga sa kumpanya. Dahil ang isang QAT na pinagana ng CPU ay maaaring mahawakan ang mataas na bilis ng compression at decompression, halos walang bayad, ang mga aplikasyon ay maaaring gumana sa mga naka-compress na data. Hindi lamang ito may isang mas maliit na bakas ng imbakan, ngunit nangangailangan ng mas kaunting oras upang ilipat mula sa isang application o system sa isa pa.
Ang Intel Xeon Scalable CPUs ay nagsasama sa mga C620 series series ng Intel upang lumikha ng isang platform para sa balanseng pagganap ng buong sistema. Ang koneksyon ng Intel Ethernet na may iWARP RDMA ay naka-built in, na nag-aalok ng mababang latency 4x10GbE na komunikasyon. Nag-aalok ang platform ng 48 linya ng koneksyon ng PCIe 3.0 bawat CPU, na may 6 na mga channel ng DDR4 RAM bawat CPU na may mga capacities ng suporta na hanggang sa 768GB sa 1.5TB bawat CPU at bilis ng hanggang 2666MHz.
Tumatanggap ang pag-iimbak ng parehong mapagbigay na paggamot. Mayroong silid para sa hanggang sa 14 na SATA3 drive at 10 USB3.1 na mga port, hindi upang mailakip ang built-in na virtual na NMMe RAID control ng CPU. Ang suporta para sa susunod na henerasyon na teknolohiya ng Intel Optane ay higit na nagdaragdag ng pagganap ng imbakan, na may mga dramatikong positibong epekto sa in-memorya ng database at analytical na mga workload. At sa Intel Xeon Scalable, ang suporta sa tela ng Omni-Path ng Intel ay may built-in nang hindi nangangailangan ng isang discrete interface card. Bilang isang resulta, ang Xeon Scalable Processors ay handa na para sa high-bandwidth, low-latency application sa mga cluster ng HPC.
Sa Xeon Scalable, ang Intel ay naghatid ng isang linya ng mga processors na nakakatugon sa mga pangangailangan ng mga susunod na henerasyon na data center, ngunit ano ang ibig sabihin ng lahat ng teknolohiyang ito sa pagsasagawa? Para sa mga nagsisimula, ang mga server na maaaring hawakan ang mas malaking analytical na mga workload sa mas mataas na bilis, nakakakuha ng mas mabilis na mga pananaw mula sa mas malaking set ng data. Ang Intel Xeon Scalable ay mayroon ding kapasidad sa pag-iimbak at compute para sa advanced na malalim na pag-aaral at mga aplikasyon ng pag-aaral ng machine, na nagpapahintulot sa mga system na sanayin sa oras, hindi araw, o "mas mababa" ng kahulugan ng bagong data na may higit na bilis at katumpakan ng iproseso ang mga imahe, pagsasalita o teksto.
Ang potensyal para sa mga in-memorya ng database at mga aplikasyon ng analytics, tulad ng SAP HANA, ay napakalaki, na may pagganap ng hanggang sa 1.59 beses na mas mataas kapag nagpapatakbo ng mga in-memory workload sa susunod na henerasyon na Xeon. Kung ang iyong negosyo ay umaasa sa pangangalap ng impormasyon mula sa malawak na mga hanay ng data na may mga mapagkukunan ng real-time, maaaring sapat na iyon upang mabigyan ka ng isang kalamangan sa kompetisyon.
Ang Xeon Scalable ay may pagganap at memorya at bandwidth ng system upang mag-host ng mas malaki at mas kumplikadong mga aplikasyon ng HPC, at makahanap ng mga solusyon para sa mas kumplikadong mga problema sa negosyo, pang-agham at engineering. Maaari itong mag-alok ng mas mabilis, mas mataas na kalidad na video transcoding habang streaming video sa mas maraming mga customer.
Ang isang pagtaas sa kapasidad ng virtualization ay maaaring payagan ang mga organisasyon na magpatakbo ng apat na beses na mas maraming virtual machine sa isang Xeon Scalable server kaysa sa isang sistema ng susunod na henerasyon. Sa halos zero overhead para sa compression, decompression, at encryption ng data sa pahinga, ang mga negosyo ay maaaring gumamit ng kanilang imbakan nang mas epektibo, habang pinapalakas ang seguridad nang sabay. Hindi lamang ito tungkol sa mga benchmark, ito ay tungkol sa teknolohiya na nagbabago sa paraan ng iyong data center, at sa paggawa nito sa iyong negosyo.
Ano ang memorya ng ECC?
Ang ECC ay isang paraan ng pagtuklas at pagkatapos ay pagwawasto ng mga error sa memorya ng solong-bit. Ang isang solong error sa memorya ay isang error sa data sa paggawa o paggawa ng server, at ang pagkakaroon ng mga error ay maaaring magkaroon ng malaking epekto sa pagganap ng server. Mayroong dalawang uri ng mga error sa solong memorya: mahirap na mga pagkakamali at malambot na mga error. Ang mga pisikal na pagkakamali ay sanhi ng mga pisikal na kadahilanan, tulad ng labis na pagkakaiba-iba ng temperatura, pagkapagod ng stress, o pisikal na stress na nangyayari sa mga piraso ng memorya.
Ang mga soft error ay nangyayari kapag ang data ay isinulat o naiiba sa pagbasa kaysa sa orihinal na inilaan, tulad ng mga pagkakaiba-iba sa boltahe ng motherboard, kosmic ray, o radioactive decay na maaaring maging sanhi ng pagbabalik ng mga piraso sa memorya pabagu-bago ng isip. Dahil ang mga bits ay nagpapanatili ng kanilang na-program na halaga sa anyo ng isang de-koryenteng singil, ang ganitong uri ng pagkagambala ay maaaring mabago ang pag-load sa kaunting memorya, na nagiging sanhi ng isang error. Sa mga server, maraming mga lugar kung saan maaaring maganap ang mga error: sa imbakan ng yunit, sa CPU core, sa pamamagitan ng isang koneksyon sa network, at sa iba't ibang uri ng memorya.
Para sa mga workstation at server kung saan ang mga pagkakamali, katiwalian ng data, at / o mga pagkabigo sa system ay dapat iwasan sa lahat ng mga gastos, tulad ng sa sektor ng pananalapi, ang memorya ng ECC ay madalas na memorya ng pagpipilian. Ito ay kung paano gumagana ang memorya ng ECC. Sa pag-compute, natatanggap ang data at ipinadala sa pamamagitan ng mga bits, ang pinakamaliit na yunit ng data sa isang computer, na ipinahayag sa binary code gamit ang isa o zero.
Kapag ang mga bits ay pinagsama-sama, lumikha sila ng binary code, o "mga salita, " na mga yunit ng data na na-ruta at lumipat sa pagitan ng memorya at ng CPU. Halimbawa, ang isang 8-bit na binary code ay 10110001. Sa memorya ng ECC, mayroong isang karagdagang ECC bit, na kilala bilang isang pagkakapareho. Ang labis na pagkakapare-pareho na ito ay nagdudulot ng binasang code sa binary code sa 101100010, kung saan ang huling zero ay ang pagkakapareho at ginagamit upang makilala ang mga error sa memorya. Kung ang kabuuan ng lahat ng 1 sa isang linya ng code ay isang numero (hindi kasama ang pagkakapare-pareho), kung gayon ang linya ng code ay tinatawag kahit na pagkakapare-pareho. Ang code na walang error ay palaging mayroong pagkakapare-pareho. Gayunpaman, ang pagkakapare-pareho ay may dalawang mga limitasyon: may kakayahang makita ang mga kakaibang bilang ng mga error (1, 3, 5, atbp.) At pinapayagan kahit na ang mga bilang ng mga pagkakamali ay pumasa (2, 4, 6, atbp.). Ang pagkamagulang ay hindi maaaring iwasto ang mga error, maaari lamang itong makita ang mga ito. Iyon ay kung saan pumasok ang memorya ng ECC.
Ang memorya ng ECC ay gumagamit ng mga parity bits upang mag-imbak ng naka-encrypt na code kapag nagsusulat ng data sa memorya, at ang ECC code ay nakaimbak nang sabay. Kapag nabasa ang data, ang naka-imbak na code ng ECC ay inihambing sa ECC code na nabuo kapag nabasa ang data. Kung ang code na nabasa ay hindi tumutugma sa naka-imbak na code, nai-decry ito ng mga pagkakapare-pareho ng pagkakapare-pareho upang matukoy kung aling bit ang nagkakamali, kung gayon ang bit na ito ay naitama kaagad. Habang pinoproseso ang data, ang memorya ng ECC ay patuloy na nag-scan ng code na may isang espesyal na algorithm upang makita at iwasto ang mga error sa memorya ng solong-bit.
Sa mga kritikal na industriya ng misyon tulad ng sektor ng pananalapi, ang memorya ng ECC ay maaaring gumawa ng malaking pagkakaiba. Isipin na na-edit mo ang impormasyon sa isang kumpidensyal na account sa customer at pagkatapos ay ipinagpapalit ang impormasyong ito sa ibang mga institusyong pampinansyal. Habang ipinapadala mo ang data, sabihin nating ang isang binary digit ay nailipas ng ilang uri ng panghihimasok sa kuryente. Ang memorya ng server ng ECC ay tumutulong na mapanatili ang integridad ng iyong data, pinipigilan ang data ng katiwalian, at pinipigilan ang mga pag-crash ng system at pagkabigo.
Inirerekumenda namin ang pagbabasa:
Tinatapos nito ang aming artikulo sa Intel Xeon at lahat ng kailangan mong malaman tungkol sa mga bagong processors, tandaan na ibahagi ito sa social media upang matulungan nito ang mas maraming mga gumagamit na nangangailangan nito.
Intel optane vs ssd: lahat ng impormasyon

Suriin namin ang bagong teknolohiya ng imbakan ng Intel Optane at kung ano ang aasahan sa hinaharap salamat dito.
▷ Intel socket 1155 processors: lahat ng impormasyon? ? sandy tulay

Sa Intel socket 1155 isang hindi malilimot na siklo para sa gaming mundo ay nagsimula. Samakatuwid, ipinakita namin sa iyo ang lahat ng impormasyon tungkol sa kanya ✔️ ✔️
▷ Intel celeron at intel pentium 【lahat ng impormasyon】

Ipinapaliwanag namin ang kasaysayan at modelo ng mga prosesor ng Intel Celeron at Intel Pentium ✅ Mga tampok, disenyo, paggamit at paggamit nito sa pangunahing pc.