Internet

Mga benchmark: ano ito? Ano ito para sa kasaysayan, uri at tip

Talaan ng mga Nilalaman:

Anonim

Ang mga benchmark ay isang mahalagang bahagi ng aming pang-araw-araw na pagsusuri ng hardware, pinapayagan ka namin na mag-alok sa iyo ng isang maihahambing na maihahambing na pagsukat sa pagitan ng iba't ibang mga sangkap tulad ng mga CPU, graphics card, mga yunit ng imbakan, atbp. Ngayon ay ilalaan namin ang ilang mga linya sa kasaysayan nito , sa mga uri nito, kung paano sila gumagana, kung ano ang kanilang sukat, ano ang mga pinaka-karaniwang hakbang at bibigyan ka rin namin ng ilang mga tip sa kung paano maisakatuparan at kung alin ang dapat nating pagkatiwalaan.

Ang alam natin ngayon sa PC o mobile na mundo bilang mga benchmark ay mga pamamaraan na minana mula sa pang-industriya na kapaligiran na pinapayagan, mula pa sa simula ng rebolusyong ito, ang paggawa ng desisyon batay sa maihahambing na data sa isang kinokontrol na kapaligiran.

Ang mundo ng modernong computing ay nalalapat ang mga pamamaraan na ito sa halos lahat ng iba't ibang mga domain nito, at ang mga gumagamit ng bahay ay nagpatibay din sa kanila bilang isang maaasahang paraan upang malaman ang tungkol sa pagganap at kakayahan ng aming mga system pati na rin isang mahalagang punto ng impormasyon kapag upang makagawa ng mahahalagang desisyon, tulad ng pagbili ng aming bagong computer, mobile phone, graphics card, atbp.

Ngayon ay pag-uusapan natin ang tungkol sa kasaysayan ng mga benchmark ng PC, ang mga uri ng mga benchmark na umiiral at kung anong mga bahagi ng aming system ang mas angkop para sa ganitong uri ng mga pagsubok na hindi lamang pagganap.

Indeks ng nilalaman

Kasaysayan

Ang sistema ng benchmark o pagsukat ay nalalapat ng isang kinokontrol na kapaligiran at nakikilalang mga hakbang na maihahambing sa siyensya at napatunayan at pinagsama-sama sa mundo ng computer mula nang umiiral ito. Ang benchmark, tulad nito, ay na-democratized hanggang sa punto na ang bahagi ng pangunahing esensyal nito ay nawala, na kung saan maaari itong matanggap at mai-verify ng mga third party. Ngayon ginagamit namin ito nang mas mabilis na paghahambing ng pagganap, ngunit ang pagsubaybay sa katotohanan nito sa pamamagitan ng mga ikatlong partido ay tiyak na nawala.

Ang pinaka-klasikong pamamaraan ng benchmark ay palaging tinutukoy ang kapasidad ng computing ng CPU ng system, bagaman sa mga nagdaang panahon na ito ay nag-iba-iba sa pagitan ng iba't ibang mga sangkap, dahil ang mga ito ay nakakuha ng preponderance at kahalagahan sa loob ng isang computer.

Ang dalawang pinaka-klasikong yunit ng pagsukat na inilalapat pa rin ay ang mga Dhrystones at ang Whetstones. Parehong naging, sa ilang paraan, ang batayan ng lahat ng mga sintetikong benchmark na alam natin ngayon.

Ang pinakaluma ay ang Whetstones (isang lokalidad sa United Kingdom kung saan matatagpuan ang dibisyon ng atomic energy ng estado ng kapangyarihan ng estado ng United Kingdom) at dumating si Dhrystone sa paglaon sa pamamagitan ng pangalan ng una (basa at tuyo).

Ang una ay dinisenyo sa 70s at ang pangalawa ay mula sa 80s at pareho ang batayan ng paghahambing na pagganap na mayroon kami sa sunud-sunod na mga taon. Ang mga Whetstones, pinasimple, ay nag-aalok ng isang pananaw sa lakas ng computing ng processor sa mga operasyon ng lumulutang na point, mga operasyon na may malaking bilang ng mga decimals.

Ang Dhrystone ay katapat nito sapagkat ito ay nakatuon sa mga pangunahing tagubilin nang walang mga decimals, parehong nagbigay ng isang malinaw na larawan ng pagganap ng isang processor mula sa dalawang ganap na magkakaiba, ngunit ang mga pantulong na pamamaraan. Ang mga Whetstones at Dhrystone ay nagmula sa dalawang konsepto na ginagamit natin sa mas karaniwang ngayon, ang MIPS at FLOP.

Matapos ang mga sukat na ito ay dumating ang iba tulad ng FLOP (Floating-point Arithmetic - floating point arithmetic) na kung saan, sa isang malaking sukat, mas mahalaga ngayon sa isang computer kaysa sa nagawa dahil ito ang batayan ng advanced na pagkalkula sa maraming mga modernong pamamaraan. tulad ng mga artipisyal na algorithm ng katalinuhan, mga algorithm ng medikal, pagtataya ng panahon, malabo na lohika, pag-encrypt, atbp.

Ang LINPACK ay binuo ng engineer na si Jack Dongarra noong 1980s at patuloy na ginagamit ngayon upang masukat ang lumulutang na computing point computing ng lahat ng mga uri ng mga system. Sa kasalukuyan may mga bersyon na na-optimize ng arkitektura, tagagawa ng CPU, atbp.

Punan ang mga FLOPS ng aming mga artikulo sa mga graphics card (tiyak na ang tunog ng tunog o katumpakan na pamilyar), mga processors at ang batayan para sa pagkalkula ng mga kinakailangan ng kapangyarihan at pag-unlad ng hardware para sa anumang superkomputer na nasa operasyon o pag-unlad.

Ang FLOP ngayon ang pinaka kinakailangang yunit ng pagsukat ng pagganap sa industriya, ngunit palagi itong pinagsama sa MIPS (Milyun-milyong mga tagubilin bawat segundo) na isang kawili-wiling panukalang pagsukat, dahil binibigyan nito sa amin ang bilang ng mga tagubilin Pangunahing aritmetika na maaaring gawin ng isang processor bawat segundo, ngunit higit na nakasalalay sa arkitektura ng processor (ARM, RISC, x86, atbp.) At ang wika ng programming kaysa sa iba pang mga yunit ng pagsukat.

Bilang ang pagganap ay advanced ang mga multiplier ay nangyari. Sinusukat namin ngayon ang pagganap ng mga home CPU sa GIPS at GFLOPS. Ang batayan ay nananatiling pareho, klasikal na pagpapatakbo ng aritmetika. Patuloy na inaalok sa amin ni Sisoft Sandra ang ganitong uri ng pagsukat sa ilan sa mga sintetikong benchmark.

Ang MIPS ay naging higit na naibalik sa CPU bilang isang klasikong elemento at ang FLOP ay pinalawak sa iba pang mga umuunlad na lugar tulad ng kapasidad sa pagproseso o pangkalahatang pagkalkula ng mga dating processors na nakatuon sa mga tiyak na gawain tulad ng mga GPU na lahat tayo ay naka-mount sa aming mga processors o ang aming nakalaang pagpapalawak card.

Sa mga pangunahing konsepto na ito ng oras ay nagdaragdag ng mga bagong yunit ng pagsukat mas marami o mas mahalaga kaysa sa mga ito sa isang modernong computer o supercomputer. Ang transit ng data ay isa sa mga hakbang na ito na naging napakahalaga at kasalukuyang sinusukat sa mga IOP (mga operasyon at pag-input at output sa bawat segundo) at sa iba pang mga form tulad ng mga panukala sa pag-iimbak ng MB / GB / TB kumpara sa oras na kinakailangan paglalakbay mula sa isang punto patungo sa isa pa (MBps - Megabytes bawat segundo).

Sinusukat ng AS-SSD ang pagganap ng isang hard disk sa mga MBps o IOP.

Kasalukuyan din naming ginagamit ang panukala ng paglipat, sa iba't ibang mga multiplier, bilang isang paraan ng pagpapaliwanag sa bilis ng transit ng impormasyon sa pagitan ng dalawang puntos kung kailan ilalabas ang ilang impormasyon na talagang mayroon kaming nalikha ng kaunti pang impormasyon. Ito ay nakasalalay sa protocol na ginamit para sa paglipat ng impormasyon.

Ang isang malinaw na halimbawa, at na gumagamit kami ng maraming, ay nasa interface ng PCI Express. Sa ilalim ng protocol na ito, para sa bawat 8 piraso ng impormasyon na nais naming ilipat (0 o 1) kailangan nating makabuo ng 10 bits ng impormasyon dahil ang sobrang impormasyon ay para sa kontrol ng komunikasyon na ipinadala para sa pagwawasto ng error, integridad ng data, atbp.

Ang iba pang mga kilalang protocol na nagpapakilala rin sa "pagkawala" ng tunay na impormasyon ay ang IP, ang ginagamit mo upang basahin ang artikulong ito at na ang iyong koneksyon sa 300MT / s ay talagang nag-aalok ng kaunting mas kaunti sa bilis ng 300mbps.

Samakatuwid, ginagamit namin ang Gigatransfer o ang paglipat kapag tinutukoy namin ang hilaw na impormasyong ipinadala ng interface, at hindi sa impormasyong aktwal na naproseso sa tagatanggap. Ang isang 8GT / s PCI Express 3.0 data bus ay talagang nagpapadala ng 6.4GBps ng impormasyon para sa bawat linya na konektado sa pagitan ng mga puntos. Ang paglilipat ay naging napakahalaga sa pagsasama ng protocol ng PCI Express sa lahat ng pangunahing mga bus ng isang bahay at propesyonal na computer.

Sa mga nagdaang panahon sinimulan din nating pagsamahin ang mga panukala bilang isang paraan ng pag-uugnay sa kapangyarihan ng pagproseso sa iba pang napakahalagang mga kadahilanan sa modernong kompyuter, kasama ang pagkonsumo bilang isa sa mga hakbang na ito na ipinakilala bilang isang comparative scale sa pagitan ng pagganap ng dalawang system. Ang kahusayan ng enerhiya ay mas marami o mas mahalaga ngayon kaysa sa kapangyarihan ng proseso at samakatuwid ay madaling makita ang mga benchmark na ihambing ang proseso ng kapangyarihan ayon sa watts ng pagkonsumo ng elemento sa pagsukat.

Sa katunayan, ang isa sa mga mahusay na listahan ng mga supercomputer ay hindi tumutukoy sa labis na kapangyarihan ng computer sa lahat ng mga computing node nito ngunit sa pagbuo ng kapangyarihan na batay sa watts o enerhiya na natupok ng buong sistema. Ang listahan ng Green500 (FLOPS bawat watt - FLOPS bawat wat) ay isang malinaw na halimbawa kung paano pangunahing ang pagkonsumo ngayon sa anumang benchmark na may paggalang sa sarili, kahit na walang pag-aalinlangan ay patuloy kaming tumitingin ng mabuti sa listahan ng TOP500 na walang kadahilanan na ito bilang isang kadahilanan sa pag-aari.

Mga uri ng mga benchmark

Bagaman maaari nating pag-usapan ang tungkol sa marami pang mga pamilya o uri ng mga benchmark, ako ay gawing simple ang listahan sa dalawang pinaka-karaniwang klase ng mga na pinakamalapit sa ating lahat bilang higit pa o mas kaunting mga advanced na gumagamit.

Sa isang banda, mayroon kaming mga benchmark ng sintetiko na higit sa lahat na nag-aalok sa amin ng mga panukala na napag-usapan namin dati. Ang mga benchmark ng sintetiko ay mga programa na nagsasagawa ng mga kinokontrol na mga pagsubok na may higit pa o hindi gaanong matatag na code ng programa sa oriented para sa isang tiyak na platform at arkitektura. Ang mga ito ay mga programa na nagsasagawa ng napaka-tiyak na mga pagsubok na maaaring pagsamahin ang isa o higit pa sa aming mga bahagi, ngunit kung saan ang parehong pagsubok o pagsubok ay palaging isinasagawa, nang walang mga pagbabago.

Ang pag-render ng imahe ay palaging isang mahusay na pamamaraan ng pag-alam ng pagganap ng isang CPU sa isang modernong sistema dahil ito ay isang hinihiling gawain. Ang Cinebench R15 ay mayroon ding maraming mga pagsubok, isa para sa GPU at dalawa para sa CPU, kung saan malalaman natin ang pagganap ng mga system na may maraming mga cores at proseso ng mga thread.

Nag-aalok sila ng isang kinokontrol na kapaligiran sa pagsubok, kung saan walang mga pagbabago maliban sa mga bersyon at kung saan ang mga pagbabagong ito ay maayos na naitala upang malaman ng gumagamit kung aling mga bersyon ang maaaring ihambing sa bawat isa. Ang mga uri ng mga programa ay maaaring subukan ang iba't ibang mga subsystem ng aming computer nang hiwalay, kasama ang iba pang mga piraso ng code o mga tiyak na benchmark upang magsagawa ng isang tiyak na uri ng pagsubok, o pinagsama na maaaring maapektuhan ng pagganap ng isa, dalawa o higit pang mga sangkap ng system. Ang benchmark na isinama sa isang laro, o mga programa tulad ng Cinebench, Sisoft Sandra, SuperPI, 3DMark,… ay mga malinaw na halimbawa ng mga sintetikong benchmark.

Ang iba pang mga sintetikong benchmark na hindi natin dapat malito sa mga tunay na benchmark ay ang mga na gayahin ang pagpapatupad ng mga tunay na programa, o na nagsasagawa ng mga script ng aksyon sa totoong mga programa, ang mga ito ay sintetikong din dahil walang randomness sa pagsubok, ang PC Mark ay isang malinaw na halimbawa ng isang synthetic benchmark program na maaari nating malito sa isang tunay na benchmark.

Ang aktwal na benchmark ay isang napaka-ibang paraan ng pagsubok dahil tinatanggap nito ang randomness ng paggamit ng isang programa upang masukat ang pagganap nito. Ginagamit ang mga manlalaro upang maisagawa ang ganitong uri ng mga benchmark o pagsubok sa pagganap kapag inaayos namin ang mga kalidad ng mga parameter ng isang laro sa mga posibilidad ng aming hardware.

Ang pagsukat sa pagganap ng isang laro habang naglalaro ka ay isang tunay na benchmark.

Kapag binuksan mo ang FPS na ang laro ay nagbibigay at subukang makamit ang ninanais na 60FPS na patuloy na pagkatapos ay gumaganap sila ng isang tunay na benchmark. Ang parehong ay maaaring ma-extrapolated sa anumang iba pang uri ng programa at kung ikaw ay isang developer, kapag na-optimize mo ang code ng iyong programa, pagkatapos ay gumagawa ka rin ng mga tunay na benchmark test kung saan ang mga pagbabago ay ang iyong code, o ang paraan ng pagpapatupad nito, sa isang platform ng matatag o variable na hardware.

Ang parehong mga uri ng mga benchmark ay mahalaga, pinapayagan tayo ng una na ihambing ang aming system sa iba sa isang kinokontrol na kapaligiran at ang pangalawa ay isang paraan upang ma-optimize ang aming operasyon kung saan idinagdag din ang dalawang mahahalagang kadahilanan, ang randomness sa pagpapatupad at ang kadahilanan ng tao. Ang parehong mga kadahilanan ay nag-aalok ng isang karagdagang punto ng view sa pagganap ng sangkap o mga sangkap na nais naming subukan.

Mga pagsasaalang-alang kapag benchmarking

Para sa isang benchmark upang maging kapaki-pakinabang at epektibo kailangan nating isaalang-alang ang ilang mga kadahilanan na talagang mahalaga. Ang paghahambing sa pagitan ng iba't ibang mga platform at arkitektura ay nagpapakilala ng isang mahalagang kadahilanan ng kawalan ng katiyakan, kaya ang ganitong uri ng mga benchmark na nagbibigay sa iyo ng kakayahang ihambing ang mga iOS mobile phone sa Windows x86 computer, upang magbigay ng isang halimbawa, kailangan mong gawin ang mga ito sa mga sipit dahil hindi lamang ito nagbabago operating system kernel, ngunit ang mga arkitektura ng processor ay naiiba. Ang mga nag-develop ng ganitong uri ng mga benchmark (halimbawa, Geekbench) ay nagpapakilala sa mga kadahilanan sa pagwawasto sa pagitan ng kanilang iba't ibang mga bersyon na bahagya na mapigilan.

Samakatuwid, ang unang susi para sa isang benchmark na maihahambing sa pagitan ng iba't ibang mga hardware ay ang katulad na pagsubok ng ekosistema ay katulad sa posible sa benchmark platform, operating system, driver at software na bersyon. Mayroong tiyak na mga elemento dito na hindi natin makokontrol ang homogenize, tulad ng graphics controller kung susubukan natin ang mga AMD graphics laban sa mga graphics ng Nvidia, ngunit ang natitirang kailangan nating subukang gawing matatag hangga't maaari. Sa kasong ito, isasama rin namin ang hardware, dahil upang ihambing ang mga graphic card, ang iyong bagay ay ang paggamit ng parehong operating system, ang parehong processor, ang parehong mga alaala at lahat ng mga operating parameter, na pinapanatili ang pareho, kabilang ang mga parameter ng kalidad, paglutas at pagsubok sa benchmark. Ang mas matatag ang ecosystem ng pagsubok ay, mas maaasahan at maihahambing ang aming mga magiging resulta.

Inirerekumenda namin ang pagbabasa Paano malalaman kung ang aking processor ay may isang bottleneck?

Ang isa pang bagay na dapat nating isaalang-alang ay ang mga pagsubok sa benchmark na karaniwang may isang kadahilanan ng pagkapagod sa hardware na susubukan natin at karaniwang isasailalim ang hardware na ito sa mga sitwasyon na hindi karaniwang mangyayari sa normal na paggamit ng system. Ang bawat benchmark na kinukuha namin mula sa aming hard drive, graphics card o processor, ay isusumite sa kanila sa mga sitwasyon na maaaring mapanganib para sa hardware, kaya dapat nating itaguyod ang naaangkop na mga hakbang upang ang punto ng pagkapagod ay hindi maging isang bali ng bali o sa isang elemento ng pagbawas sa pagganap dahil maraming mga sangkap ang may mga sistema ng proteksyon kung saan binabawasan ang kanilang pagganap sa kaso, halimbawa, ng mga temperatura sa labas ng kanilang saklaw ng paggamit. Ang sapat na paglamig, mga panahon ng pahinga sa pagitan ng mga pagsubok, tamang pagpapakain ng mga sangkap sa ilalim ng pagsubok… lahat ay dapat na nasa isang perpektong sitwasyon para sa pagsubok na tumakbo nang maayos.

Sa kabilang banda, ginagamit din namin nang tumpak ang ganitong uri ng mga benchmark upang mapasailalim ang system upang ma-stress upang makita ang katatagan nito sa ganitong uri ng sitwasyon, ito ay isang kakaibang paraan ng pag-apply ng isang benchmark dahil hindi lamang ito naghahanap upang malaman ang pagganap ngunit din kung ang sistema ay matatag at higit pa, kung ang system ay gumaganap tulad ng nararapat sa mga nakababahalang sitwasyon.

Konklusyon

Para sa amin na nakatuon sa pagsubok sa hardware ng computer na propesyonal, ang benchmark ay isang gumaganang tool at salamat dito, ang mga gumagamit ay may pang-agham at napatunayan na paraan ng paghahambing o alam ang pagganap ng aming susunod na computer sa bawat isa sa mga subsystem na may katumpakan. maihahambing sa mga tool na ginamit sa antas ng pang-industriya.

Ang isang talahanayan ng pagsubok, tulad ng nakikita mo sa imahe, ay naghahanap ng tumpak na pamantayan ang pamamaraan ng pagsubok, upang ang paghahambing ng benchmark ay maaasahan hangga't maaari at masusubukan kapag nagpapakilala ng mga pagkakaiba-iba na nagbabago ng mga resulta.

Ngunit tulad ng anumang "laboratoryo" na pagsubok, para ito ay maaasahan, ang tamang mga kondisyon ay dapat na nasa lugar para maisagawa ito, at higit pa para sa ito ay maihahambing sa pagitan ng iba't ibang mga sistema.

Ngayon sinabi namin sa iyo ang kaunti tungkol sa kasaysayan ng ganitong uri ng programa, ang iba't ibang uri nito, kung paano sila gumagana at kung paano makakuha ng maaasahang impormasyon mula sa kanila. Ang mga ito ay kapaki-pakinabang, ngunit para sa akin sila ay isa lamang piraso ng impormasyon na dapat tandaan at lagi kong ilalagay ito sa likod ng personal na karanasan at aktibong pagsubok sa mga totoong programa na gagamitin namin araw-araw.

Ang isang benchmark ay mainam upang maglagay ng isang minimum na data ng pagganap sa aming proseso ng pagpapasya, ngunit hindi nila dapat tukuyin ang mga pagpapasyang iyon at, bilang isang huling tip, iwasan ang mga sintetikong benchmark na nagsasabing magagawang ihambing ang pagganap sa pagitan ng mga arkitektura, operating system, atbp.

Internet

Pagpili ng editor

Back to top button