Nvidia 【lahat ng impormasyon】

Talaan ng mga Nilalaman:
- Kasaysayan ng Nvidia
- Nvidia GeForce at Nvidia Pascal, nangingibabaw sa paglalaro
- Artipisyal na katalinuhan at arkitektura ng Volta
- Ang hinaharap ni Nvidia ay dumaan sa Turing at Ampere
- NVIDIA G-Sync, pagtatapos ng mga isyu sa pag-sync ng imahe
Ang Nvidia Corporation, na mas kilala bilang Nvidia, ay isang kumpanya ng teknolohiyang Amerikano na isinama sa Delaware at nakabase sa Santa Clara, California. Dinisenyo ng Nvidia ang mga yunit ng pagproseso ng graphics para sa laro ng video at mga propesyonal na merkado, pati na rin ang isang chip unit (SoC) system para sa automotive at mobile computing market. Ang linya ng pangunahing produkto nito, ang GeForce, ay nasa direktang kumpetisyon sa mga produktong Radeon ng AMD.
Inirerekumenda namin na basahin ang aming pinakamahusay na PC hardware at mga gabay sa sangkap:
Bilang karagdagan sa pagmamanupaktura ng mga GPU, ang Nvidia ay nagbibigay ng kahilera sa pagpoproseso ng mga kakayahan sa buong mundo sa mga mananaliksik at siyentipiko, na nagpapagana sa kanila upang mahusay na magpatakbo ng mga aplikasyon ng mataas na pagganap. Kamakailan lamang, lumipat ito sa merkado ng mobile computing, kung saan gumagawa ito ng mga mobile processors Tegra para sa mga video game console, tablet, at autonomous nabigasyon at mga sistema ng entertainment sa sasakyan. Ito ay humantong sa Nvidia na maging isang kumpanya na nakatuon sa apat na merkado mula noong 2014 : paglalaro, propesyonal na paggunita, mga sentro ng data, at artipisyal na katalinuhan at sasakyan.
Indeks ng nilalaman
Kasaysayan ng Nvidia
Ang Nvidia ay itinatag noong 1993 nina Jen-Hsun Huang, Chris Malachowsky, at Curtis Priem. Ang tatlong co-tagapagtatag ng kumpanya ay hypothesized na ang tamang direksyon para sa pag-compute ay dadaan sa pagproseso ng pinabilis na graphics, na naniniwala na ang modelong ito ng computing ay maaaring malutas ang mga problema na hindi malulutas ng pangkalahatang-layunin na computing. Nabanggit din nila na ang mga laro sa video ay ilan sa mga pinaka-computationally na mapaghamong mga isyu, at mayroon silang hindi mapaniniwalaan o kapani-paniwala na mataas na mga volume ng benta.
Mula sa isang maliit na kumpanya ng laro ng video hanggang sa isang artipisyal na higanteng katalinuhan
Ang kumpanya ay ipinanganak na may paunang kapital na $ 40, 000, sa una ay walang pangalan, at ang mga co-tagapagtatag ay pinangalanan ang lahat ng mga file na NV, tulad ng sa "susunod na paglabas." Ang pangangailangan na isama ang kumpanya ay naging dahilan upang suriin ang mga co-tagapagtatag ng lahat ng mga salita sa dalawang titik na iyon, na humantong sa kanila na "invidia", ang salitang Latin na nangangahulugang "inggit".
Ang paglulunsad ng RIVA TNT noong 1998 pinagsama ang reputasyon ni Nvidia para sa pagbuo ng mga adaptor ng graphics. Sa huling bahagi ng 1999, pinakawalan ni Nvidia ang GeForce 256 (NV10), na higit sa lahat ay ipinakilala ang pagbabagong-anyo ng antas at pag-iilaw (T&L) sa consumer ng 3D. Nagpapatakbo sa 120 MHz at nagtatampok ng apat na linya ng mga pixel, ipinatupad nito ang advanced na video acceleration, paggalaw ng paggalaw, at pagsasama ng sub-image ng pagsasama. Ginagamit ng GeForce ang mga umiiral na produkto sa pamamagitan ng isang malawak na margin.
Dahil sa tagumpay ng mga produkto nito, nanalo si Nvidia ng kontrata upang mabuo ang graphic hardware para sa Xbox game console ng Microsoft, na kumita ng Nvidia ng $ 200, 000 na advance. Gayunpaman, kinuha ng proyekto ang marami sa mga pinakamahusay na inhinyero mula sa iba pang mga proyekto. Sa maikling panahon, hindi ito mahalaga, at ang GeForce2 GTS ay naipadala sa tag-araw ng tag-init ng 2000. Noong Disyembre 2000, naabot ni Nvidia ang isang kasunduan upang makuha ang mga intelektwal na pag-aari ng tanging karibal nitong 3dfx, isang payunir sa teknolohiya ng 3D graphics para sa consumer. na namuno sa bukid mula sa kalagitnaan ng 1990s hanggang 2000. Natapos ang proseso ng pagkuha noong Abril 2002.
Noong Hulyo 2002, nakuha ni Nvidia si Exluna para sa isang hindi natukoy na halaga ng pera. Si Exluna ay may pananagutan sa paglikha ng iba't ibang mga tool sa pag-render ng software. Nang maglaon, noong Agosto 2003, nakuha ni Nvidia ang MediaQ sa tinatayang $ 70 milyon. At nakuha din nito ang iReady, isang tagapagbigay ng mga mataas na pagganap na TCP / IP at mga solusyon sa offload ng iSCSI noong Abril 22, 2004.
Napakaganda ng tagumpay ni Nvidia sa merkado ng video game, na noong Disyembre 2004 ay inihayag na makakatulong ito sa Sony sa disenyo ng processor ng PlayStation 3 na RSX, ang bagong henerasyon ng video game console mula sa Japanese firm na nagkaroon ito ng mahirap na gawain ng pag-uulit ng tagumpay ng hinalinhan nito, ang pinakamahusay na ibebenta sa kasaysayan.
Noong Disyembre 2006, si Nvidia ay nakatanggap ng mga sipi mula sa Kagawaran ng Katarungan ng US. Kaugnay sa mga posibleng paglabag sa antitrust sa industriya ng graphics card. Sa oras na iyon ang AMD ay naging mahusay na karibal nito, pagkatapos ng pagbili ng ATI ng huli. Mula noon, ang AMD at Nvidia ay ang tanging mga tagagawa ng mga video card graphics video, hindi nakakalimutan ang pinagsama na chips.
Ipinangalanan ni Forbes si Nvidia na Pinakamagandang Kumpanya ng Taon para sa 2007, na binabanggit ang mga nagawa na ginawa nitong nakaraang limang taon. Noong Enero 5, 2007, inihayag ni Nvidia na nakumpleto nito ang pagkuha ng PortalPlayer, Inc, at noong Pebrero 2008, nakuha ni Nvidia ang Ageia, nag-develop ng PhysX physics engine at physics processing unit na nagpapatakbo sa engine na ito. Inihayag ni Nvidia na binalak nitong pagsamahin ang teknolohiya ng PhysX sa hinaharap na mga produkto ng GeForce GPU.
Nahaharap ang kahirapan ni Nvidia noong Hulyo 2008, nang makatanggap ito ng pagbaba ng kita ng humigit-kumulang na $ 200 milyon matapos itong maulat na ang ilang mga mobile chipset at mobile GPU na ginawa ng kumpanya ay may mga hindi normal na rate ng pagkabigo dahil sa mga depekto sa pagmamanupaktura. Noong Setyembre 2008, si Nvidia ay naging paksa ng isang demanda ng aksyon sa klase ng mga naapektuhan, na sinasabing ang mga may sira na GPU ay isinama sa ilang mga modelo ng mga notebook na ginawa ni Apple, Dell at HP. Natapos ang soap opera noong Setyembre 2010, nang naabot ng Nvidia ang isang kasunduan na ang mga may-ari ng mga apektadong laptop ay igaganti para sa gastos ng pag-aayos o, sa ilang mga kaso, kapalit ng produkto.
Noong Nobyembre 2011, pinakawalan ni Nvidia ang ARG Tegra 3 chip system para sa mga mobile na aparato pagkatapos ng una nitong ipinakilala sa Mobile World Congress. Inamin ni Nvidia na itinampok ng chip ang unang quad-core mobile CPU. Noong Enero 2013, ipinakilala ni Nvidia ang Tegra 4, pati na rin ang Nvidia Shield, isang portable gaming console na nakabase sa Android na pinalakas ng bagong processor.
Noong Mayo 6, 2016 ipinakilala ni Nvidia ang GeForce GTX 1080 at 1070 graphics cards, ang una batay sa bagong microiskitektura ng Pascal. Inamin ni Nvidia na ang parehong mga modelo ay nagbago sa kanilang modelong Titan X na nakabase sa Maxwell. Isinasama ng mga kard ang memorya ng GDDR5X at GDDR5, at gumamit ng isang proseso ng pagmamanupaktura ng 16nm. Sinusuportahan din ng arkitektura ng Pascal ang isang bagong tampok na hardware na kilala bilang sabay-sabay na maramihang projection (SMP), na idinisenyo upang mapabuti ang kalidad ng multi-monitor at virtual reality rendering. Pinapagana ni Pascal ang paggawa ng mga laptop na nakakatugon sa pamantayan ng disenyo ng Max-Q na Nvidia.
Noong Mayo 2017, inanunsyo ng Nvidia ang isang pakikipagtulungan sa Toyota Motor Corp kung saan gagamitin ng huli ang serye ng artipisyal na intelektwal na intelihente ng Nvidia's Drive X para sa mga autonomous na sasakyan nito. Noong Hulyo 2017, inihayag ng Nvidia at higanteng paghahanap ng Tsino na Baidu, Inc. ang isang malakas na pakikipagtulungan ng AI na kasama ang cloud computing, autonomous driving, consumer device, at Baidu's AI framework, PaddlePaddle.
Nvidia GeForce at Nvidia Pascal, nangingibabaw sa paglalaro
Ang GeForce ay ang pangalan ng tatak para sa mga graphic card batay sa mga yunit ng pagproseso ng graphics (GPU) na nilikha ni Nvidia mula 1999. Hanggang sa kasalukuyan, ang serye ng GeForce ay nakakaalam ng labing anim na henerasyon mula nang ito ay umpisa. Ang mga bersyon na nakatuon sa mga propesyonal na gumagamit ng mga kard ay nagmula sa pangalang Quadro, at kasama ang ilang mga tampok na pagkakaiba-iba sa antas ng driver. Ang direktang kumpetisyon ng GeForce ay AMD kasama ang mga card ng Radeon.
Ang Pascal ay ang pangalan ng code para sa pinakabagong GPU microarchitecture na binuo ni Nvidia na nagpasok ng merkado ng video game, bilang isang kahalili sa nakaraang arkitektura ng Maxwell. Ang arkitektura ng Pascal ay unang ipinakilala noong Abril 2016 kasama ang paglulunsad ng Tesla P100 para sa mga server noong Abril 5, 2016. Sa kasalukuyan, ang Pascal ay pangunahing ginagamit sa seryeng GeForce 10, kasama ang GeForce GTX 1080 at GTX Ang unang 1070 video game card ay pinakawalan kasama ang arkitektura na ito, noong Mayo 17, 2016 at Hunyo 10, 2016 ayon sa pagkakabanggit. Ang Pascal ay ginawa gamit ang proseso ng 16nm FinFET ng TSMC, na pinapayagan itong mag-alok ng higit na mahusay na kahusayan ng enerhiya at pagganap kumpara sa Maxwell, na ginawa sa 28nm FinFET.
Ang Pascal arkitektura ay isinaayos sa loob sa kung ano ang kilala bilang streaming multiprocessor ( SM), ang mga functional unit na binubuo ng 64 CUDA Cores, na naman ay nahahati sa dalawang mga bloke ng pagproseso ng 32 CUDA Cores ng mga ito at sinamahan ng isang tagubilin sa pagtuturo, isang planeta ng warp, 2 mga yunit ng pagmamapa ng texture at 2 mga yunit ng pagpapadala. Ang mga SM drive ay katumbas ng mga CU ng AMD.
Ang arkitektura ng Pascal ni Nvidia ay idinisenyo upang maging pinaka mahusay at advanced sa mundo ng gaming. Ang koponan ng engineering ng Nvidia ay naglalagay ng maraming pagsisikap sa paglikha ng isang arkitektura ng GPU na may kakayahang napakataas na bilis ng orasan, habang pinapanatili ang mahigpit na pagkonsumo ng kuryente. Upang makamit ito, ang isang maingat at na-optimize na disenyo ay pinili sa lahat ng mga circuit nito, na nagreresulta sa Pascal na maabot ang isang dalas 40% na mas mataas kaysa sa Maxwell, isang pigura na mas mataas kaysa sa proseso ay pinapayagan sa 16 nm nang walang lahat ng mga pag-optimize sa antas ng disenyo.
Ang memorya ay isang pangunahing elemento sa pagganap ng isang graphic card, ang teknolohiyang GDDR5 ay inihayag noong 2009, kaya naging lipas na ito para sa pinakamalakas na graphics card ngayon. Iyon ang dahilan kung bakit sinusuportahan ng Pascal ang memorya ng GDDR5X, na kung saan ay ang pinakamabilis at pinaka-advanced na pamantayan ng interface ng memorya sa kasaysayan sa oras ng paglulunsad ng mga graphic card na ito, na umaabot sa mga bilis ng paglilipat ng hanggang sa 10 Gbps o halos 100 picosecond sa pagitan ng mga bit. ng data. Pinapayagan din ng memorya ng GDDR5X ang graphics card na ubusin ang mas kaunting lakas kumpara sa GDDR5, dahil ang operating boltahe ay 1.35V, kumpara sa 1.5V o higit pa na kailangan ng mas mabilis na GDDR5 chips. Ang pagbawas sa boltahe ay isinasalin sa isang 43% na mas mataas na dalas ng operating na may parehong pagkonsumo ng kuryente.
Ang isa pang mahalagang pagbabago ng Pascal ay nagmula sa mga diskarte sa compression ng memorya nang walang pagkawala ng pagganap, na binabawasan ang demand para sa bandwidth ng GPU. Kasama sa Pascal ang ika-apat na henerasyon ng teknolohiyang compression ng delta color. Sa pamamagitan ng delta color compression, sinusuri ng GPU ang mga eksena upang makalkula ang mga pixel na ang impormasyon ay maaaring mai-compress nang hindi sinasakripisyo ang kalidad ng eksena. Habang ang arkitektura ng Maxwell ay hindi nagawang i-compress ang data na may kaugnayan sa ilang mga elemento, tulad ng mga halaman at mga bahagi ng kotse sa laro ng Mga Laro sa Kotse, si Pascal ay maaaring mag-compress sa karamihan ng impormasyon sa mga elementong ito, kaya't mas mahusay kaysa sa Maxwell. Bilang isang kinahinatnan, ang Pascal ay maaaring makabuluhang bawasan ang bilang ng mga baitang na dapat makuha mula sa memorya. Ang pagbawas sa mga byte ay isinalin sa isang karagdagang 20% ng epektibong bandwidth, na nagreresulta sa isang pagtaas ng 1.7 beses na bandwidth kasama ang paggamit ng memorya ng GDDR5X kumpara sa GDDR5 at arkitektura ng Maxwell.
Nag-aalok din si Pascal ng mga mahahalagang pag-unlad na may kaugnayan sa Asynchronous Computing, isang bagay na napakahalaga dahil sa kasalukuyan ay napaka-kumplikado ang mga karga sa trabaho. Salamat sa mga pagpapabuti na ito, ang arkitektura ng Pascal ay mas mahusay sa pamamahagi ng pagkarga sa lahat ng iba't ibang mga yunit ng SM, na nangangahulugang walang gaanong hindi nagamit na mga CUDA cores. Pinapayagan nito ang pag-optimize ng GPU na maging mas malaki, na gumamit ng lahat ng mga mapagkukunan na mayroon ito.
Ang sumusunod na talahanayan ay nagbubuod ng pinakamahalagang tampok ng lahat ng mga kard na batay sa Pascal na GeForce.
NVIDIA GEFORCE PASCAL GRAPHICS CardsS |
||||||
CUDA Cores | Dalas (MHz) | Memorya | Interface ng memorya | Mga bandwidth ng memorya (GB / s) | TDP (W) | |
NVIDIA GeForce GT1030 | 384 | 1468 | 2 GB GDDR5 | 64 bit | 48 | 30 |
NVIDIA GeForce GTX1050 | 640 | 1455 | 2 GB GDDR5 | 128 bit | 112 | 75 |
NVIDIA GeForce GTX1050Ti | 768 | 1392 | 4 GB GDDR5 | 128 bit | 112 | 75 |
NVIDIA GeForce GTX1060 3 GB | 1152 | 1506/1708 | 3GB GDDR5 | 192 bit | 192 | 120 |
NVIDIA GeForce GTX1060 6GB | 1280 | 1506/1708 | 6 GB GDDR5 | 192 bit | 192 | 120 |
NVIDIA GeForce GTX1070 | 1920 | 1506/1683 | 8GB GDDR5 | 256 bit | 256 | 150 |
NVIDIA GeForce GTX1070Ti | 2432 | 1607/1683 | 8GB GDDR5 | 256 bit | 256 | 180 |
NVIDIA GeForce GTX1080 | 2560 | 1607/1733 | 8 GB GDDR5X | 256 bit | 320 | 180 |
NVIDIA GeForce GTX1080 Ti | 3584 | 1480/1582 | 11 GB GDDR5X | 352 bit | 484 | 250 |
NVIDIA GeForce GTX Titan Xp | 3840 | 1582 | 12 GB GDDR5X | 384 bit | 547 | 250 |
Artipisyal na katalinuhan at arkitektura ng Volta
Ang mga GPU ng Nvidia ay malawakang ginagamit sa mga larangan ng malalim na pag-aaral, artipisyal na katalinuhan, at pinabilis na pagsusuri ng malaking halaga ng data. Ang kumpanya ay bumuo ng malalim na pag-aaral batay sa teknolohiya ng GPU, upang magamit ang artipisyal na intelihensiya upang matugunan ang mga problema tulad ng kanser detection, pagtataya ng panahon at awtonomikong pagmamaneho ng mga sasakyan, tulad ng sikat na Tesla.
Ang layunin ni Nvidia ay tulungan ang mga network na matutong "mag-isip ". Ang mga GPU ng Nvidia ay gumana nang mahusay para sa malalim na mga gawain sa pagkatuto dahil dinisenyo ang mga ito para sa kahanay na pag-compute, at mahusay silang gumana upang mahawakan ang mga operasyon ng vector at matrix na nanaig sa malalim na pagkatuto. Ang mga GPU ng kumpanya ay ginagamit ng mga mananaliksik, laboratories, kumpanya ng teknolohiya, at mga negosyo sa negosyo. Noong 2009, lumahok si Nvidia sa tinatawag na malaking bang para sa malalim na pagkatuto, dahil ang mga malalim na pag-aaral ng mga neural network ay pinagsama sa mga yunit ng pagproseso ng graphic ng kumpanya. Sa parehong taon, ginamit ng Google Brain ang mga GPU ng Nvidia upang lumikha ng malalim na mga network ng neural na may kakayahang matuto ng makina, kung saan tinukoy ni Andrew Ng na mapapataas nila ang bilis ng mga malalim na sistema ng pagkatuto nang 100 beses.
Noong Abril 2016, ipinakilala ni Nvidia ang 8-GPU na batay sa kumpol na DGX-1 supercomputer upang mapahusay ang kakayahan ng mga gumagamit na gumamit ng malalim na pag-aaral sa pamamagitan ng pagsasama ng mga GPU na may partikular na idinisenyo na software. Binuo din ng Nvidia ang GPU na nakabase sa Nvidia Tesla K80 at P100 virtual machine, na magagamit sa pamamagitan ng Google Cloud, na na-install ng Google noong Nobyembre 2016. Nagdagdag ng Microsoft ang mga server batay sa teknolohiya ng GPU ni Nvidia sa isang preview ng N serye nito, batay sa kard ng Tesla K80. Nakipagtulungan din si Nvidia sa IBM upang lumikha ng isang software kit na nagpapataas ng mga kakayahan ng AI ng mga GPU nito. Noong 2017, ang mga GPU ng Nvidia ay dinala din online sa RIKEN Center para sa Advanced Intelligence Project para sa Fujitsu.
Noong Mayo 2018, natanto ng mga mananaliksik sa artipisyal na departamento ng intelihensya ng Nvidi isang posibilidad na ang isang robot ay matutong gumawa ng isang trabaho sa pamamagitan lamang ng pag-obserba sa taong gumagawa ng parehong trabaho. Upang makamit ito, gumawa sila ng isang sistema na, pagkatapos ng isang maikling pagsusuri at pagsubok, maaari na ngayong magamit upang makontrol ang mga susunod na henerasyon na mga robot.
Ang Volta ay ang pangalan ng code para sa pinaka-advanced na GPU microarchitecture na binuo ni Nvidia, ito ang tagumpay ng Pascal na arkitektura at inihayag bilang bahagi ng isang hinaharap na ambisyon ng roadmap noong Marso 2013. Ang arkitektura ay pinangalanang Alessandro Volta, ang pisiko, kimista at imbentor ng baterya ng koryente. Ang arkitektura ng Volta ay hindi naabot ang sektor ng gaming, bagaman nagawa ito sa Nvidia Titan V graphics card, na nakatuon sa sektor ng mamimili at maaari ring magamit sa kagamitan sa gaming.
Ang Nvidia Titan V ay isang GV100 core based graphics card at tatlong HBM2 memory stacks, lahat sa isang package. Ang card ay may kabuuang 12 GB ng HBM2 memorya na gumagana sa pamamagitan ng isang interface ng 3072-bit na memorya. Ang GPU nito ay naglalaman ng higit sa 21 milyong transistor, 5, 120 CUDA cores at 640 Tensor cores upang maihatid ang 110 TeraFLOPS pagganap sa malalim na pag-aaral. Ang mga dalas ng operating nito ay 1200 MHz base at 1455 MHz sa mode ng turbo, habang ang memorya ay gumagana sa 850 MHz, na nag-aalok ng bandwidth ng 652.8 GB / s. Ang bersyon ng CEO Edition ay kamakailan ay inihayag na nagpapataas ng memorya hanggang sa 32GB.
Ang unang graphics card na ginawa ni Nvidia na may arkitektura ng Volta ay ang Tesla V100, na bahagi ng Nvidia DGX-1 system. Ginagamit ng Tesla V100 ang pangunahing GV100 na pinakawalan noong Hunyo 21, 2017. Ang Volta GV100 GPU ay itinayo sa isang proseso ng pagmamanupaktura ng 12nm FinFET, na may 32GB na memorya ng HBM2 na may kakayahang maghatid ng hanggang sa 900GB / s ng bandwidth.
Pinagsasama din ng Volta ang pinakabagong Nvidia Tegra SoC, na tinatawag na Xavier, na inihayag noong Setyembre 28, 2016. Naglalaman ang Xavier ng 7 bilyong transistor at 8 pasadyang ARMv8 na mga cores, kasama ang isang Volta GPU na may 512 CUDA cores at isang TPU ng bukas na mapagkukunan (Tensor Processing Unit) na tinatawag na DLA (Deep Learning Accelerator). Ang Xavier ay maaaring mag-encode at magbasa ng video sa 8K Ultra HD na resolusyon (7680 × 4320 pixels) sa real time, lahat ay may TDP na 20-30 watts at isang sukat ng mamatay na tinatayang sa paligid ng 300mm2 salamat sa 12 proseso ng pagmamanupaktura. nm FinFET.
Ang arkitektura ng Volta ay nailalarawan sa pamamagitan ng pagiging una upang isama ang Tensor Core, mga cores na espesyal na idinisenyo upang mag-alok ng higit na mahusay na pagganap sa mga malalim na gawain sa pagkatuto kumpara sa mga regular na CUDA cores. Ang Tensor Core ay isang yunit na nagpaparami ng dalawang FP16 4 × 4 matrice at pagkatapos ay nagdaragdag ng isang ikatlong FP16 o FP32 matrix sa resulta, gamit ang pinagsama karagdagan at pagpapatakbo ng pagpaparami, pagkuha ng isang resulta ng FP32 na maaaring opsyonal na ibabawas sa isang resulta ng FP16. Ang tensor nuclei ay inilaan upang mapabilis ang pagsasanay sa neural network.
Ang Volta ay nakatayo din para sa kabilang ang advanced na pagmamay-ari ng interface ng NVLink, na isang protocol ng komunikasyon na nakabatay sa wire para sa mga maikling komunikasyon na semiconductor na binuo ni Nvidia, na maaaring magamit para sa paglilipat ng data code at kontrol sa mga system ng processor batay sa Ang CPU at GPU at ang mga nakabase lamang sa GPU. Tinutukoy ng NVLink ang isang koneksyon sa point-to-point na may mga rate ng data na 20 at 25 Gb / s bawat data lane at bawat address sa una at pangalawang bersyon. Ang kabuuang mga rate ng data sa mga sistema ng tunay na mundo ay 160 at 300 GB / s para sa kabuuang kabuuan ng mga daloy ng input at output data. Ang mga produktong NVLink na ipinakilala hanggang sa nakatuon sa pagtuon sa mataas na puwang ng aplikasyon ng pagganap Ang NVLINK ay unang inihayag noong Marso 2014 at gumagamit ng isang proprietary high-speed signaling interconnect na binuo at binuo ni Nvidia.
Ang sumusunod na talahanayan ay nagbubuod ng pinakamahalagang tampok ng mga kard na nakabase sa Volta:
NVIDIA VOLTA GRAPHICS CardsS |
||||||||
CUDA Cores | Core Tensor | Dalas (MHz) | Memorya | Interface ng memorya | Mga bandwidth ng memorya (GB / s) | TDP (W) | ||
Tesla V100 | 5120 | 640 | 1465 | 32GB HBM2 | 4, 096 bit | 900 | 250 | |
GeForce Titan V | 5120 | 640 | 1200/1455 | 12 GB HBM2 | 3, 072 bit | 652 | 250 | |
GeForce Titan V CEO Edition | 5120 | 640 | 1200/1455 | 32GB HBM2 | 4, 096 bit | 900 | 250 |
Ang hinaharap ni Nvidia ay dumaan sa Turing at Ampere
Ang dalawang hinaharap na arkitektura ng Nvidia ay sina Turing at Ampere ayon sa lahat ng mga alingawngaw na lumitaw hanggang sa kasalukuyan, posible na kapag nabasa mo ang post na ito, ang isa sa mga ito ay opisyal na inilahad. Sa ngayon, wala nang kilala para sa mga tiyak tungkol sa dalawang arkitektura na ito, bagaman sinasabing ang Turing ay magiging isang pinasimple na bersyon ng Volta para sa merkado ng gaming, sa katunayan inaasahan na darating na may parehong proseso ng pagmamanupaktura sa 12 nm.
Ang tunog ng Ampere ay tulad ng arkitektura ng kahalili ni Turing, bagaman maaari rin itong kahalili ni Volta sa sektor ng artipisyal na intelligence. Talagang walang nalalaman tungkol dito, kahit na tila makatuwiran na asahan na dumating ito ng panindang sa 7 nm. Iminumungkahi ng mga alingawngaw na ipahayag ng Nvidia ang mga bagong kard ng GeForce sa Gamecom sa susunod na buwan ng Agosto, mag-iiwan lang tayo ng mga pag-aalinlangan tungkol sa kung ano ang magiging Turing o Ampere, kung talagang nagkakaroon sila.
NVIDIA G-Sync, pagtatapos ng mga isyu sa pag-sync ng imahe
Ang G-Sync ay isang proprietary na agpang teknolohiya ng pag-sync na binuo ng Nvidia, ang pangunahing layunin kung saan ay upang maalis ang mga luha ng screen at ang pangangailangan para sa mga kahalili sa anyo ng software tulad ng Vsync. Tinatanggal ng G-Sync ang pagpatak ng screen sa pamamagitan ng pagpwersa nito upang umangkop sa framerate ng output aparato, ang graphics card, sa halip na ang aparato ng output na umaangkop sa screen, na nagreresulta sa pag-luha ng imahe sa ang screen.
Para sa isang monitor na maging katugma sa G-Sync, dapat itong maglaman ng isang module ng hardware na ibinebenta ng Nvidia. Ang AMD (Advanced Micro Device) ay naglabas ng isang katulad na teknolohiya para sa mga pagpapakita, na tinatawag na FreeSync, na may parehong pag-andar bilang G-Sync ngunit hindi nangangailangan ng anumang partikular na hardware.
Nvidia lumikha ng isang espesyal na pag-andar upang maiwasan ang posibilidad na ang isang bagong frame ay handa habang pagguhit ng isang duplicate sa screen, isang bagay na maaaring makabuo ng pagkaantala at / o stutter, inaasahan ng module ang pag-update at maghihintay para sa susunod na frame. Ang sobrang overlay ng Pixel ay nagiging mapanligaw din sa isang hindi nakapirming senaryo ng pag-update, at hinuhulaan ang mga solusyon kung kailan magaganap ang susunod na pag-update, samakatuwid ang labis na halaga ay dapat ipatupad at nababagay para sa bawat panel upang maiwasan ang multo.
Ang module ay batay sa isang Altera Arria V GX pamilya FPGA na may 156K mga elemento ng logic, 396 bloke ng DSP at 67 LVDS channel. Ginagawa ito sa proseso ng TSMC 28LP at pinagsama sa tatlong chips para sa isang kabuuang 768 MB ng DDR3L DRAM, upang makamit ang isang tiyak na bandwidth. Nagamit din ang FPGA ng isang interface ng LVDS upang makontrol ang monitor panel. Ang module na ito ay inilaan upang palitan ang mga karaniwang mga akyat at madaling maisama ng mga tagagawa ng monitor, na kailangan lamang na mag-ingat sa power circuit circuit at mga koneksyon sa input.
Ang G-Sync ay nahaharap sa ilang pagpuna dahil sa likas na pagmamay-ari nito, at ang katotohanan na ito ay na-promote pa kapag ang mga libreng alternatibong alternatibo, tulad ng pamantayang VESA Adaptive-Sync, na isang opsyonal na tampok ng DisplayPort 1.2a. Habang ang FreeSync ng AMD ay batay sa DisplayPort 1.2a, ang G-Sync ay nangangailangan ng isang module na ginawa ng Nvidia sa halip na ang karaniwang on-screen scaler para sa mga graphic card ng Nvidia GeForce upang gumana nang maayos, pagiging katugma sa Kepler, Maxwell, Pascal, at microarchitectures. Volta.
Ang susunod na hakbang ay nakuha gamit ang teknolohiya ng G-Sync HDR, na kung saan nagmumungkahi ang pangalan nito, ay nagdaragdag ng mga kakayahan ng HDR upang lubos na mapabuti ang kalidad ng imahe ng monitor. Upang magawa ito posible, ang isang makabuluhang pagtalon sa hardware ay kailangang gawin. Ang bagong bersyon na G-Sync HDR ay gumagamit ng isang Intel Altera Arria 10 GX 480 FPGA, isang mataas na advanced at lubos na programmable na maaaring ma-encode para sa isang malawak na hanay ng mga aplikasyon, na sinamahan ng 3 GB ng DDR4 2400MHz memorya na ginawa ng Micron. Ginagawa nitong mas mahal ang presyo ng mga monitor na ito.
Dito natatapos ang aming post sa lahat ng kailangan mong malaman tungkol sa Nvidia. Tandaan na maaari mo itong ibahagi sa mga social network upang maabot nito ang mas maraming mga gumagamit. Maaari ka ring mag-iwan ng komento kung mayroon kang anumang mungkahi o isang maidaragdag.
Ang lahat ng impormasyon tungkol sa tablet sa Lenovo yoga

Lahat ng tungkol sa unang tablet ng saklaw ng Lenovo Yoga: mga teknikal na katangian, mga imahe, baterya, camera, pagkakaroon at presyo.
Nvidia rtx 【lahat ng impormasyon】

Mayroon kaming kasama sa amin ng bagong graphics graphics NVIDIA RTX. Mula sa modelo ng punong barko: NVIDIA RTX 2080 Ti, hanggang sa modelo para sa karamihan ng mga manlalaro sa 4K:
▷ Nvidia quadro 【lahat ng impormasyon?

Ang lahat ng impormasyon tungkol sa Nvidia Quadro propesyonal na mga graphics card: mga katangian, disenyo, pagganap, kalamangan at kawalan ✅