0
本文作者: 包永剛 | 2018-05-30 17:19 |
為了保持在人工智能(AI)領域的領先地位,Nvidia周二推出了一種新的計算架構。Nvidia首席執(zhí)行官Jensen Huang(黃仁勛)在GTC Taiwan 2018大會上宣布推出HGX-2云服務器平臺,這是第一款人工智能和高性能計算(HPC)的統(tǒng)一平臺。
“我們相信未來需要一個AI和高性能計算平臺的統(tǒng)一平臺。”Nvidia加速計算部產(chǎn)品營銷經(jīng)理Paresh Kharya在周二的新聞發(fā)布會上表示。
黃仁勛在GTC Taiwan 2018大會上宣布推出HGX-2云服務器平臺
Moor Insights&Strategy的高級分析師Karl Freund也告訴SiliconANGLE,“我認為人工智能將使HPC發(fā)生革命性變化 ,很多超級計算中心都很有可能部署HGX-2,因為它可以為HPC和AI增加強大的計算能力?!?/p>
更具體地說,這種新的架構可以實現(xiàn)包括科學計算和模擬在內(nèi)的應用,如天氣預報,以及AI模型(如深度學習神經(jīng)網(wǎng)絡)的訓練和運行,用于諸如圖像和語音識別以及自動駕駛汽車的導航。 Kharya說:“這些模型正在以前所未有的速度更新,有時甚至每小時更新一次?!?/p>
NvidiaHGX-2云服務器平臺
HGX架構由Nvidia的GPU提供動力,該架構的第一個版本HGX-1于一年前宣布。該架構為微軟的 Project Olympus,F(xiàn)acebook的 Big Basin系統(tǒng)和Nvidia自己的 DGX-1 AI超級計算機以及服務中使用的數(shù)據(jù)中心設計,如亞馬遜AWS。
本質上,HGX-2由Nvidia的16個高端V100 GPU組成,運用了Nvidia NVSwitch互聯(lián)結構,16個GPU完全連接,作為一個整體來使用。速度可達2 PFLOPS。
另據(jù)雷鋒網(wǎng)了解,HGX-2作為云服務器平臺,具備多精度計算能力,支持面向科學計算和模擬的高精度FP64和FP32計算,也支持AI訓練和推理所用的FP16和INT8精度。HGX-2執(zhí)行AI訓練的速度,在ResNet-50基準上達到了每秒15500張圖片,相當于300臺只裝了CPU的服務器。
“基本上,開發(fā)者現(xiàn)在可以將HGX看作有16個GPU計算資源非常強大的池子。”Freund解釋說。對于想要生產(chǎn)HPC和AI通用的最先進系統(tǒng)的廠商來說,HGX-2是一個組件。
Nvidia今天也表示,最近宣布的DGX-2 AI超級計算機是第一個使用HGX-2的系統(tǒng),它將在第三季度銷售,售價399,000美元,黃仁勛在會議主旨演講的直播中開玩笑說,“買得越多,省得越多”,盡管他似乎也是這樣認為的。
Nvidia已經(jīng)推出的服務器將CPU與GPU混合在一起,用于人工智能訓練、推理或模型運行以及超級計算的優(yōu)化配置。Kharya試圖將HGX架構定位為類似于英特爾和微軟開發(fā)的ATX個人電腦主板配置標準,這導致許多公司制造的兼容系統(tǒng)組件爆炸式增長。
在周二宣布計劃建造HGX-2系統(tǒng)的公司中,包括服務器制造商聯(lián)想、廣達云(QCT),超微電腦和緯穎(Wiwynn)將在今年晚些時候推出HGX-2系統(tǒng)。另外,黃仁勛表示NVIDIA 正式啟動全球頂尖 ODM 伙伴合作計劃鴻海精密,英業(yè)達,廣達電腦和緯創(chuàng)這些全球設計生產(chǎn)大廠都將成為合作伙伴,加速因應 AI 云端運算的各種需求。
雷鋒網(wǎng)也了解到,英特爾也正加緊努力擴大其在AI計算方面的業(yè)務,上周有消息稱英特爾計劃在2019年底推出一款用于神經(jīng)網(wǎng)絡的芯片,該芯片旨在更快地構建AI模型。英特爾人工智能集團負責人Naveen Rao對NVIDIA進行了抨擊,稱其GPU比英特爾最新的Xeon中央處理器快得多是一個“神話”。
雷鋒網(wǎng)編譯,via SiliconANGLE
現(xiàn)在關注“雷鋒網(wǎng)”微信公眾號(leiphone-sz),回復關鍵詞【2018】,隨機抽送價值 3999 元的參會門票 3 張
相關文章:
英偉達財報首次公布數(shù)字加密貨幣營收,但隨后股價下跌3.3%
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權禁止轉載。詳情見轉載須知。