3
本文作者: 潔穎 | 2016-03-29 10:31 |
圖來自Engadget
深層神經(jīng)網(wǎng)絡(luò)(DNNs)可以學(xué)會幾乎任何東西,包括如何在我們擅長的比賽擊敗我們。問題是每次培訓(xùn)AI系統(tǒng),都會占用昂貴的超級計算機或數(shù)據(jù)中心幾天時間。 IBM的T.J. Watson研究中心的科學(xué)家們認(rèn)為,他們可以大量使用“電阻處理單元”,即結(jié)合CPU和非易失性存儲器的理論芯片,來減少馬力和學(xué)習(xí)時間。此外,芯片能成倍加快數(shù)據(jù)傳輸速度,系統(tǒng)能完成所有的世界語言之間的語音識別和翻譯。
問題是,為什么要花這么多的計算能力和時間來教AI?因為,像谷歌的DeepMind或IBM的Watson這樣的現(xiàn)代神經(jīng)網(wǎng)絡(luò)必須并行地執(zhí)行數(shù)十億的任務(wù)。這需要調(diào)用大量的CPU內(nèi)存,加起來迅速超千億周期。研究人員曾提出,使用新的存儲技術(shù)像電阻式RAM,可以永久存儲數(shù)據(jù),速度也與DRAM的一樣的速度數(shù)據(jù)。最終,他們想出了新型芯片——電阻處理單元(RPU),即把大量的電阻式RAM直接放到CPU。
這種芯片能以最快的速度讀取并同時處理數(shù)據(jù),從而大大減少所需的神經(jīng)網(wǎng)絡(luò)訓(xùn)練時間和計算能力。 新聞報道:”相比于國家的最先進(jìn)的微處理器,這種大規(guī)模并行架構(gòu)RPU可實現(xiàn)3萬倍加速,......以前需要在有數(shù)千臺機器的數(shù)據(jù)中心培訓(xùn)幾天,現(xiàn)在一個RPU加速器花上幾個小時就能解決。”
科學(xué)家們認(rèn)為,可能使用常規(guī)的CMOS技術(shù)來這樣的芯片,但現(xiàn)在RPU仍處于研究階段。此外,其技術(shù)的背后,如電阻式RAM,尚未實現(xiàn)商業(yè)化。然而,快速的本地內(nèi)存芯片構(gòu)建可以大大加快AI任務(wù),如處理圖像,掌握語言和大規(guī)模數(shù)據(jù)分析等。
via Engadget
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。