丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號安全和更好的產(chǎn)品體驗,強烈建議使用更快更安全的瀏覽器
此為臨時鏈接,僅用于文章預覽,將在時失效
芯片設計 正文
發(fā)私信給趙之齊
發(fā)送

0

自研芯片公司:英偉達在前,其余公司能否望其項背?

本文作者: 趙之齊   2024-12-17 11:10
導語:道阻且長,各家公司如何打出自己的王牌產(chǎn)品?

在追求構建更強大人工智能(AI)模型的當下,一般的通用芯片已難以支撐,行業(yè)對人工智能芯片的需求顯著增長。在AI芯片領域,有英偉達(NVIDIA)、超威半導體(AMD)、英特爾(Intel)等耳熟能詳?shù)拇蠊境掷m(xù)深耕,也有Groq、SambaNova Systems、Cerebras Systems等后起之秀雨后春筍般涌出。AI勢頭正盛,未來AI芯片領域中,誰能躋身前列?雷峰網(wǎng)(公眾號:雷峰網(wǎng))根據(jù)行業(yè)現(xiàn)有報告,梳理目前頂尖的AI硬件公司,回顧其發(fā)展動態(tài)。

自研芯片公司:英偉達在前,其余公司能否望其項背?

主要的芯片領導者

1.英偉達NVIDIA

受益于生成式AI市場的爆發(fā),英偉達成了數(shù)據(jù)中心人工智能芯片領域霸主——據(jù)統(tǒng)計,英偉達目前在數(shù)據(jù)中心AI市場擁有98%的市場份額,相比之下,AMD僅有1.2%的市場份額,英特爾則只有不到1%,英偉達的領導者地位毋庸置疑。

1990年代以來,英偉達一直在為游戲領域生產(chǎn)圖形處理單元(GPU),PlayStation3和Xbox都使用英偉達的視頻圖形陣列。同時,英偉達也生產(chǎn)Volta、XavierTesla等人工智能芯片,其芯片組旨在解決各行業(yè)的業(yè)務問題。例如,Xavier是自動駕駛解決方案的基礎,Volta則是針對數(shù)據(jù)中心;而DGX?A100H100是英偉達成功的旗艦AI芯片,專為數(shù)據(jù)中心的AI訓練和推理而設計。目前為止,英偉達發(fā)布了H200、B200GB200芯片,HGX服務器(如結合了8個此類芯片的HGX H200和HGX B200);將更多芯片組合成大型叢集的NVL系列和GB200 SuperPod。

不過,需指出的是,由于英偉達的AI芯片價格高昂,且存在供應不足的問題,部分客戶也希望選擇其他替代產(chǎn)品。

而在云端GPU上,英偉達也幾乎處于壟斷地位,大多數(shù)云端廠商只將英偉達GPU作為云端GPU。英偉達也推出了DGX Cloud產(chǎn)品,直接向企業(yè)提供云端的GPU基礎架構。

近年來,國內(nèi)廠商華為海思、景嘉微、海光信息、寒武紀、芯原股份、龍芯中科等,也在加速GPU領域的研發(fā)。

2、超威半導體(AMD)

AMD是一家擁有CPU、GPU和AI加速器產(chǎn)品的芯片制造商。在ChatGPT引發(fā)生成式AI熱潮后,人們對英偉達AI硬件的需求迅速增加,導致其采購更難。在2023年開始,有初創(chuàng)公司、研究機構、企業(yè)和科技巨頭開始采用AMD硬件。

2023年底,AMD發(fā)布了新一代AI/HPC專用加速器Instinct MI300系列,包括純GPU設計的MI300X、CPU+GPU融合設計的MI300A,全面對標英偉達H100系列。由于AI算力需求激增,MI300銷量增長迅速,在2024年二季度的收入超過10億美元,成為AMD有史以來增長速度最快的產(chǎn)品。

據(jù)悉,AMD將發(fā)布MI350系列來取代MI300,并與英偉達的H200競爭。此外,Instinct MI325X預計于2024年第四季度發(fā)貨,與H200的大規(guī)模交付僅相差一個季度——AMD表示,在運行Llama 3.1 和Mixtral 等大型AI模型時,MI325X的推理性能會比現(xiàn)有市場領先者H200高出20%至40%。

AMD也與HuggingFace等機器學習公司合作,使數(shù)據(jù)科學家能更有效地使用他們的硬件。不過,開發(fā)硬件的同時,軟件生態(tài)系統(tǒng)也至關重要,因硬件效能很大程度上依賴軟件優(yōu)化。例如,AMD和英偉達在H100和MI300基準測試上存在公開分歧,分歧焦點是基準測試中使用的包和浮點數(shù)。根據(jù)最新的基準測試,對于70B LLM的推理,MI300似乎更好、或與H100相當。

3.英特爾Intel

英特爾是CPU市場最大的廠商,擁有悠久的半導體開發(fā)歷史。2017年,英特爾成為全球第一家銷售額突破10億美元大關的AI芯片公司。

英特爾的至強CPU適用于各種工作,包括數(shù)據(jù)中心的處理,對其商業(yè)成功產(chǎn)生了影響。在2024年9月底,英特爾發(fā)布了新一代至強6性能核處理器,代號Granite Ridge,專為滿足AI、數(shù)據(jù)分析、科學計算等計算密集型業(yè)務的需求而設計。據(jù)官方數(shù)據(jù),與第五代至強相比,至強6處理器擁有多達2倍的每路核心數(shù),平均單核性能提升高達1.2倍,平均每瓦性能提升高達1.6倍。

此外,Gaudi3是英特爾最新的AI加速器處理器,英特爾稱其比英偉達的H100 GPU更快、更有效率,在訓練大語言模型方面比H100快1.7倍,并且,Gaudi3的成本預算遠比H100低。不過,自2024年4月公開發(fā)布以來,目前對Gaudi3性能的基準測試仍較有限。

生產(chǎn)AI芯片的公共云提供商

4.AWS

AWS生產(chǎn)用于模型訓練的Tranium芯片和用于推理的Inferentia芯片。在2024年12月,AWS宣布Trainium2正式可用,其性能比第一代產(chǎn)品提升4倍,能在極短的時間內(nèi)訓練基礎模型和大語言模型,且能源效率提升多達2倍。AWS將推出一款由數(shù)十萬顆自研Trainium芯片組成的巨型人工智能超級計算機。蘋果也會成為其最新的芯片客戶之一。

雷峰網(wǎng)還了解到,在全球云計算服務市場中,AWS獨占近半壁江山。根據(jù)2022年的統(tǒng)計,AWS占據(jù)全球IaaS市場份額的40%。不過,AWS是在谷歌之后才開始構建自己的芯片。

5.谷歌云平臺

TPU是谷歌推出的神經(jīng)網(wǎng)絡專用芯片,為優(yōu)化自身的TensorFlow機器學習框架而打造。其Google Cloud TPU為翻譯、照片、搜索、助手和Gmail 等產(chǎn)品提供支持,也可以通過Google Cloud使用。

谷歌在2016年發(fā)布了TPU,在2024年推出第六代TPU:Trillium。谷歌表示,Trillium TPU每一晶片峰值計算效能提升了4.7 倍,是“相當驚人的表現(xiàn)”,且Trillium TPU可以更快速地訓練下一代基礎模型,以較短的延遲時間與較低成本提供模型服務。谷歌亦強調(diào)這一產(chǎn)品的永續(xù)特質(zhì):與TPU v5e相比,Trillium TPU的能源效率高出67%。

除此之外,Edge TPU是谷歌Alphabet的另一款加速器芯片,它適用于多種設備類型的原型設計和生產(chǎn)設備,比一分硬幣還小,專為智能手機、平板電腦和物聯(lián)網(wǎng)設備等邊緣設備而設計。

6.阿里巴巴

阿里巴巴于2019年發(fā)布了首款AI芯片“含光800”,這款云端AI芯片是當時全球最高性能的AI推理芯片,主要應用于視覺場景。據(jù)悉,其基于12nm工藝與自研架構,集成了170億晶體管,性能峰值算力達820 TOPS。在業(yè)界標準的ResNet-50測試中,推理性能達到78563 IPS,比當時業(yè)界最好的AI芯片性能高出四倍;能效比達500 IPS/W,是第二名的3.3倍。

7.IBM

IBM于2022年發(fā)布其最新的深度學習芯片——人工智能單元(AIU)。IBM表示,這是其第一個完整的系統(tǒng)單芯片,旨在比通用CPU更快、更有效率地運行和訓練深度學習模型。IBM正在考慮使用這些芯片為其生成式AI平臺watson.x提供支持。

AIU基于“IBM Telum處理器”構建,該處理器為IBM Z大型機服務器的AI處理功能提供支持。Telum處理器推出時的突出用例包括欺詐檢測等。IBM還展示了合并計算和內(nèi)存可以提高效率,并在North Pole處理器原型中得到演示。

領先的AI芯片初創(chuàng)公司

一些AI芯片行業(yè)的初創(chuàng)公司盡管才剛剛成立,卻已經(jīng)籌集了數(shù)百萬美元,未來我們可能會更頻繁聽到它們的名字。

8.Groq

Groq由谷歌前員工創(chuàng)立。其自研的LPU(語言處理器),旨在以前所未有的速度加速AI模型。在2024年,Groq憑借自研的硬件加速器LPU,達成了500個token/s的神級推理速度,秒殺ChatGPT。行內(nèi)人士認為,Groq代表了可用速度的一步變化,為LLM提供了新的用例。Groq創(chuàng)始人表示,Groq的存在是為了消除“貧富差距”,幫助AI社區(qū)中的每個人蓬勃發(fā)展。

Groq專注于LLM推理,并發(fā)布了Llama-270B的基準測試。2024年第一季度,該公司表示,有7萬名開發(fā)人員在其云平臺上注冊并構建了1.9萬個新應用程序。而早在2022年3月1日,Groq收購了Maxeler,后者為金融服務提供高性能計算(HPC)解決方案。Groq已經(jīng)籌集了約3.5億美元,并生產(chǎn)了GroqChip?處理器、GroqCard?加速器等。

9.SambaNova Systems

SambaNova Systems成立于2017年,旨在為大量生成式AI工作負載開發(fā)高性能、高精度硬件軟件系統(tǒng)。該公司開發(fā)了全球首款面向萬億參數(shù)規(guī)模AI模型的AI芯片系統(tǒng)——基于可重構數(shù)據(jù)流單元 (RDU) 的AI芯片SN40L。據(jù)悉,該芯片專門為運行企業(yè)應用程序的大型語言模型而構建,其設計目標是能承載ChatGPT高級版本兩倍容量以上的大模型,可為一個擁有5萬億個參數(shù)的模型提供服務。對比英偉達的H100芯片,SN40L不僅推理性能達到了H100的3.1倍,在訓練性能也達到了H100的2倍,而總擁有成本更僅有其1/10。

不僅如此,SambaNova Systems還將其平臺出租給企業(yè)。SambaNova的人工智能平臺即服務方式,使其系統(tǒng)更易于采用,并鼓勵硬件重復使用以實現(xiàn)循環(huán)經(jīng)濟。該公司也已籌集了超過11億美元的資金。

10.Cerebras Systems

Cerebras Systems成立于2015年,推動了芯片設計領域的一場革命——將整片晶圓制成一個巨大的芯片。其于2019年推出的WSE-1,具有1.2萬億個晶體管和40萬個處理核心,可同時專注于AI和HPC(高性能計算機群)的工作負載。

而在2021年,Cerebras推出專為超級計算機任務打造的Wafer Scale Engine 2(WSE-2),為當時全球最大AI芯片。與其之前推出的WSE-1相比,WSE-2在面積上沒有變化,但擁有創(chuàng)紀錄的2.6萬億個晶體管以及85萬個AI優(yōu)化核,其芯片的所有性能特征,均比一代增加了一倍以上。2024年3月,Cerebras發(fā)布擁有4萬億個晶體管和90萬個AI核心的WSE-3,將用于訓練一些業(yè)界最大的人工智能模型,理論上能訓練多達24萬億個參數(shù)的AI模型。WSE-3采用臺積電先進的5納米工藝技術,將其現(xiàn)有最快AI芯片的世界紀錄提升了一倍。

雷峰網(wǎng)了解到,Cerebras的系統(tǒng)還與阿斯利康和葛蘭素史克等制藥公司及研究實驗室合作,如利用生物數(shù)據(jù)集訓練大規(guī)模的語言模型,能顯著縮短AI模型訓練時間、加快研發(fā)進程,對新藥的發(fā)現(xiàn)和開發(fā)具有重要意義。

11.Etched

他們選擇為了效率而犧牲了靈活性——將變壓器架構刻錄到芯片中。

Etched宣布推出一款針對Transformer架構專用的ASIC芯片“Sohu”。據(jù)稱,8個Sohu芯片每秒可以生成500,000個token,遠超過配備8張英偉達最新的B200 GPU加速卡的服務器約10倍,其AI性能達到英偉達H100的20倍——這也意味著Sohu芯片將可以大幅降低現(xiàn)有AI數(shù)據(jù)中心的采購成本和安裝成本。

不過,目前,這些都是基于團隊的內(nèi)部測量,許多問題還沒有得到解答:模型過時時如何處置?用戶是否需要購買新芯片,還是舊芯片可以用下一個模型重新配置?他們?nèi)绾芜\行基準測試,使用了哪種量化和模型?此外,考慮到每隔幾個月就會發(fā)布新模型,將模型刻錄到芯片中的做法是否可持續(xù),這一答案也令人期待。

12.Tenstorrent

Tenstorrent生產(chǎn)高性能AI芯片Wormhole芯片,可擴展且成本效益高;還有供研究人員使用的臺式機和由Wormhole芯片驅(qū)動的服務器(例如Tenstorrent Galaxy)。該公司還為其解決方案提供軟件棧。據(jù)悉,Tenstorrent于2024年12月從包括杰夫·貝佐斯(Jeff Bezos)在內(nèi)的投資者那里籌集了7億美元,估值超過26億美元。

即將到來的AI硬件生產(chǎn)商有哪些?

還有一些引人注目的AI硬件解決方案,但由于它們是市場新手,目前對其有效性的基準測試有限。

蘋果作為一家主要的芯片設計商,也在自研數(shù)據(jù)中心AI芯片——項目名為ACDC。據(jù)稱,該公司正在與臺積電合作設計和生產(chǎn)這些人工智能芯片。這些服務器芯片的主要焦點可能是AI推理,其中涉及經(jīng)過訓練的機器學習模型從新數(shù)據(jù)中得出結論。而就在2024年12月底,有消息稱蘋果正與博通合作開發(fā)AI芯片,是其首個專為人工智能設計的服務器芯片,或為行業(yè)帶來更深刻的變革。

Meta也努力想在生成式AI領域趕上競爭對手。在英特爾宣布其最新AI加速器硬件的第二天,Meta公布其芯片研發(fā)的最新成果:下一代 MTIA(Meta Training and Inference Accelerator),MTIA是專為Meta AI工作負載而設計的定制芯片系列。據(jù)悉,下一代MTIA基于臺積電5nm技術,據(jù)稱與MTIAv1相比性能提高了3倍。MTIA目前供Meta內(nèi)部使用,但未來如果Meta推出基于LLaMa的企業(yè)生成AI產(chǎn)品,這些芯片可以為此類產(chǎn)品提供支持。

此外,微軟于2023年11月推出Maia AI加速器。還有總部位于韓國的初創(chuàng)公司Rebellions在2024年籌集了1.24億美元,專注于LLM推理。

還有一些AI芯片生產(chǎn)商 ,如Graphcore,一家成立于2016年的英國公司,已發(fā)布其旗艦AI芯片IPU-POD256,能提供64 petaFLOPS的AI計算。該公司已獲得了約7億美元的融資,與DDN、Pure Storage和Vast Data等數(shù)據(jù)存儲公司建立了戰(zhàn)略合作伙伴關系,其AI芯片服務于牛津大學OMI量化金融研究院、布里斯托大學和加州大學伯克利分校等研究機構。不過,該公司的長期生存能力面臨風險,因其每年虧損約2億美元,2024年10月,軟銀(Softbank)以多于6億美元的價格收購了它。

而成立于2012年、專注于邊緣AI的Mythic,走的是一條非常規(guī)的路線——模擬計算架構,旨在提供節(jié)能的邊緣AI計算。它推出了模擬計算引擎(ACE)M1076 AMP、MM1076 key card等產(chǎn)品,并已籌集了約1.65億美元的資金。不過,Mythic在2023年3月的融資中解雇了大部分員工并重組了業(yè)務。

同時,OpenAI也在籌集資金打造自己的AI硬件。


雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。

分享:
相關文章

作者

關注云計算及大模型、相關IR話題等。微信:Ericazhao23。
當月熱門文章
最新文章
請?zhí)顚懮暾埲速Y料
姓名
電話
郵箱
微信號
作品鏈接
個人簡介
為了您的賬戶安全,請驗證郵箱
您的郵箱還未驗證,完成可獲20積分喲!
請驗證您的郵箱
立即驗證
完善賬號信息
您的賬號已經(jīng)綁定,現(xiàn)在您可以設置密碼以方便用郵箱登錄
立即設置 以后再說