0
近日,負(fù)責(zé)支持和保護(hù)網(wǎng)絡(luò)生活的云服務(wù)提供商Akamai 宣布與英偉達(dá)聯(lián)手推出全新的 Akamai Inference Cloud,一個(gè)專為AI推理設(shè)計(jì)的邊緣云平臺(tái)。這意味著,AI模型的推理和響應(yīng)將不再依賴遠(yuǎn)在數(shù)據(jù)中心的算力,而是更靠近用戶、更快速地完成。
據(jù)雷峰網(wǎng)(公眾號(hào):雷峰網(wǎng))了解,Akamai Inference Cloud 集成了英偉達(dá)最新一代 RTX PRO 6000 Blackwell GPU 和 BlueField-3 DPU,是全球首批采用該GPU架構(gòu)的云廠商之一。
作為此次合作采用的核心算力組件,NVIDIA RTX PRO 6000 Blackwell 系列于2025年3月發(fā)布,支持高達(dá) 96 GB 顯存與 24K CUDA核心。
市場(chǎng)普遍認(rèn)為,這款卡在企業(yè)級(jí)市場(chǎng)是一次較大規(guī)格提升,如 Tom’s Hardware 指出其顯存容量遠(yuǎn)超一般消費(fèi)卡,例如對(duì)比 RTX 5090 的 32 GB。對(duì) AI 推理、LLM、專業(yè)渲染等場(chǎng)景而言,這款 GPU 被視為“向邊緣、專業(yè)市場(chǎng)加速”推動(dòng)的關(guān)鍵硬件。而這也是 Akamai 選擇RTX PRO 6000的一大核心原因。
AI模型的復(fù)雜度在過去兩年呈爆發(fā)式增長,從圖像生成、語音識(shí)別,到大型語言模型(LLM),對(duì)GPU算力與顯存的需求都在倍增。Akamai認(rèn)為,傳統(tǒng)的集中式推理架構(gòu)難以支撐這類高實(shí)時(shí)性任務(wù),AI算力必須“靠近用戶”。
在選擇RTX PRO 6000時(shí),Akamai看重的是其“平衡型性能”——既能滿足專用AI模型的高效推理,又能支撐大型語言模型的高顯存需求;同時(shí)支持GPU虛擬化與資源分片技術(shù),使單卡可同時(shí)處理多個(gè)模型任務(wù),提高整體算力利用率。
“這款GPU的性能與擴(kuò)展性非常適合邊緣部署?!盇kamai亞太區(qū)與全球云架構(gòu)師團(tuán)隊(duì)總監(jiān)李文濤表示。
在與英偉達(dá)的合作中,Akamai并非僅僅追求硬件升級(jí),而是打造“邊緣基礎(chǔ)設(shè)施 + AI軟件?!钡恼w方案。
根據(jù)Akamai測(cè)試數(shù)據(jù),相比集中式推理部署,其方案可實(shí)現(xiàn)智能體響應(yīng)速度提升6–10倍、P95延遲降低高達(dá)5倍。Akamai全球網(wǎng)絡(luò)可覆蓋95%的互聯(lián)網(wǎng)用戶,單跳訪問平均延遲僅10毫秒,而中心云通常在百毫秒級(jí)別。這一差距,意味著AI應(yīng)用的響應(yīng)可提升一個(gè)數(shù)量級(jí)。
在成本方面,Akamai的優(yōu)勢(shì)更加明顯。AI服務(wù)的主要支出除了GPU算力,還有網(wǎng)絡(luò)流量成本。主流公有云的出向流量定價(jià)約為 0.10美元/GB,而Akamai的成本僅 0.005美元/GB,低20倍以上。這對(duì)于需要大量AI推理和數(shù)據(jù)回傳的企業(yè),意味著可觀的降本空間。
李文濤認(rèn)為,邊緣AI推理的需求已經(jīng)在多個(gè)行業(yè)爆發(fā),例如:媒體娛樂行業(yè),像Monks這樣的視頻與營銷平臺(tái),將AI模型部署在內(nèi)容采集源頭,實(shí)現(xiàn)實(shí)時(shí)識(shí)別與互動(dòng);電商行業(yè)通過邊緣AI實(shí)現(xiàn)即時(shí)推薦和個(gè)性化服務(wù),提升用戶體驗(yàn);智能駕駛與IoT行業(yè),在毫秒級(jí)響應(yīng)的要求下,邊緣推理能顯著提升服務(wù)安全性和穩(wěn)定性。此外,金融機(jī)構(gòu)也開始利用邊緣AI完成實(shí)時(shí)風(fēng)險(xiǎn)識(shí)別,既能降低延遲,又能符合數(shù)據(jù)本地化與合規(guī)要求。
在中國市場(chǎng),Akamai的主要客戶群是出海企業(yè)。據(jù)李文濤對(duì)雷峰網(wǎng)介紹,目前,Akamai中國團(tuán)隊(duì)中超過三分之二是技術(shù)崗位,提供貼身的顧問式技術(shù)支持;海外團(tuán)隊(duì)則提供“24×7全球時(shí)區(qū)”服務(wù),幫助企業(yè)在全球范圍內(nèi)部署AI能力。
過去三年,Akamai公有云在中國市場(chǎng)已服務(wù)媒體、電商、金融科技、廣告科技、IoT和智能制造等多個(gè)行業(yè)。隨著Akamai Inference Cloud的推出,這些企業(yè)在海外市場(chǎng)將能更快、更穩(wěn)、更低成本地部署AI服務(wù)。
Akamai與英偉達(dá)的合作,是AI基礎(chǔ)設(shè)施競(jìng)爭(zhēng)的又一次版圖擴(kuò)張。當(dāng)AI應(yīng)用從模型訓(xùn)練轉(zhuǎn)向大規(guī)模推理,算力的位置開始變得關(guān)鍵——離用戶越近,價(jià)值越高。
Akamai Inference Cloud的推出,或許預(yù)示著下一個(gè)階段的AI競(jìng)爭(zhēng),不再是“誰的GPU更強(qiáng)”,而是誰能更快地把AI推理送到世界的每一個(gè)角落。
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。