0
本文作者: 陳致遠(yuǎn) | 2024-01-09 18:04 |
2024年,AI PC無(wú)疑是消費(fèi)級(jí)市場(chǎng)中最受關(guān)注的焦點(diǎn),同時(shí)端側(cè)大模型及生成式AI的熱度仍在持續(xù)上升。隨著越來(lái)越多AI PC新品的發(fā)布,PC產(chǎn)業(yè)正在迎來(lái)一場(chǎng)新的革命。
而這場(chǎng)革命中必然少不了英偉達(dá)。就在今日,英偉達(dá)于CES 2024中發(fā)布了GeForce RTX 40 SUPER系列產(chǎn)品,并正式對(duì)外宣布已優(yōu)化的軟件、庫(kù)及工具。
英偉達(dá)新的軟硬件產(chǎn)品不僅將為游戲玩家?guī)?lái)全新的AI游戲體驗(yàn),還將推動(dòng)端側(cè)生成式AI的普及。
RTX 40 SUPER系列發(fā)布,英偉達(dá)加入AI PC主戰(zhàn)場(chǎng)
AI PC,是指具備集成軟硬件混合式智能學(xué)習(xí)與推理能力的計(jì)算機(jī)。
但目前業(yè)內(nèi)對(duì)AI PC的定義仍較為模糊,以西南證券的研究報(bào)告為例,其將AI PC定義為:在架構(gòu)設(shè)計(jì)上,AI PC最重要的是嵌入了AI芯片,形成“CPU+GPU+NPU”的異構(gòu)方案。
不過(guò),英偉達(dá)在不使用NPU的情況下,仍能讓PC表現(xiàn)出優(yōu)異的性能,其表示:“以宏碁、華碩、戴爾、惠普、聯(lián)想、微星等合作伙伴發(fā)布全新RTX AI筆記本電腦為例,與使用NPU相比,RTX AI筆記本電腦的性能可提升20-60倍?!?/p>
不過(guò)無(wú)論AI PC該如何被定義,在這一波浪潮中,產(chǎn)品性能才是王道,擁有創(chuàng)造和運(yùn)行生成式AI的生態(tài)才是標(biāo)準(zhǔn)。這點(diǎn)也可以從其新款RTX 40 SUPER系列產(chǎn)品看出。
雷峰網(wǎng)(公眾號(hào):雷峰網(wǎng))了解到,本次發(fā)布性能最高的GeForce RTX 4080 SUPER,在AI工作負(fù)載方面,生成視頻的速度比RTX 3080 Ti快1.5倍,生成圖像的速度比RTX 3080 Ti快1.7倍。SUPER GPU的Tensor Core可提供最高可達(dá)836 AI TOPS。
而新發(fā)布的GeForce RTX 4070 Ti SUPER則是擁有更多核心,顯存容量增至 16GB,顯存位寬為256 bits。比RTX 3070 Ti快1.6倍,打開(kāi)DLSS 3后,比RTX 3070 Ti快2.5 倍。而RTX 4070 SUPER,則是核心數(shù)量比RTX 4070多20%,使其僅使用RTX 3090的一小部分功耗就實(shí)現(xiàn)了超越RTX 3090的性能,借助DLSS 3,它的性能領(lǐng)先優(yōu)勢(shì)將擴(kuò)大到1.5倍。
基于強(qiáng)大的AI性能,英偉達(dá)的GeForce GPU將給包括游戲玩家在內(nèi)的用戶帶來(lái)全新的AI體驗(yàn)。
游戲玩家的全新體驗(yàn)和端側(cè)AI的全面普及
英偉達(dá)推出了NVIDIA ACE(Avatar Cloud Engine)微服務(wù),它使用生成式AI讓游戲NPC變得更真實(shí),旨在增強(qiáng)用戶與游戲NPC之間的交互。具體表現(xiàn)為,用戶以自然語(yǔ)言對(duì)游戲NPC說(shuō)話后,NPC并無(wú)預(yù)設(shè)回復(fù),而是由大模型生成NPC的反應(yīng)、回復(fù)內(nèi)容、語(yǔ)音、口型、神態(tài)。背后的大模型可以運(yùn)行在云上,也可以運(yùn)行在PC端。
同時(shí),英偉達(dá)發(fā)布了NVIDIA RTX Remix,用于創(chuàng)建經(jīng)典游戲RTX重制版的平臺(tái)。測(cè)試版將于本月底發(fā)布,提供生成式AI工具,可將經(jīng)典游戲中的基本紋理轉(zhuǎn)化物理精準(zhǔn)的4K高精度材質(zhì)。
幀率提升方面,NVIDIA DLSS 3支持幀生成技術(shù)(Frame Generation),可利用AI將幀率提高到原生渲染的4倍,據(jù)了解,這將用于已發(fā)布的14款全新RTX游戲中的十幾款游戲中,包括《地平線:西之絕境》(Horizon Forbidden West)、Pax Dei和《龍之信條 2》(Dragon’s Dogma 2)等。
AI開(kāi)發(fā)者也可以充分利用端側(cè)強(qiáng)大的AI能力,讓生成式AI無(wú)處不在。
英偉達(dá)月底即將上線NVIDIA AI Workbench工具包,允許開(kāi)發(fā)者在PC或工作站上快速創(chuàng)建、測(cè)試和自定義預(yù)訓(xùn)練的生成式AI模型和LLM,并且項(xiàng)目可擴(kuò)展到數(shù)據(jù)中心、公有云或NVIDIA DGX Cloud等,然后再回到PC或工作站上的本地RTX系統(tǒng)進(jìn)行推理和輕量定制。該工具還簡(jiǎn)化了對(duì)Hugging Face、GitHub和NVIDIA NGC等流行存儲(chǔ)庫(kù)的訪問(wèn)。
NVIDIA AI Foundation Models and Endpoints(包括RTX加速的AI模型和軟件開(kāi)發(fā)工具包)有了新的進(jìn)展。目前英偉達(dá)與惠普達(dá)成合作,將其集成到惠普AI Studio中,這是一個(gè)集成化的數(shù)據(jù)科學(xué)平臺(tái),簡(jiǎn)化AI模型的開(kāi)發(fā)。這將使用戶能跨PC和云輕松搜索、導(dǎo)入和部署優(yōu)化后的模型。并且,為PC使用場(chǎng)景構(gòu)建AI模型之后,開(kāi)發(fā)者可使用NVIDIA TensorRT對(duì)其進(jìn)行優(yōu)化,以充分利用RTX GPU的Tensor Core。
英偉達(dá)通過(guò)TensorRT-LLM for Windows將TensorRT擴(kuò)展到基于文本的應(yīng)用,目前最新更新現(xiàn)已發(fā)布,將Phi-2加入不斷增長(zhǎng)的PC預(yù)優(yōu)化模型列表,與其他backend相比推理速度提升5倍;另一方面,TensorRT擴(kuò)展更新版的發(fā)布,令加速Stable Diffusion XL (SDXL) Turbo和LCM的性能提升了60%。
英偉達(dá)還宣布了一項(xiàng)為AI愛(ài)好者而設(shè)計(jì)的技術(shù)Demo——Chat with RTX。據(jù)了解,這項(xiàng)服務(wù)或?qū)⒆鳛殚_(kāi)源參考項(xiàng)目于月底發(fā)布,讓用戶通過(guò)"檢索增強(qiáng)生成retrieval-augmented generation(RAG)",可將PC LLM連接到自己的數(shù)據(jù)。該Demo由TensorRT-LLM 加速,使用戶快速與自己的筆記、文檔和其他內(nèi)容進(jìn)行交互。
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見(jiàn)轉(zhuǎn)載須知。