丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號安全和更好的產(chǎn)品體驗,強烈建議使用更快更安全的瀏覽器
此為臨時鏈接,僅用于文章預(yù)覽,將在時失效
業(yè)界 正文
發(fā)私信給二維馬曉寧
發(fā)送

0

從「悟道」到「悟界」,智源走進(jìn)大模型的新時代

本文作者: 二維馬曉寧   2025-06-24 13:25
導(dǎo)語:中國大模型開創(chuàng)者智源始終肩負(fù)著本土原始創(chuàng)新的重任。

從「悟道」到「悟界」,智源走進(jìn)大模型的新時代

作者丨馬曉寧

編輯丨陳彩嫻

“大模型技術(shù)的演進(jìn)遠(yuǎn)未抵達(dá)終點”,在2025智源大會召開之際,面對雷峰網(wǎng)(公眾號:雷峰網(wǎng))關(guān)于“大模型發(fā)展現(xiàn)狀”的疑問,智源研究院院長王仲遠(yuǎn)給出了這樣的回復(fù)。

OpenAI 仍領(lǐng)跑通用性能與復(fù)雜推理,但國產(chǎn)模型已從追隨者轉(zhuǎn)向特定領(lǐng)域的引領(lǐng)者,DeepSeek-R1 持續(xù)引領(lǐng)低成本推理,阿里4月發(fā)布的Qwen3登頂全球最強開源模型。OpenAI依然在推進(jìn)著探索步伐,國產(chǎn)模型緊追不舍。

我們必須清醒認(rèn)識到,當(dāng)前的 AI 技術(shù)仍處于高速迭代的深水區(qū),大量基礎(chǔ)性、挑戰(zhàn)性的難題遠(yuǎn)未被攻克,技術(shù)路徑與創(chuàng)新范式遠(yuǎn)未定型,AGI之路仍然道阻且長。

中國在人工智能領(lǐng)域的研究,既不應(yīng)滿足于亦步亦趨的跟隨,更不應(yīng)止步于對標(biāo) OpenAI。 早在2018年大模型機(jī)遇初現(xiàn)時便成立的北京智源人工智能研究院,作為中國大模型「悟道」的開創(chuàng)者,始終肩負(fù)著本土原始創(chuàng)新的重任。

「悟道」之名,承載了智源對通用智能技術(shù)路徑的深刻求索。

一位早期參與「悟道」研發(fā)的核心成員曾向 AI 科技評論強調(diào),智源在浪潮初起時的“前瞻眼光與果斷魄力”是其最可貴特質(zhì),尤其是在國內(nèi)大模型起步維艱之際,其毫不猶豫的經(jīng)費與算力支持起到了關(guān)鍵作用??梢哉f,在通用人工智能的探索之路上,智源研究院以「悟道」系列大模型為起點,開啟了中國的大模型時代。

大語言模型和多模態(tài)模型的發(fā)展,進(jìn)一步推動機(jī)器人從1.0時代邁向2.0時代。目前,大模型與機(jī)器本體深度耦合驅(qū)動以具身智能為核心的機(jī)器人2.0時代,正在加速數(shù)字世界與物理世界融合。

而在今天舉辦的第七屆“北京智源大會”上推出的「悟界」,深刻寓意著智源致力于突破數(shù)字與物理世界的藩籬,將大模型的強大認(rèn)知能力真正注入并重塑現(xiàn)實世界。從此,大模型由數(shù)字AGI時代邁向了物理AGI時代。

「悟界」系列大模型目前包含四個模型:原生多模態(tài)世界模型Emu3、全球首個腦科學(xué)多模態(tài)通用基礎(chǔ)模型見微Brainμ、具身大腦RoboBrain 2.0以及全原子微觀生命模型OpenComplex2。

從微觀生命體到具身智能體,「悟界」系列大模型試圖揭示生命機(jī)理本質(zhì)規(guī)律,構(gòu)建人工智能與物理世界交互基座。如果說「悟道」對通用智能的求索,那么「悟界」就是對虛實世界邊界的突破和對物理世界的深度賦能。在世界模型成為 AGI 核心路徑的當(dāng)下,智源成為了新浪潮的領(lǐng)航員。

1
當(dāng)大語言模型性能走到瓶頸

當(dāng)前大語言模型的性能提升正面臨顯著瓶頸,主要源于互聯(lián)網(wǎng)高質(zhì)量訓(xùn)練數(shù)據(jù)的枯竭與同質(zhì)化競爭。

隨著公開可獲取的有效文本、代碼資源被大規(guī)模消耗,模型難以獲得足夠新穎、多樣且優(yōu)質(zhì)的訓(xùn)練素材,導(dǎo)致學(xué)習(xí)邊際效益銳減。

盡管模型架構(gòu)優(yōu)化與算力提升仍在持續(xù),但核心知識的獲取效率已明顯下滑,性能增長曲線趨于平緩。突破這一瓶頸需依賴合成數(shù)據(jù)生成、多模態(tài)融合或小樣本學(xué)習(xí)等技術(shù)的革命性突破。

早在去年的北京智源大會上,智源就對大模型的技術(shù)路線進(jìn)行了預(yù)判,這條路線將會是從大語言模型往多模態(tài)、尤其是原生多模態(tài)世界模型的方向發(fā)展。這一年來,智源朝著這條路線進(jìn)行了堅定探索。

在2025年北京智源大會上,智源重磅介紹了原生多模態(tài)世界模型Emu3,這是全球首個原生多模態(tài)世界模型,是多模態(tài)技術(shù)發(fā)展的重要里程碑。

跨模態(tài)交互的強大基座

Emu3是基于下一個token預(yù)測范式統(tǒng)一多模態(tài)學(xué)習(xí),無需擴(kuò)散模型或組合式架構(gòu)的復(fù)雜性,在多模態(tài)混合序列上從頭開始聯(lián)合訓(xùn)練一個Transformer模型。

從「悟道」到「悟界」,智源走進(jìn)大模型的新時代

智源研究院院長王仲遠(yuǎn)

“走向物理世界的多模態(tài)模型的技術(shù)壁壘在模型本身,因為技術(shù)路線就沒有收斂?!蓖踔龠h(yuǎn)說。

當(dāng)前主流方案普遍存在這樣的一種困境:當(dāng)以強大的語言模型(LLM)作為基座,融合視覺、聽覺等模態(tài)進(jìn)行訓(xùn)練時,語言能力常出現(xiàn)顯著退化。這導(dǎo)致訓(xùn)練出來的模型語言能力與其他能力此消彼長,無法統(tǒng)一。

雖然在某些垂直領(lǐng)域中,多模態(tài)的某些能力比人類更強,比如人臉識別,機(jī)器的識別能力是人的無數(shù)倍,但是人類大腦不會因為收到更多信息之后突然不會說話了。為什么會出現(xiàn)這種問題,以及如何解決這種問題,成為了智源在研發(fā)Emu3的過程中希望探索的技術(shù)原理。

傳統(tǒng)模型則只能處理一種類型,而該模型實現(xiàn)了視頻、圖像、文本三種模態(tài)的任意組合理解與生成。

Emu3架構(gòu)從根本上規(guī)避了傳統(tǒng)多模態(tài)模型的“此消彼長”缺陷:視覺語義不再擠占語言參數(shù)空間,而是通過符號化對齊實現(xiàn)知識無損融合。Emu3驗證了“物理世界離散語義化” 路線的可行性,為多模態(tài)AGI提供了可擴(kuò)展的技術(shù)收斂框架,使語言模型的推理生成能力首次真正覆蓋物理時空維度。

這款模型支持多模態(tài)輸入、多模態(tài)輸出的端到端映射,驗證了自回歸框架在多模態(tài)領(lǐng)域的普適性與先進(jìn)性,為跨模態(tài)交互提供了強大的技術(shù)基座??梢哉f,作為原生多模態(tài)統(tǒng)一架構(gòu),智源的Emu3讓大模型初步具備理解和推理世界的能力。

見微Brainμ和OpenComplex 2

基于Emu3的底層架構(gòu),智源研究院推出了見微Brainμ。這也是本次北京智源大會最引人注目的模型之一。

從「悟道」到「悟界」,智源走進(jìn)大模型的新時代

它將fMRI、EEG、雙光子等神經(jīng)科學(xué)與腦醫(yī)學(xué)相關(guān)的腦信號統(tǒng)一token化,并且具備強大的多模態(tài)對齊能力,能夠?qū)崿F(xiàn)腦信號與文本、圖像等模態(tài)的多向映射,支持跨模態(tài)的理解與生成。在能力方面,見微Brainμ可以完成多種神經(jīng)科學(xué)任務(wù),如自動化睡眠分型、感官信號重建和多種腦疾病診斷等。

Brainμ實現(xiàn)了跨任務(wù)、跨模態(tài)、跨個體的統(tǒng)一建模,具有創(chuàng)新性、通用性和廣泛的應(yīng)用潛力,為神經(jīng)科學(xué)和腦醫(yī)學(xué)研究提供了強大的工具?,F(xiàn)在,智源正在與國內(nèi)前沿的基礎(chǔ)神經(jīng)科學(xué)實驗室、腦疾病研究團(tuán)隊和腦機(jī)接口團(tuán)隊深入合作,包括北京生命科學(xué)研究所、清華大學(xué)、北京大學(xué)、復(fù)旦大學(xué)與強腦科技BrainCO,拓展Brainμ的科學(xué)與工業(yè)應(yīng)用。

全原子微觀生命模型OpenComplex2,則是實現(xiàn)了生物分子研究從靜態(tài)結(jié)構(gòu)預(yù)測到動態(tài)構(gòu)象分布建模的重大突破。

OpenComplex2模型在生物分子動態(tài)特性預(yù)測、柔性系統(tǒng)及超大型復(fù)合物建模、生物分子相互作用精細(xì)化分析等關(guān)鍵任務(wù)中性能卓越,突破了靜態(tài)結(jié)構(gòu)預(yù)測的瓶頸。不僅可以預(yù)測蛋白質(zhì)單體結(jié)構(gòu),還可進(jìn)行復(fù)合物結(jié)構(gòu)建模、分子間相互作用預(yù)測等,為探索蛋白質(zhì)的生物學(xué)功能提供了新的途徑。

智源研究院發(fā)布的多模態(tài)大模型是為了推動AI從數(shù)字世界走向物理世界,更利于解決物理需求。目前,物理世界的多模態(tài)現(xiàn)在還沒有完全解決,以智源為代表的全球研究機(jī)構(gòu)都會在這條道路上進(jìn)行不懈探索。

2
向著前沿技術(shù)路徑預(yù)研和探索

在今天的智源具身智能會客廳中,銀河通用的具身大模型機(jī)器人Galbot登臺展示了端到端VLA大模型在商業(yè)零售場景的落地應(yīng)用。

從「悟道」到「悟界」,智源走進(jìn)大模型的新時代

宇樹G1登臺,展示了敏捷帥氣的“組合拳”。

從「悟道」到「悟界」,智源走進(jìn)大模型的新時代

全球首個人形機(jī)器人半程馬拉松冠軍天工2.0完成“準(zhǔn)備甜點”的精細(xì)化服務(wù)任務(wù),獲得滿堂喝彩。

從「悟道」到「悟界」,智源走進(jìn)大模型的新時代

2025智源大會,設(shè)置了智源研究院AI科研成果互動體驗展臺,帶來了從具身智能到腦科學(xué)、數(shù)字心臟等領(lǐng)域的最新應(yīng)用。

看到這個場景,我們不禁想問,在具身智能發(fā)展如火如荼、多家企業(yè)紛紛加大投入,致力于推動這一前沿技術(shù)的研發(fā)與應(yīng)用的現(xiàn)在,智源還能做什么?

答案一直就在智源的定位中——做高校做不了,企業(yè)不愿意做的事情,預(yù)研和探索前沿技術(shù)路徑。

在具身智能領(lǐng)域,伴隨著中國在制造業(yè)、豐富的場景、政策支持上的優(yōu)勢,智源所做的跨本體具身大小腦協(xié)作框架RoboOS 2.0和具身大腦RoboBrain 2.0,再次為產(chǎn)業(yè)發(fā)展注入新動力。

跨本體具身大小腦協(xié)作框架RoboOS 2.0

RoboOS 1.0發(fā)布于2025 年 3 月 29 日,到現(xiàn)在為止,不到3個月的時間,智源就發(fā)布了它的升級版,跨本體具身大小腦協(xié)作框架。

跨本體具身大小腦協(xié)作框架RoboOS 2.0是全球首個基于具身智能SaaS平臺、支持無服務(wù)器一站式輕量化機(jī)器人本體部署的開源框架。

同時,RoboOS 2.0也是全球首個支持MCP的跨本體具身大小腦協(xié)作框架,旨在構(gòu)建具身智能領(lǐng)域的“應(yīng)用商店”生態(tài)。

在該框架下,可一鍵下載并部署來自全球開發(fā)者創(chuàng)建的相同型號機(jī)器人本體的小腦技能,完成大小腦的無縫整合。RoboOS 2.0實現(xiàn)了小腦技能的免適配注冊機(jī)制,顯著降低開發(fā)門檻,典型場景下,相關(guān)代碼量僅為傳統(tǒng)手動注冊方式的1/10。

相較于1.0,RoboOS 2.0對端到端推理鏈路進(jìn)行了系統(tǒng)級優(yōu)化,整體性能提升達(dá)30%,全鏈路平均響應(yīng)時延低至3ms以下,端云通信效率提升27倍。在功能層面,新增了多本體時空記憶場景圖(Scene Graph)共享機(jī)制,支持動態(tài)環(huán)境下的實時感知與建模;同時引入多粒度任務(wù)監(jiān)控模塊,實現(xiàn)任務(wù)閉環(huán)反饋,有效提升機(jī)器人任務(wù)執(zhí)行的穩(wěn)定性與成功率。

具身大腦RoboBrain 2.0

智源研究院發(fā)布的具身大腦 RoboBrain 2.0 是目前全球最強的開源具身大腦大模型,它在空間推理與任務(wù)規(guī)劃等關(guān)鍵指標(biāo)上展現(xiàn)出卓越的性能,全面超越了眾多主流大模型。

從「悟道」到「悟界」,智源走進(jìn)大模型的新時代

RoboBrain2.0官網(wǎng):https://superrobobrain.github.io

RoboBrain 2.0 的優(yōu)勢在于其能夠精準(zhǔn)地理解和推理復(fù)雜空間關(guān)系,并制定高效的任務(wù)規(guī)劃方案。例如,在機(jī)器人導(dǎo)航、物體操控以及多步驟任務(wù)執(zhí)行等場景中,它能夠快速準(zhǔn)確地分析環(huán)境信息,確定最優(yōu)行動路徑和操作方式。

這使得機(jī)器人在各種實際應(yīng)用場景中,如物流配送、家庭服務(wù)、工業(yè)生產(chǎn)等,能夠更加高效、智能地完成任務(wù),極大地提升了機(jī)器人的自主性和適應(yīng)性。

在任務(wù)規(guī)劃方面,RoboBrain 2.0相比于RoboBrain 1.0的基于Prompt的多機(jī)任務(wù)規(guī)劃機(jī)制和初級空間理解能力,進(jìn)一步擴(kuò)展了基于多本體-環(huán)境動態(tài)建模的多機(jī)協(xié)同規(guī)劃能力,可實時構(gòu)建包含本體定位的場景圖(Scene Graph),并自動完成跨本體的任務(wù)規(guī)劃。

實驗數(shù)據(jù)顯示,RoboBrain 2.0的任務(wù)規(guī)劃準(zhǔn)確率相較RoboBrain 1.0實現(xiàn)了74%的效果提升。

在空間智能方面,RoboBrain 2.0在原有可操作區(qū)域(Affordance)感知與操作軌跡(Trajectory)生成能力的基礎(chǔ)上,實現(xiàn)了17%的性能提升。

同時,RoboBrain 2.0增加了空間推理能力(Spatial Referring),新增了閉環(huán)反饋以及具身智能的深度思考能力。

當(dāng)下的具身智能大模型面臨“不好用、不通用、不易用”的特點?!安缓糜谩笔侵妇呱泶竽P瓦h(yuǎn)沒有到ChatGPT時刻;“不通用”是指具身大模型只能用于一個本體或同一品牌的本體;“不易用”是指大腦、小腦本體的適配難度比較高。

智源發(fā)布的RoboOS 2.0提升機(jī)器人多任務(wù)處理與環(huán)境適應(yīng)力,RoboBrain 2.0強化其感知理解和決策規(guī)劃。 二者都是為解決這三大問題而存在,現(xiàn)在已全面開源,包括框架代碼、模型權(quán)重、數(shù)據(jù)集與評測基準(zhǔn),以助力推動具身智能研究和產(chǎn)業(yè)應(yīng)用的發(fā)展。

目前,智源研究院已與全球20多家具身智能企業(yè)建立戰(zhàn)略合作關(guān)系,共同打造開放繁榮、協(xié)同共生的具身智能生態(tài)體系,為全球研究者和開發(fā)者提供了一個強大的基礎(chǔ)平臺,促進(jìn)了具身智能技術(shù)的交流與創(chuàng)新。

3
通往AGI的漫漫征程

在今天上午智源大會主論壇上,圖靈獎獲得者 Richard Sutton在線發(fā)言,“現(xiàn)在世界所發(fā)生的一些進(jìn)展都已經(jīng)證明了我們向通用人工智能發(fā)展,”他再次強調(diào)了他所堅持的,“我們已經(jīng)來到了經(jīng)驗的時代?!?/p>

然而,一個共識則在于,AGI的研發(fā)需要持續(xù)的跨學(xué)科研究與探索,預(yù)計在未來十年甚至更長時間才能看到顯著進(jìn)展。

深度推理模型仍是 AI 認(rèn)知與邏輯能力的基礎(chǔ),例如語言理解、復(fù)雜問題拆解等場景不可或缺,強化學(xué)習(xí)在動態(tài)環(huán)境交互中展現(xiàn)的能力是不可替代的。

目前,AI在特定領(lǐng)域的表現(xiàn)已經(jīng)取得了顯著成就,但是通用人工智能(AGI)仍處于發(fā)展初期。AGI的實現(xiàn)需要在多個方面實現(xiàn)重大突破。

智象未來創(chuàng)始人兼CEO 梅濤在本次大會的大模型產(chǎn)業(yè)CEO論壇上說,“現(xiàn)在的大模型,無論是大語言模型還是視頻模型,其實都沒有產(chǎn)生新的智能,都是在復(fù)制這個世界。”

如何才能產(chǎn)生智能呢?這是一個目前無法收斂的問題?;A(chǔ)模型重要,強化學(xué)習(xí)也很重要。發(fā)展需要多元技術(shù)融合,而非單一路徑主導(dǎo)。智源研究院拓展原生多模態(tài),也是希望去發(fā)現(xiàn)是否有其他的多模態(tài)技術(shù)路徑和技術(shù)架構(gòu)。

多模態(tài)的ChatGPT時刻仍未到來。Sand.AI CEO曹越將目前的多模態(tài)模型發(fā)展階段比作2018年的BERT,難以Scalable成為了最大的痛點。

我們能夠?qū)κ澜缯嬲??對于王仲遠(yuǎn)而言,要解決這個事情,難度非常大,不僅僅是一個技術(shù)路線的突破,還是一種理念的突破。

“人工智能再往下發(fā)展,一定要解決對于空間、時間與物理世界交互,對于宏觀世界、微觀世界的理解,這也恰恰是智源研究院做的研究方向。”

雷峰網(wǎng)

雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知

分享:
相關(guān)文章
最新文章
請?zhí)顚懮暾埲速Y料
姓名
電話
郵箱
微信號
作品鏈接
個人簡介
為了您的賬戶安全,請驗證郵箱
您的郵箱還未驗證,完成可獲20積分喲!
請驗證您的郵箱
立即驗證
完善賬號信息
您的賬號已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
立即設(shè)置 以后再說