丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號安全和更好的產(chǎn)品體驗,強烈建議使用更快更安全的瀏覽器
此為臨時鏈接,僅用于文章預覽,將在時失效
人工智能 正文
發(fā)私信給鄭佳美
發(fā)送

0

梁文鋒親自掛名,DeepSeek 最新論文丟出注意力新機制,推理速度直線提升 11 倍

本文作者: 鄭佳美   2025-02-24 14:14
導語:DeepSeek 革命性 NSA 注意力機制問世。

2 月 18 日,馬斯克發(fā)布 Grok 3 的熱度還沒過去,梁文鋒就作為 co-authors 帶著 DeepSeek 研究團隊殺了回來。

公布新研究的推文發(fā)布不到 3 個小時,就帶來了三十多萬的瀏覽量,火爆程度不遜 OpenAI。

梁文鋒親自掛名,DeepSeek 最新論文丟出注意力新機制,推理速度直線提升 11 倍

而這次 DeepSeek 團隊最新的研究論文更是重磅,論文中介紹了一種全新的,可用于超快速的長上下文訓練與推理的注意力機制 —— NSA,值得一提的是,NSA 還具有與硬件對齊的特點,十足的硬件友好。

論文中提到的 NSA 核心組成主要包括三點:分別是動態(tài)分層稀疏策略、粗粒度的 token 壓縮以及細粒度的 token 選擇。有了這三點核心技術(shù)的加持,就能夠在有效降低預訓練成本的情況下,同時顯著提升推理速度,特別是在解碼階段實現(xiàn)了高達 11.6 倍的提升。

梁文鋒親自掛名,DeepSeek 最新論文丟出注意力新機制,推理速度直線提升 11 倍

更讓人感到眼前一亮的是,DeepSeek 創(chuàng)始人兼 CEO 梁文鋒這次也出現(xiàn)在了合著名單之中,不僅親自上陣,還親自提交了論文。

梁文鋒親自掛名,DeepSeek 最新論文丟出注意力新機制,推理速度直線提升 11 倍

看熱鬧不嫌事大的網(wǎng)友甚至還借此調(diào)侃奧特曼:DeepSeek 又發(fā)了一篇很強的新論文了哦!

梁文鋒親自掛名,DeepSeek 最新論文丟出注意力新機制,推理速度直線提升 11 倍

DeepSeek 填補了稀疏注意力機制存在的缺陷

隨著 AI 領域的不斷發(fā)展,長上下文建模能力的關(guān)鍵性日益凸顯,尤其在現(xiàn)實世界的應用中有著廣泛需求,比如深度推理、代碼庫級代碼生成和多輪自主代理系統(tǒng)。就比如 DeepSeek 自家的 R1 模型就是突破了這個技術(shù),使其能夠處理整個代碼庫、長篇文檔,并保持成千上萬 token 的對話連貫性,同時也能在長距離依賴的情境下進行復雜推理。

但序列越來越長,傳統(tǒng)的注意力機制就開始因為太過復雜成為了造成運行延遲的最大因素。理論分析顯示,使用 softmax 架構(gòu)的注意力計算在解碼 64k 長度的上下文時,幾乎占據(jù)了總延遲的 70-80%,傳統(tǒng)注意力機制存在明顯缺陷,提升速度成了一件非常重要的事情。

并且自然的實現(xiàn)高效長上下文建模的方法是利用 softmax 注意力的固有稀疏性,選擇性地計算關(guān)鍵的 query-key 對,從而大幅降低計算開銷,并保持模型性能。

近年來,相關(guān)研究在這一方向取得了進展,提出了如 KV 緩存淘汰、塊狀 KV 緩存選擇,以及基于采樣、聚類或哈希的選擇方法等策略。盡管這些方法展示了很大的潛力,但現(xiàn)有的稀疏注意力技術(shù)在實際部署時種仍未能達到預期效果。并且大部分研究主要集中于推理階段,缺乏對訓練階段有效支持,因此并不能充分發(fā)揮稀疏模式的優(yōu)勢。

為實現(xiàn)更高效的稀疏注意力,DeepSeek 研究團隊提出了一種原生可訓練的稀疏注意力架構(gòu) NSA,這個架構(gòu)的核心內(nèi)容是通過動態(tài)分層稀疏策略,結(jié)合粗粒度的 token 壓縮和細粒度的 token 選擇,從而保留全局上下文感知能力和局部精確性。

同時 NSA 通過精妙的算法設計和針對現(xiàn)代硬件的優(yōu)化,實現(xiàn)在計算速度上的顯著提升,并支持端到端訓練,既提高了推理效率,又減少了預訓練計算量,同時保持了模型性能。

梁文鋒親自掛名,DeepSeek 最新論文丟出注意力新機制,推理速度直線提升 11 倍

除此之外,新研究還通過使用 Triton,開發(fā)了與硬件高度兼容的稀疏注意力內(nèi)核。

DeepSeek 的優(yōu)化策略則是采用不同的查詢分組方法,并通過以下特性實現(xiàn)接近最優(yōu)的計算強度平衡:

1、組內(nèi)數(shù)據(jù)加載:每次內(nèi)循環(huán)加載該組所有頭的查詢及其共享的稀疏 KV 塊索引。

2、共享KV加載:內(nèi)循環(huán)中連續(xù)加載 KV 塊,減少內(nèi)存加載的開銷。

3、網(wǎng)格循環(huán)調(diào)度:由于內(nèi)循環(huán)長度在不同查詢塊間幾乎相同,將查詢/輸出循環(huán)與 Triton 的網(wǎng)格調(diào)度器結(jié)合,簡化并優(yōu)化了內(nèi)核的執(zhí)行。

梁文鋒親自掛名,DeepSeek 最新論文丟出注意力新機制,推理速度直線提升 11 倍

DeepSeek:NSA 已在多面碾壓全注意力

在對 NSA 進行技術(shù)評估時,研究人員分別從通用基準性能、長文本基準性能、思維鏈推理性能三個角度,分別將 NSA 與全注意力基線和 SOTA 稀疏注意力方法進行比較。

梁文鋒親自掛名,DeepSeek 最新論文丟出注意力新機制,推理速度直線提升 11 倍

測試中 NSA 的預訓練損失曲線相比全注意力基線呈現(xiàn)出更加穩(wěn)定和平滑的下降趨勢,且始終優(yōu)于全注意力模型。

除此之外,為了驗證 NSA在實際訓練和推理中的效果,DeepSeek 研究團隊采用了當前領先的 LLM 常用實踐,選擇了一個結(jié)合分組查詢注意力(GQA)和混合專家(MoE)架構(gòu)的模型作為樣本,該模型的總參數(shù)量為 27B,其中 3B 為活躍參數(shù)。

在這個基礎上,DeepSeek 對 NSA、全注意力和其他注意力機制分別進行了評估。結(jié)果顯示,盡管 NSA 采用了稀疏性,但其整體性能仍然優(yōu)于所有基線模型,包括全注意力模型,并且在 9 項評測指標中有 7 項表現(xiàn)最好。

梁文鋒親自掛名,DeepSeek 最新論文丟出注意力新機制,推理速度直線提升 11 倍

另外,在長上下文任務中, NSA 在 64k 上下文的“大海撈針”測試中表現(xiàn)出了極高的檢索精度。這歸功于其分層稀疏注意力設計,通過粗粒度的token壓縮實現(xiàn)了高效的全局上下文掃描,同時通過細粒度的選擇性標記來保留關(guān)鍵的信息,從而有效平衡了全局感知與局部精確度。

梁文鋒親自掛名,DeepSeek 最新論文丟出注意力新機制,推理速度直線提升 11 倍

同時研究團隊還在 LongBench 基準上,也對 NSA 進行了評估。最終 NSA 以最高平均分0.469,優(yōu)于其他所有基準。

梁文鋒親自掛名,DeepSeek 最新論文丟出注意力新機制,推理速度直線提升 11 倍

在思維鏈推理性能評估方面,研究人員通過從 DeepSeek-R1 進行知識蒸餾,并借助 100 億條 32k 長度的數(shù)學推理軌跡進行了監(jiān)督微調(diào)(SFT)。

最后用 AIME 24 基準來評估所生成的兩個模型Full Attention-R(全注意力基準模型)和 NSA-R(稀疏變體模型)的表現(xiàn)。

在 8k 上下文設置下,NSA-R 的準確率超過了 Full Attention-R,差距為 0.075。即使在 16k 上下文環(huán)境中,NSA-R 仍然保持著這一優(yōu)勢,準確率高出 0.054。

梁文鋒親自掛名,DeepSeek 最新論文丟出注意力新機制,推理速度直線提升 11 倍

NSA 驗證清華姚班早期論文

值得一提的是,論文末尾提到的處理復雜數(shù)學問題的示例,再次驗證了兩年前清華大學姚班一篇論文中的結(jié)論。

由于 Transformer 架構(gòu)在注意力機制上的局限,處理復雜數(shù)學問題時,tokens 數(shù)量過多常常會導致性能下降,特別是在任務復雜度較高時。

DeepSeek 的最新研究通過優(yōu)化問題理解和答案生成,將所需的tokens數(shù)量減少至 2275,從而成功得出了正確答案。而與之對比的基線方法,盡管消耗了 9392 個 tokens,最終卻得出了錯誤的答案。這一顯著的提升展示了新方法在效率和準確性上的優(yōu)勢。

清華大學姚班的那篇論文探討了在 Transformer 架構(gòu)下,模型在計算兩個四位數(shù)乘法(例如 1234 × 5678 )時的表現(xiàn)。研究發(fā)現(xiàn),GPT-4 在處理三位數(shù)乘法時的準確率為 59%,然而當任務變?yōu)樗奈粩?shù)乘法時,準確率卻驟降至 4%。這一現(xiàn)象揭示了在面對更復雜計算時,Transformer 架構(gòu)的推理能力受到顯著限制。

梁文鋒親自掛名,DeepSeek 最新論文丟出注意力新機制,推理速度直線提升 11 倍

這些研究結(jié)果表明,盡管 Transformer 架構(gòu)在某些任務中表現(xiàn)出色,但在處理復雜推理任務,尤其是需要大量信息處理時,仍然存在瓶頸。

關(guān)于 DeepSeek 論文結(jié)尾的復雜數(shù)學題,雷峰網(wǎng)(公眾號:雷峰網(wǎng))也用 GPT o3-mini 進行了解讀,最終呈現(xiàn)的解題過程比 DeepSeek 論文中給出的解題過程要長出 2 倍之多。


由此可見,大模型的發(fā)展就是一個不斷推陳出新的過程。

而反觀 DeepSeek,未來的研究可能會更加專注于如何優(yōu)化模型在長文本和代碼庫分析中的表現(xiàn),以進一步提升其推理能力和實用性。

雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。

梁文鋒親自掛名,DeepSeek 最新論文丟出注意力新機制,推理速度直線提升 11 倍

分享:
相關(guān)文章
當月熱門文章
最新文章
請?zhí)顚懮暾埲速Y料
姓名
電話
郵箱
微信號
作品鏈接
個人簡介
為了您的賬戶安全,請驗證郵箱
您的郵箱還未驗證,完成可獲20積分喲!
請驗證您的郵箱
立即驗證
完善賬號信息
您的賬號已經(jīng)綁定,現(xiàn)在您可以設置密碼以方便用郵箱登錄
立即設置 以后再說