丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號安全和更好的產(chǎn)品體驗,強烈建議使用更快更安全的瀏覽器
此為臨時鏈接,僅用于文章預(yù)覽,將在時失效
人工智能 正文
發(fā)私信給陳彩嫻
發(fā)送

0

字節(jié)的大模型野心,藏在一艘「方舟」里

本文作者: 陳彩嫻 2023-06-30 11:50
導(dǎo)語:火山引擎的 To B 新解法是建一座「大模型商城」。

一個企業(yè)家,會在智能時代追求什么?雷峰網(wǎng)(公眾號:雷峰網(wǎng))

不久前,一位傳統(tǒng)行業(yè)的技術(shù)管理層向雷峰網(wǎng)給出了一個簡潔而有趣的回答:

「從企業(yè)經(jīng)營的角度來看,我們會希望將流程、人才、方法論等標(biāo)準(zhǔn)化,將個體的能力變成企業(yè)的通用能力。所以,企業(yè)對技術(shù)的追求主要體現(xiàn)在兩點:一是將人才的能力數(shù)字化,二是將不同領(lǐng)域的知識數(shù)字化?!?span style="color: #FFFFFF;">雷峰網(wǎng)

以常見的資源調(diào)度為例。中國地大物博,受當(dāng)?shù)厣鐣?、?jīng)濟、地理等等不同環(huán)境變量的影響,不同地區(qū)的電力調(diào)度與能源管理有所差異,如東北地區(qū)的電力分配方法往往不適用于西北、西南、華南等地,因此每個地方都有各自的專家團隊。當(dāng)一個企業(yè)追求降本增效,通常訴諸一套通用的方法論,但受技術(shù)瓶頸的限制,所謂的「通用智能」難以實現(xiàn),直到大模型出現(xiàn)。

技術(shù)上,大模型使通用人工智能(AGI)成為一種可能,越來越多的傳統(tǒng)行業(yè)也從 ChatGPT 「一才多能」的產(chǎn)品形態(tài)中看到他們原來想做、但做不到的事情,即將人才與領(lǐng)域的知識數(shù)字化,將聰明的大腦從舊有的知識體系中釋放出來,激發(fā)社會生產(chǎn)力。

用大模型改造傳統(tǒng)行業(yè),是一個共識,但如何改造卻是一個開放答問。

從今年3月起,國產(chǎn)大模型陸續(xù)推出面向行業(yè)的解決方案,最激烈的競爭發(fā)生在云廠商間。有兩類做法:一類做法是面向企業(yè)客戶開放 API 插件,企業(yè)在通用大模型的基礎(chǔ)上「煉」自有大模型;另一類做法是與不同行業(yè)的頭部玩家建立深度共創(chuàng),用行業(yè)數(shù)據(jù)開發(fā)行業(yè)大模型,然后賣給中小廠,按模型升級來收費。

一位大模型從業(yè)者曾對雷峰網(wǎng)預(yù)測,大模型的 To B 戰(zhàn)爭將在今年下半年進入價格戰(zhàn)。但在各家的爭相追逐下,大模型的市場化被加速。6月28日,字節(jié)跳動旗下的云平臺「火山引擎」也發(fā)布了一個 To B 的大模型服務(wù)平臺——火山方舟。

字節(jié)的大模型野心,藏在一艘「方舟」里

在一眾云廠商中,火山引擎的模式獨樹一幟:他們不是主打自家的通用大模型,而是與國內(nèi)現(xiàn)有的大模型初創(chuàng)公司合作,接入了智譜、MiniMax 等 7 家當(dāng)紅大模型提供方的基礎(chǔ)模型,為千行百業(yè)打造一座「大模型商城」。


01 高墻之外:進不來的 B 端用戶

眾所周知,大模型的研發(fā)門檻高,但極少人指出:隨著越來越多的大模型發(fā)布,大模型的商業(yè)落地開始凸顯出上一代 AI 「有門檻、沒壁壘」的局限性。

在產(chǎn)品普遍缺乏想象力的背景下,這一事實變得愈發(fā)嚴峻。雷峰網(wǎng)

通用大模型占據(jù)主流,以致現(xiàn)有大模型應(yīng)用開發(fā)以 To C 的通用產(chǎn)品為主,在解決專業(yè)領(lǐng)域的問題上表現(xiàn)不足,與希望將大模型能力私有部署、嵌入到生產(chǎn)業(yè)務(wù)流中的行業(yè)需求脫節(jié)。在模型落地的討論上,一味強調(diào)大模型的技術(shù)門檻不再是有力說辭,如何讓大模型產(chǎn)生行業(yè)影響力成為更大的焦點。

然而,盡管呼聲高漲,但當(dāng)前國內(nèi)的大模型與行業(yè)之間卻猶如隔著一道高墻,墻一邊的大模型能力無法得到釋放,另一邊的行業(yè)數(shù)字化訴求無法得到滿足;基于開放數(shù)據(jù)集訓(xùn)練的大模型不擅長專業(yè)知識,掌握行業(yè)數(shù)據(jù)的企業(yè)用戶無法參與大模型的建設(shè)。

更關(guān)鍵的是,企業(yè)面臨選擇大模型的難題。這主要歸因于兩方面的因素:

一方面,由于大模型技術(shù)的日新月異,各家模型的能力迭代飛快,目前尚無法確定哪一家的通用大模型能力會最終成為 AI 時代的「智能運營商」(類似「電力運營商」);

另一方面,當(dāng)前國內(nèi)已發(fā)布超過 70 個大模型成果,每一家的模型參數(shù)、側(cè)重能力、配套設(shè)施等均不相同,同時不同行業(yè)的應(yīng)用場景也五花八門,企業(yè)用戶對大模型的落地訴求不一。

根據(jù)火山引擎的市場調(diào)研,大多數(shù)企業(yè)由于場景的變化,甚至希望能夠同時調(diào)用多家大模型的能力,因此未來大模型的落地很可能呈現(xiàn)「1+N」的趨勢。這一事實也與當(dāng)前的主流觀點有所沖突:上半年,一個能力足夠強的通用大模型將一家獨大,并建立上層的行業(yè)大模型與應(yīng)用服務(wù);但碎片化的行業(yè)需求往往要求組合不同模型的能力,并通過市場競爭的方式選擇成本最優(yōu)的采購方案。

To B 的探索并非現(xiàn)在才開始。自 ChatGPT 開放 API 插件以來,國內(nèi)的多家云廠商在推出通用大模型時,也往往同步其對行業(yè)賦能的意愿。但大模型 To B 探索至今仍沒有打破高墻,簡單來說有三個維度的阻礙:

一是基于通用大模型研發(fā)行業(yè)大模型的難度。

從技術(shù)上來看,專業(yè)領(lǐng)域(如金融、醫(yī)療、法律)的行業(yè)大模型并非通過將數(shù)據(jù)喂給通用大模型進行精調(diào)就能輕松獲得。例如,摩根大通 AI 研究院的一項研究已用實驗證明,在金融領(lǐng)域,擁有行業(yè)私有數(shù)據(jù)的 BloombergGPT 在多個任務(wù)上的表現(xiàn)并沒有比通用大模型更好:

字節(jié)的大模型野心,藏在一艘「方舟」里

這表明,當(dāng)前行業(yè)大模型的技術(shù)瓶頸仍待突破。

過去十年的 AI 商業(yè)落地又告訴我們,定制化的項目落地模式難逃勞動密集型的「堆人力」結(jié)局,造成商業(yè)變現(xiàn)上的高投入、低回報局面,行業(yè)內(nèi)不同企業(yè)之間又存在競爭關(guān)系,因此大多數(shù)人都認為:解決特定領(lǐng)域問題的行業(yè)大模型必須建立在通用大模型的基礎(chǔ)上,即「基于標(biāo)準(zhǔn)化的定制化」、而非「徹頭徹尾的定制化」。

也就是說,行業(yè)大模型的研發(fā)離不開通用大模型的能力。同時,還要有能為企業(yè)提供模型精調(diào)與訓(xùn)練的平臺、穩(wěn)定運行模型推理與應(yīng)用的基礎(chǔ)設(shè)施等。雖然行業(yè)模型的最終落地大概率是本地私有部署,但大多數(shù)應(yīng)用的使用者也是廣泛 C 端用戶,因此長久穩(wěn)定、充足可靠的系統(tǒng)資源也至關(guān)重要。

二是私有數(shù)據(jù)的安全隱患。

To B 場景中,大模型的買方與賣方間存在天然的信任障礙。一方面,企業(yè)擔(dān)心自己的數(shù)據(jù)(如對話數(shù)據(jù)、內(nèi)部代碼、文檔等)在接入公有大模型后泄露,通常要求私有化部署;但這種情況下,另一方面,大模型的提供方又擔(dān)心技術(shù)機密泄漏。

市場上現(xiàn)有第三方公司提供模型微調(diào)訓(xùn)練的服務(wù),可以幫助企業(yè)在開源模型的基礎(chǔ)上訓(xùn)練企業(yè)自己所需的行業(yè)大模型,然后部署到企業(yè)本地的平臺上。這類第三方公司不是大模型提供方,沒有技術(shù)輸出的憂慮,收費價格也不高,但企業(yè)與其合作仍需要出讓自有的數(shù)據(jù),且無法保證自家的數(shù)據(jù)不會被泄露給同行的競對。

更值得注意的是,當(dāng)前許多開源的大模型規(guī)定,基于其開源的應(yīng)用不能用在商業(yè)用途,如 Meta 的 LLaMa。目前國內(nèi)外只有極少數(shù)的大模型開放商用開源,百川智能最新推出的 baichuan-7B 是國內(nèi)首家。因此,解決正規(guī)大模型提供方與企業(yè)用戶在合作上的數(shù)據(jù)安全問題是首當(dāng)其沖。

三是落地成本的可控性。

通常來說,企業(yè)調(diào)用大模型的成本有兩塊,一是模型訓(xùn)練的費用,二是模型推理(即模型應(yīng)用與調(diào)優(yōu))的費用。

火山引擎智能算法負責(zé)人吳迪將這兩塊分別形容為大模型時代在算力上的「第一增長曲線」與「第二增長曲線」,其中第一增長曲線的結(jié)果已經(jīng)得到驗證,并預(yù)言兩條曲線大約在 2024 年相遇(如下圖)。而在第二增長曲線中,企業(yè)將扮演重要角色,大模型在行業(yè)的落地成本也主要體現(xiàn)在應(yīng)用與調(diào)優(yōu)上。

字節(jié)的大模型野心,藏在一艘「方舟」里

在《大模型時代的三道鴻溝》一文中,我們指出了企業(yè)應(yīng)用大模型的一個「悖論」:企業(yè)希望在性能最好的大模型上做微調(diào)訓(xùn)練,然后再進行私有化部署。但在實際調(diào)用 API 的過程中,許多開源的大模型版本都是相對固定的,所以企業(yè)無法基于最新的模型版本進行微調(diào)。

國內(nèi)大模型成果雖多,但企業(yè)在選定一家模型的過程中需要一一驗證,時間與人力成本均難以把控。即使經(jīng)過驗證作出選擇,也無法使用最新模型,這就降低了傳統(tǒng)行業(yè)在大模型時代崛起早期的參與意愿,尤其降低付費意愿。

大模型的微調(diào)成本并不低。以 GPT-3.5 為例,未經(jīng)調(diào)優(yōu)的 API 價格是 0.02 美元,微調(diào)后的價格則變成了原來的 6 倍,即 0.12 美元。大模型的訓(xùn)練成本低,上線部署的價格才會降低。隨著市場化的深入,大模型必將進入價格戰(zhàn),底層技術(shù)的比拼將成為模型賣方爭取 B 端客戶的終極殺手锏。


02 「商城」模式的 To B 解法

將行業(yè)人士納入大模型的生態(tài)建設(shè)中,是迎接 AI 時代的關(guān)鍵構(gòu)成。而在大模型的起步階段,如何站在未來的角度設(shè)計一套靈活的商業(yè)機制,也同樣考驗大模型提供方的商業(yè)能力。

如前所述,盡管 AIGC 與大模型已表現(xiàn)出人工智能技術(shù)落地從「定制」走向「標(biāo)準(zhǔn)」的可能,但距離 AI 走進企業(yè)的業(yè)務(wù)流仍有一段距離?;鹕揭嬖谶@個背景下,設(shè)計出 MaaS 平臺「火山方舟」,正是為了加速大模型走進千行百業(yè)的步伐。

針對上述的三大問題,火山引擎的底層路徑非同凡想?;鹕椒街鄣耐怀鲋幵谟谄浣⒃诮当驹鲂稀搁_放」、「共贏」同時「競爭」的設(shè)計思路。

字節(jié)的大模型野心,藏在一艘「方舟」里

這體現(xiàn)出字節(jié)看待大模型的視角:在他們看來,大模型不是一次曇花一現(xiàn)的技術(shù)風(fēng)潮,而是一個新的技術(shù)時代窗口。這個時代剛起步,未來必將走進千行百業(yè),大模型在不確定性中迎接市場化競爭是必然趨勢。

在雷峰網(wǎng)看來,火山引擎做對了三件事:

一是用商城的思路設(shè)計了火山方舟,通過「招商引資」式的方法吸引各家大模型的入駐,彌補字節(jié)通用大模型缺位的同時,又為需求各異的行業(yè)客戶提供了靈活選擇、透明比價的大模型采購模式。

二是與飛書一體同源,從工作流上設(shè)計創(chuàng)新大模型 To B 的企業(yè)服務(wù)。在火山方舟上,一方面,企業(yè)可以根據(jù)自己不同的場景需求組合匹配不同的模型能力,既有成熟的通用模型為其入門大模型保駕護航,又有專煉大模型的機器學(xué)習(xí)平臺供企業(yè)自行精調(diào)模型能力;另一方面,商城模式能與大模型的技術(shù)發(fā)展與時俱進,目前在技術(shù)起飛的階段能整合各家的底座大模型,未來也能在應(yīng)用爆發(fā)的階段吸引應(yīng)用入駐,甚至在此基礎(chǔ)上建立一個更大的「大模型應(yīng)用商城」。

三是首創(chuàng)大模型安全互信機制。基于火山引擎基礎(chǔ)能力的安全沙箱、硬件的可信計算環(huán)境與聯(lián)邦學(xué)習(xí)技術(shù),火山方舟在解決大模型提供方與需求方之間的數(shù)據(jù)安全問題上提供了可信解法。據(jù)吳迪介紹,安全沙箱與可信計算的核心是將兩方數(shù)據(jù)資產(chǎn)交疊的部分進行層層加固,聯(lián)邦學(xué)習(xí)技術(shù)則幫助進行數(shù)據(jù)資產(chǎn)的安全拆分。

這套系統(tǒng)得到了國內(nèi)多家權(quán)威大模型研發(fā)團隊的認可。據(jù)火山引擎官方披露,火山方舟已經(jīng)接入 MiniMax、智譜AI、百川智能、瀾舟科技、出門問問、復(fù)旦大學(xué)、IDEA研究院等多家機構(gòu)的大模型。

之前,大模型的提供方有兩種 To B 的變現(xiàn)渠道:第一種變現(xiàn)渠道是自建商城,它們有自己的平臺,然后租用火山的資源去搭建、維護;第二種是加入火山方舟。兩種途徑的區(qū)別是「自建商城」與「開放性大模型官方旗艦店」。

官方旗艦店有一個突出優(yōu)勢:對客戶來說,工作流是統(tǒng)一的。例如,加入一家企業(yè)想一次性嘗試 10 個國產(chǎn)基座模型,有兩種選擇,一是去10個商城里選,二是選擇在火山方舟上一次性將數(shù)據(jù)輸入到 10 個模型的窗口里,自動評估,尋找最適合自己場景的模型。因為工作流是統(tǒng)一的,所以企業(yè)也不用隨著更換模型而更改工作流。

而對模型提供方來說,他們以技術(shù)見長,銷售、交付、服務(wù)這些能力有限。如果是自建商城,一旦業(yè)務(wù)擴張、很容易陷入運維困境。而火山方舟的模式可以幫助他們更大規(guī)模地對接客戶。

字節(jié)的大模型野心,藏在一艘「方舟」里

例如,智譜的 GLM-130B 自 2022 年8 月發(fā)布以來,收到 70 多個國家 1000+ 研究機構(gòu)的使用需求,這樣體量的需求對于一家創(chuàng)業(yè)公司來說,是一個現(xiàn)實挑戰(zhàn)。但接入火山方舟后,火山引擎能夠通過強大的算法團隊、銷售網(wǎng)絡(luò)和交付團隊去幫助模型提供方更好地擴張到千行百業(yè),使規(guī)?;儸F(xiàn)的成本降低。

上半年通用大模型占據(jù)主流,行業(yè)內(nèi)有一個常見討論:在未來,大模型領(lǐng)域是否只會存在一兩家超大型的基座模型、形成壟斷?

對于這個問題,觀點紛繁,但在字節(jié)看來,即使最終真的是一兩家大模型獨大,ROI 的問題也是恒在的。吳迪分析,「如果有一個巨通用的基座模型,那么它一定很大,但一些垂直領(lǐng)域可以用一個比它小十倍、甚至百倍的小模型,在一兩個特定任務(wù)上達到逼近于超大模型的效果,那么通用大模型所帶來的成本錨點永遠存在,除非降價一百倍?!?/p>

火山引擎總經(jīng)理譚待判斷,未來腰部以上的客戶都是「1+N」的模式,即始終保持一個自研模型,并同時去調(diào)用 N 個外部模型。而火山方舟的訓(xùn)練與推理是一體化的,既包括模型訓(xùn)練,又包括模型應(yīng)用,企業(yè)可以在火山方舟的平臺上既訓(xùn)練、又調(diào)用,然后去對比選擇在他們的場景上表現(xiàn)最好的模型。

譚待分析,目前整個大模型社區(qū)的技術(shù)仍在不斷演變,實際上大家都無法準(zhǔn)確預(yù)測在明年、后年,大模型是否還是采用 GPT 的架構(gòu),因此他們必須與時間成為朋友,幫助企業(yè)用統(tǒng)一的工作流去接觸最新、最前沿的大模型,而沒有必要馬上選定一家大模型。

火山方舟的工作流也體現(xiàn)了數(shù)據(jù)驅(qū)動的魅力。比如,每一次的大模型微調(diào)都會出現(xiàn)非常清晰的前后效果對比,幫助客戶準(zhǔn)確評估大模型的性能,來決定在什么樣的場景下使用什么樣的模型。對于大模型的能力,學(xué)術(shù)界有清晰的 Benchmark,但工業(yè)界沒有,而火山方舟自帶的評測體系解決了這一問題。


03 火山引擎憑什么?

建立一座大模型商城的愿景很好,但并非任何平臺都能做到。大模型的訓(xùn)練與推理本身就需要海量的計算資源,還有運維、系統(tǒng)、工程等方面的投入。

簡單來說,火山方舟在一汪池塘里寸步難行;只有在汪洋大海上,火山方舟才有施展拳腳的空間。而火山引擎能推出火山方舟,吸引到國內(nèi)多家大模型提供方的入駐,最關(guān)鍵的是要有豐富的計算資源,并能規(guī)?;档痛竽P吐涞爻杀镜呐涮自O(shè)施。

英偉達開發(fā)與技術(shù)部門亞太區(qū)總經(jīng)理李曦鵬指出,大模型訓(xùn)練跟之前的 AI 模型不同:之前 AI 訓(xùn)練以小模型為主,一般是單機或單機多卡,如果訓(xùn)練失敗只用簡單重啟,而大模型的訓(xùn)練需要成千上萬張卡,任何一臺機器出故障都可能影響整個訓(xùn)練過程。所以,大模型的算力平臺是一個大的系統(tǒng)工程,必將遇到許多挑戰(zhàn)。

在大模型的訓(xùn)練上,火山引擎的優(yōu)勢有三點:一,長期充足且穩(wěn)定的算力;二,為不同的大模型提供正確的硬件。所謂「正確的硬件」,即跟英偉達企業(yè)合作,根據(jù)語言模型的大小來選擇用卡、機器密度、CPU 與 GPU 的配比設(shè)置、網(wǎng)絡(luò)等等;三,提供有效的優(yōu)化,火山引擎的 Lego 算子能夠幫助很多模型進行透明優(yōu)化,火山還與英偉達合作了 CV CUDA,適合自動駕駛或 Stable Diffusion 等模型的加速。

此前,據(jù)雷峰網(wǎng)調(diào)研,字節(jié)的 GPU 卡在目前國內(nèi)眾多云廠商中排名 Top 3。這主要歸因于兩大原因:

一方面,抖音等業(yè)務(wù)的推薦廣告平臺在過去兩三年內(nèi)技術(shù)升級,基本都運行在GPU上。雖然模型結(jié)構(gòu)、網(wǎng)絡(luò)結(jié)構(gòu)與大語言模型的訓(xùn)練不同,但也需要大算力支持;

另一方面,火山引擎使用抖音同源的機器學(xué)習(xí)平臺對外服務(wù),在大規(guī)模穩(wěn)定訓(xùn)練上非常有競爭力,過去一年在自動駕駛、生物醫(yī)藥等AI計算領(lǐng)域拿下眾多大客戶。內(nèi)外需求帶動了火山引擎在GPU算力上的采購儲備。

經(jīng)過抖音等業(yè)務(wù)長時間、大規(guī)模的機器學(xué)習(xí)實踐,火山引擎在系統(tǒng)工程優(yōu)化與超大規(guī)模分布式并行訓(xùn)練上積累了豐富的經(jīng)驗,能夠輕松支持一個大模型在成千上萬張 GPU 上的長時間穩(wěn)定高速訓(xùn)練。

在大模型的任務(wù)工程中,各種隨機的硬件故障都有可能發(fā)生,如卡、服務(wù)器或網(wǎng)絡(luò)故障,都可能導(dǎo)致訓(xùn)練任務(wù)卡頓甚至失效。針對這個問題,火山引擎有快速的故障遷移能力:火山引擎的集群可以在3分鐘的SLA的條件下,任何一臺主機出故障,都能實現(xiàn)調(diào)度另一臺主機,把任務(wù)無縫遷移到新的主機上,然后在分鐘級內(nèi)將任務(wù)恢復(fù)。

火山引擎有完善的調(diào)度系統(tǒng)與算法,能夠提高算卡的資源利用率。例如,大模型在訓(xùn)練中的「饑餓」常導(dǎo)致小模型排不上隊,這主要是因為繁忙任務(wù)調(diào)度過程中出現(xiàn)「算力碎片」。去年7月,火山引擎就已發(fā)布過「GPU 調(diào)度 0 碎片」的成果。

此外,火山引擎的 Lego 算子優(yōu)化在訓(xùn)練加速上扮演了重要作用。據(jù)雷峰網(wǎng)了解,火山是國內(nèi)最早研究分布式加速計算的團隊之一。在大模型中,算力不能無限堆疊,分布式計算幾乎成為大模型訓(xùn)練的標(biāo)配,而火山的加速計算研究積累為其在大模型時代積累了經(jīng)驗。

據(jù)火山官方披露,其高性能算子庫可將 Stable Diffusion 模型在128張A100上的訓(xùn)練時間從25天減少到15天,訓(xùn)練性能提升40%。同時,由于AIGC模型在訓(xùn)練時占用GPU顯存容量非常大,未經(jīng)優(yōu)化時的模型只能運行在高端的A100 80GB GPU卡上?;鹕揭娓咝阅芩阕訋焱ㄟ^大量消減中間操作,將運行時GPU顯存占用量降低50%,使得大多數(shù)模型可從A100遷移到成本更低的V100或A30等GPU卡上運行,擺脫特定計算卡的限制,而且不需要做額外的模型轉(zhuǎn)換工作。

最新的例子是,在火山引擎的機器學(xué)習(xí)平臺上,MiniMax 研發(fā)了超大規(guī)模的大模型訓(xùn)練平臺,能夠保證文本、視覺、聲音三種通用大模型實現(xiàn)每天千卡以上的常態(tài)化穩(wěn)定訓(xùn)練,并行訓(xùn)練的可用性超過99.9%,帶寬利用率提升了10%以上。

這或許也是眾多大模型提供方選擇入駐火山方舟平臺的原因。作為算力生態(tài)伙伴,火山引擎不僅為大模型團隊提供高效訓(xùn)練的算力平臺,降低企業(yè)的大模型成本,而且能為大模型客戶創(chuàng)造價值。用吳迪的一句話概述,就是「不僅讓客戶在云上花錢,還要讓客戶在云上賺錢?!?/p>

B 端企業(yè)在用大模型解決自身問題時,往往是兩種途徑:一是直接調(diào)用大模型的 API,基于一類大模型的通用能力開發(fā)特定任務(wù)應(yīng)用;二是基于一個大模型精調(diào),訓(xùn)練自己的大模型,然后進行私有化部署。

在對應(yīng)的服務(wù)上,前者需要的是數(shù)據(jù)安全的 API 接口,后者需要性價比高的機器學(xué)習(xí)訓(xùn)練平臺。同行對比,分別對應(yīng)百度的文心一言 API 接口與文心千帆機器學(xué)習(xí)訓(xùn)練平臺,而字節(jié)的做法更為激進:將兩種需求集合到火山方舟 MaaS 平臺上,用商城模式解決通用大模型的 API,自有機器學(xué)習(xí)平臺解決企業(yè)訓(xùn)練、推理、評測與精調(diào)大模型的生產(chǎn)需求。

若人人都能輕松自由地購買大模型服務(wù)與應(yīng)用,大模型時代才算真正到來。而火山方舟的自由市場精神,為這個目標(biāo)提供了一種可能。

雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。

字節(jié)的大模型野心,藏在一艘「方舟」里

分享:
相關(guān)文章
最新文章
請?zhí)顚懮暾埲速Y料
姓名
電話
郵箱
微信號
作品鏈接
個人簡介
為了您的賬戶安全,請驗證郵箱
您的郵箱還未驗證,完成可獲20積分喲!
請驗證您的郵箱
立即驗證
完善賬號信息
您的賬號已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
立即設(shè)置 以后再說