丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號安全和更好的產(chǎn)品體驗,強烈建議使用更快更安全的瀏覽器
此為臨時鏈接,僅用于文章預(yù)覽,將在時失效
業(yè)界 正文
發(fā)私信給何思思
發(fā)送

0

對話云從姜迅:大模型不是企業(yè)、國與國之間的競爭,可能是人類命運共同體的鑰匙丨AGI十人談

本文作者: 何思思 2023-08-04 10:53
導(dǎo)語:業(yè)內(nèi)從業(yè)者對大模型的認知被統(tǒng)一了,形成了合力。

對話云從姜迅:大模型不是企業(yè)、國與國之間的競爭,可能是人類命運共同體的鑰匙丨AGI十人談

作者丨何思思

編輯丨林覺民

“公司在用最高戰(zhàn)略的方式做這件事,”談到大模型時云從科技副總裁姜迅如是說。

2015年成立之時,云從科技就定調(diào)自己是一家AI平臺公司, 雖然云從科技是“四小龍”中成立最晚的一家,但是其在AI方面的表現(xiàn)并不遜色。

自成立之初,云從科技就將發(fā)展方向定位在人機協(xié)同操作系統(tǒng),一方面,包括根據(jù)不同應(yīng)用場景客戶需求提供的多種人機協(xié)同應(yīng)用產(chǎn)品和整體操作系統(tǒng),服務(wù)于客戶單點業(yè)務(wù)效能提升和整體業(yè)務(wù)升級;另一方面也包括通用服務(wù)平臺“輕舟平臺”,能開放引入生態(tài)伙伴共同開發(fā)AI應(yīng)用及配套SaaS服務(wù)。

此外,在人工智能基礎(chǔ)上,云從科技還增加了對機器人、物聯(lián)網(wǎng)等技術(shù)研究投入,試圖構(gòu)建更為標準化的AI產(chǎn)品。借助底層操作系統(tǒng)這一統(tǒng)一入口,提供人機協(xié)同相關(guān)算力、算法、數(shù)據(jù)管理能力和應(yīng)用接口,從而構(gòu)建自己的生態(tài)閉環(huán)。

如今,人機協(xié)同操作系統(tǒng)的定位也一直延續(xù)到了大模型時代。姜迅表示,雖然公司內(nèi)部沒有明確的‘最高戰(zhàn)略’的提法,但對這件事情的重視度已經(jīng)非常高了,我們不用‘最’這個詞,用優(yōu)先級來說,它確實是一個非常高的優(yōu)先級。

反觀國內(nèi)大模型的發(fā)展,大部分企業(yè)仍停留在追熱點階段,并沒有實質(zhì)性進展。那云從是否也在追熱點?姜迅給出了否定的答案。他表示,我們還在研究我們的人機協(xié)同操作系統(tǒng),在GPT技術(shù)之上,人機協(xié)同操作系統(tǒng)的智商會越來越高,它不僅會增加其上限,還能降低成本,這能在很大程度上讓該系統(tǒng)更好地服務(wù)客戶,競爭優(yōu)勢也會增加。

雷峰網(wǎng)了解到,云從科技日前已經(jīng)推出了自研“從容”大模型。據(jù)姜迅介紹,除自研模型外,云從已經(jīng)聯(lián)合不同領(lǐng)域的不同企業(yè)推出了7款行業(yè)大模型,諸如游戲行業(yè)、金融行業(yè)、交通行業(yè)、醫(yī)療行業(yè)等。

并且他還坦言,C端、B端、G端都會做,我們肯定會結(jié)合自身的行業(yè)優(yōu)勢,選擇最值得深耕的一些特定的行業(yè),而不是全行業(yè)的拓展,一定是要有重點的。

以下是雷峰網(wǎng)和姜迅的對話:

關(guān)注的不是BERT或GPT,而是整個大模型技術(shù)的演進

雷峰網(wǎng):什么時候開始關(guān)注大模型的?

姜迅:其實關(guān)注很長時間了,2022年Google的LaMDA出來后,他們的研究員被強制休假了,那時就已經(jīng)意識到這個事情要發(fā)生了。要說關(guān)注因為要做人機協(xié)同操作系統(tǒng),我們有個產(chǎn)品叫知識服務(wù)—knowledge as service,這個應(yīng)該更早一點,對自然語言處理的技術(shù)進展一直是和行業(yè)前沿保持同步的。

從產(chǎn)品邏輯上,2019年底2020年初就提出了五大模塊,包括AI數(shù)據(jù)湖、智能業(yè)務(wù)流、算法工廠、人機交互和知識服務(wù),只是GPT出來后,從系統(tǒng)架構(gòu)的視角看,知識服務(wù)從傳統(tǒng)的NLP以及知識圖譜等技術(shù)升級為大模型這個能力更強的引擎。但我們的整體系統(tǒng)架構(gòu)一直穩(wěn)定的,只是說我們現(xiàn)在在用一種更新的技術(shù)來解決問題,所以不是突然之間,是很早就在做了。

雷峰網(wǎng):為什么很早就提出了五大模塊?

姜迅:是這樣的,周曦老師一直強調(diào)要有更好的系統(tǒng)架構(gòu)設(shè)計官,所以設(shè)計出了五大模塊。他一直強調(diào)要把大的系統(tǒng)模塊設(shè)置好,要定義好模塊之間的交互的語言,那在這個過程中模塊之間的技術(shù)是不斷迭代更新的。比如之前用機器學(xué)習(xí),后來用深度學(xué)習(xí),再到現(xiàn)在的大模型,可能再過一兩年又有新的技術(shù)了,就是在系統(tǒng)的大模塊保持架構(gòu)穩(wěn)定,單點技術(shù)的進步會增強各自模塊的能力,這樣在保證系統(tǒng)的完整性的同時,可以穩(wěn)定的增強系統(tǒng)的競爭力。

雷峰網(wǎng):與之前技術(shù)棧相比,大模型帶來了哪些變化?

姜迅:大模型帶來的是范式的變化,過去每一個任務(wù)都需要做單獨訓(xùn)練,盡管能看到各行各業(yè)對于AI技術(shù)旺盛的需求,有時候會有一些非常細碎的場景,比如檢驗螺絲釘有沒有裂紋等等,由于這些場景對于單個用戶在前期階段很難覆蓋研發(fā)成本,這導(dǎo)致這些場景想要建立正向的商業(yè)循環(huán)是比較困難的。有些同行的朋友比喻為“為了喝一口水,挖了一口井”。

預(yù)訓(xùn)練大模型其實很好地解決了這個問題,預(yù)訓(xùn)練模型在大規(guī)模無標簽數(shù)據(jù)上進行一次訓(xùn)練后,可以在多個具體任務(wù)上進行指令微調(diào)。這使得預(yù)訓(xùn)練模型能夠在不同領(lǐng)域和任務(wù)中實現(xiàn)迅速的遷移和泛化,減少了在小樣本數(shù)據(jù)下過擬合的風(fēng)險。

我們確定了基礎(chǔ)模型以后,只需要在這個基礎(chǔ)上加入新的知識,原有投入訓(xùn)練成本得到了保護,對于整個社會的算力資源也是一種保護。

雷峰網(wǎng):保護投資的意思是,這次訓(xùn)練的算力下次還能用?

姜迅:我們是把一些通識能力放到大模型中然后再不斷累加,也就是說在現(xiàn)有能力之上,通過追加新的數(shù)據(jù)增強模型的能力,這樣就可以把模型的智商從 80 提到 90、100 ,隨著更多的數(shù)據(jù)和知識通過預(yù)訓(xùn)練的方式加入模型,模型的智商會越來越高。

其實我們可以把預(yù)訓(xùn)基礎(chǔ)模型比作一個人,它現(xiàn)在相當(dāng)于一個高中生,學(xué)會了基礎(chǔ)加減乘除等基礎(chǔ)的運算邏輯,然后再不斷提升它的智商。這個過程不需要重新開始,而是在上一個能力的基礎(chǔ)上做疊加,這就是對投資的保護,之后的訓(xùn)練工作量變少了,但是能力卻變的更強了。

當(dāng)一個新技術(shù)出來后,你要做得是先去了解他,然后去擁抱他。

雷峰網(wǎng):目前云從對大模型的定位是什么樣的?是在追熱點嗎?

姜迅:我們是在用最高戰(zhàn)略的方式做這件事情,而不是追熱點。因為大模型技術(shù)已經(jīng)相對成熟了,它不僅會增加人機協(xié)同操作系統(tǒng)的上限,還能降低成本,這能在很大程度上讓我們的人機協(xié)同操作系統(tǒng)更好地服務(wù)客戶,競爭優(yōu)勢也會增加。

這是我們對這個事情的認知,不是說我們要去蹭這個熱點,我們還在研發(fā)人機協(xié)同操作系統(tǒng)。

雷峰網(wǎng):也就是說最終交付的還是人機協(xié)同操作系統(tǒng)?

姜迅:對,只是依托GPT這個引擎,人機協(xié)同操作系統(tǒng)的智商更高了。原來我們用傳統(tǒng)機器學(xué)習(xí)、知識圖譜的方式,它也是一個有智商的智能體系,只是它的智商相對低,處理的任務(wù)也相對有限。

雷峰網(wǎng):大模型具體怎么和人機協(xié)同操作系統(tǒng)結(jié)合?

姜迅:大家首先感知到的是交互方式的變化,從原來的點擊鼠標變成人機交互,其次就是它一定會對每個行業(yè)的行業(yè)知識有更深刻的理解。

降本增效是必然,還會帶來洞察業(yè)務(wù)的價值

雷峰網(wǎng):訓(xùn)練出一個相對成熟的大模型要多久?

姜迅:我們做這件事情有兩個步驟:第一步先完成高中教育,這個過程我們對它沒有盈利的目標。就是先做技術(shù)項目,這也是基礎(chǔ)模型要做的事情。

第二步把行業(yè)知識灌給他,這樣就可以培養(yǎng)出不同領(lǐng)域的專家,然后給不同領(lǐng)域的客戶服務(wù)。但前提是我要有一個智商比較高的基礎(chǔ)模型,這樣才能保證他能做你要求他做的事情。

雷峰網(wǎng):現(xiàn)在有沒有具體的場景應(yīng)用案例了?

姜迅:比如用大模型做數(shù)據(jù)分析,一是人力開發(fā)會被大大降低,原來的模式可能需要五六個研發(fā),現(xiàn)在不需要了,開發(fā)人數(shù)減少也意味著效率會增加;二是時間變短了,原來可能需要一到兩周甚至一到兩個月的時間,現(xiàn)在可能一兩分鐘就解決了,這兩點是效率提升上的價值的。

除此之外,還有一個非常重要的影響是,大模型通過讓業(yè)務(wù)人員直接操作數(shù)據(jù),和系統(tǒng)、數(shù)據(jù)的距離更近了。還是上面數(shù)據(jù)分析的例子,銷售主管想要分析最近的銷售趨勢,從匯總的數(shù)字上看,銷售的數(shù)據(jù)沒有明顯的波動和變化。技術(shù)人員在開發(fā)功能的時候,可能看到了在A區(qū)域有明顯的上漲,在B區(qū)域有明顯的下跌,技術(shù)人員如果沒有業(yè)務(wù)敏感性的話,這些異常的數(shù)據(jù)波動被當(dāng)做數(shù)據(jù)噪音處理掉了,最終的報表體現(xiàn)為沒有波動;這種距離的拉近,不僅僅是節(jié)省了幾個開發(fā)人員,還有可能帶來業(yè)務(wù)的數(shù)據(jù)洞察,從而帶來巨大的商業(yè)價值。

雷峰網(wǎng):其實除了降本增效外,還要解決胡說八道的問題?

姜迅:有時候胡說八道并不是一件壞事,比如文娛行業(yè),有時候可以利用它胡說八道的特性來設(shè)計一些比較搞笑的場景,做一些開放性的回答也是有價值的。

那在比較嚴肅的行業(yè)里,確實不能胡說八道,針對這個問題我們有幾種不同的方式解決或者緩解這個問題。比較通用的方法是用embedding的方式解決,對此我們有一個專門的產(chǎn)品——書語,你給我一個企業(yè)的知識,可以是操作手冊,用戶的文檔,用戶回答問題的數(shù)據(jù),只要你給我一個行業(yè)里的可信的數(shù)據(jù)源就可以,基于這些數(shù)據(jù)我們可以約束生成的答案,這個過程我們不用大模型生成答案,而是讓他在你給定的文檔范圍內(nèi)生成答案。

我們的產(chǎn)品可以做多文檔輸出,不局限于單個文檔,就是可以對多個文檔的內(nèi)容理解后給出你想要的答案,甚至可以理解文檔中圖片的內(nèi)容再做輸出。其實new bing也是類似的邏輯,他不是讓GPT直接生成答案,而是先從可信的信源內(nèi)搜索答案,然后大模型把這幾個文檔的內(nèi)容理解了,再輸出結(jié)果。這時問題的答案才更全面、更可靠。

書語的邏輯就是讓這本書會說話,那這本書是個泛化的書,它可以是一本書,也可以是一個手冊、一個規(guī)章制度、一個法律條文等,從另外一個角度,比如在文娛行業(yè),它相當(dāng)于一個可以和人溝通的智能體,這個產(chǎn)品的設(shè)計思想就是幫助行業(yè)解決落地問題。

雷峰網(wǎng):未來有沒有側(cè)重點,比如聚焦哪些行業(yè)?

姜迅:C端、B端、G端都在做,我們發(fā)布的模型中大概有7個行業(yè)大模型,這些都是我們重點拓展的領(lǐng)域,我們肯定會結(jié)合自身的行業(yè)優(yōu)勢,選擇我們最值得深耕的一些特定的行業(yè),而不是做全行業(yè)的拓展,一定要有重點。

未來大模型可能是人類命運共同體的鑰匙

雷峰網(wǎng):您怎么看待國內(nèi)大模型的發(fā)展?

姜迅:國內(nèi)大模型發(fā)展的速度還是很快的,現(xiàn)在OpenAI已經(jīng)告訴你了,沿著這個路線走一定能看到創(chuàng)新,目前國內(nèi)的大模型肯定是沒辦法上線的,但業(yè)內(nèi)從業(yè)人員對這件事情的認知被高度統(tǒng)一了,這是特別重要的一個點。

之前大家的狀態(tài)是:你有你的方法,我有我的方法,可能在這個任務(wù)上你的領(lǐng)先一點,在那個任務(wù)上他的領(lǐng)先一點。但ChatGPT出來后大家對這件事情的認知空前統(tǒng)一,已經(jīng)變成了全行業(yè)統(tǒng)一要做的事情。

關(guān)于大模型,我有一個越來越強烈的感覺,它會超越公司與公司之間,國家與國家的競爭,可能會是人類命運共同的鑰匙。手持這把鑰匙,我們可能正在跨越人類歷史上最重要的一個門檻,進入AGI(通用人工智能)。

現(xiàn)在大家都認為GPT的迭代遠超過之前任何一項技術(shù),所以不管是付費的、開源的還是免費的都不重要,都愿意加入進去,參與到全球化的競爭中去,為這場技術(shù)競爭貢獻自己的力量,這樣就形成了一個合力,這是發(fā)展快的一個非常重要的原因。

雷峰網(wǎng):您認為國內(nèi)和國外的大模型的差距還有多大?

姜迅:之前大家說差2年甚至更久,但從現(xiàn)在的發(fā)展來看,追趕速度非常快,遠比預(yù)期快。

第一,業(yè)內(nèi)從業(yè)者對這個事情的認知被統(tǒng)一了,形成了合力,全社會的力量總比一個單獨的商用公司往前走的力量大,所以趕超速度是非常驚人的;現(xiàn)在國內(nèi)很多模型已經(jīng)能夠在某些任務(wù)上追上3.5的水平了,這是一個非常明確的趨勢;

第二,OpenAI處在一個開放性的工作環(huán)境中,他已經(jīng)告訴你這個路徑是正確的,這時我再去追趕遠比一個開創(chuàng)者消耗的資源要少。其實做研究最怕前面的路是黑的,我不知道什么時候往前走,往前走一步兩步還是三步,是繼續(xù)沿著這個方向走,還是換個方向走,這是非常迷茫的,消耗的資源也是最大的。一旦有人告訴你朝著前面的燈走就可以,你就不會猶豫了。

第三,對算力的需求已經(jīng)沒有大家想象的那么高的,OpenAI 原來的論文提到訓(xùn)練GPT3一次要1200萬美金,現(xiàn)在隨著算法和數(shù)據(jù)質(zhì)量的不斷提升,訓(xùn)練GPT4一次的成本已經(jīng)從6300萬美金被快速降低到2500萬美金,后續(xù)這個趨勢應(yīng)該還會更加加速。

實際上數(shù)據(jù)質(zhì)量對訓(xùn)練的效率有很大的影響,越臟的數(shù)據(jù)訓(xùn)練的時間越長,甚至?xí)涯P陀?xùn)歪掉。相反高質(zhì)量的數(shù)據(jù),不僅能加速訓(xùn)練時間還能降低對算力的要求。包括OpenAI的論文提到原始數(shù)據(jù)是40T,最后應(yīng)用到訓(xùn)練的數(shù)據(jù)大概有個570G,99%的數(shù)據(jù)被清洗了,所以高質(zhì)量的數(shù)據(jù)對大模型的訓(xùn)練至關(guān)重要。

雷峰網(wǎng)(公眾號:雷峰網(wǎng)):所以美國的算力封鎖對中國也造不成很大的影響?

姜迅:對,訓(xùn)練一次也就一兩千張卡,三四個月的時間。最關(guān)鍵是的整個過程它對資源是保護的,就是當(dāng)我訓(xùn)完一次之后,后面再做增量訓(xùn)練不用重新開始,只需要在原有的投資上做二次訓(xùn)練就可以了,所以真的沒有大家想象的那么高,至少在推理方面已經(jīng)不需要A100了,用 T4 的卡就能做推理,很快大量的國產(chǎn)硬件也都能做推理了。


雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。

分享:
相關(guān)文章

工業(yè)口編輯

關(guān)注新基建,聚焦工業(yè)互聯(lián)網(wǎng)領(lǐng)域 網(wǎng)絡(luò)安全丨微信:15230152798
當(dāng)月熱門文章
最新文章
請?zhí)顚懮暾埲速Y料
姓名
電話
郵箱
微信號
作品鏈接
個人簡介
為了您的賬戶安全,請驗證郵箱
您的郵箱還未驗證,完成可獲20積分喲!
請驗證您的郵箱
立即驗證
完善賬號信息
您的賬號已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
立即設(shè)置 以后再說