0
本文作者: 木子 | 2021-04-19 11:10 |
4月19日,阿里巴巴達摩院發(fā)布中文社區(qū)最大規(guī)模預訓練語言模型PLUG(Pre-training for Language Understanding and Generation)。該模型參數(shù)規(guī)模達270億,集語言理解與生成能力于一身,在小說創(chuàng)作、詩歌生成、智能問答等長文本生成領域表現(xiàn)突出,其目標是通過超大模型的能力,大幅提升中文NLP各類任務的表現(xiàn),取得超越人類表現(xiàn)的性能。發(fā)布后,PLUG刷新了中文語言理解評測基準CLUE分類榜單歷史紀錄。
自去年OpenAI發(fā)布超大規(guī)模預訓練語言模型GPT-3引發(fā)全球熱議后,中文領域同類模型的訓練進程備受關注。與GPT-3類似,阿里達摩院本次發(fā)布的PLUG有望廣泛應用于文本生成領域,成為“萬能寫作神器”。更重要的是,此類超大模型擁有極強的通用性,被認為或?qū)⒊蔀锳I時代的新型基礎設施之一。
較GPT-3改進之處在于,PLUG設計了一個簡潔的模型框架,集成了達摩院自研的語言理解及語言生成雙模型,并通過構建輸入文本雙向理解能力,顯著提升了輸出文本的相關性。在語言理解任務上,PLUG以80.614分刷新了CLUE分類榜單紀錄;在語言生成任務上,PLUG多項應用數(shù)據(jù)較業(yè)內(nèi)最優(yōu)水平提升了8%以上。
(注:4月19日,PLUG刷新CLUE分類榜單紀錄,排名僅次于“人類”)
據(jù)了解,PLUG采用了1TB以上高質(zhì)量中文文本訓練數(shù)據(jù),涵蓋新聞、小說、詩歌、問答等廣泛類型及領域,其模型訓練依托了阿里云EFLOPS 高性能AI計算集群。接下來,PLUG將擴大參數(shù)規(guī)模至2000億級,并進一步提升文本生成質(zhì)量。在超大規(guī)模預訓練模型領域,除發(fā)布以中文為核心的PLUG外,阿里達摩院、阿里云計算平臺團隊還聯(lián)合智源研究院、清華大學發(fā)布了面向認知的超大規(guī)模新型預訓練模型“文匯”,以及聯(lián)合清華大學發(fā)布了超大規(guī)模多模態(tài)預訓練模型“M6”。
與PLUG發(fā)布同步,達摩院宣布近期將開源阿里巴巴深度語言模型體系大部分重要模型。阿里達摩院語言技術實驗室負責人司羅表示,“達摩院NLP團隊將進一步攻克自然語言處理領域科研難題,完善中文及跨語言人工智能基礎設施,讓AI沒有難懂的語言,并探索通用人工智能之路。”
雷鋒網(wǎng)雷鋒網(wǎng)
雷峰網(wǎng)版權文章,未經(jīng)授權禁止轉載。詳情見轉載須知。