丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號(hào)安全和更好的產(chǎn)品體驗(yàn),強(qiáng)烈建議使用更快更安全的瀏覽器
此為臨時(shí)鏈接,僅用于文章預(yù)覽,將在時(shí)失效
業(yè)界 正文
發(fā)私信給貝爽
發(fā)送

1

開(kāi)源|谷歌發(fā)布最新“天馬”模型,自動(dòng)生成文本摘要已超越人類!

本文作者: 貝爽 2020-06-16 22:57
導(dǎo)語(yǔ):僅1000個(gè)樣本數(shù)據(jù),即可達(dá)到SOTA性能

我們知道,Transfromer在處理長(zhǎng)序列文本方面比CNN/RNN表現(xiàn)更為出色,因此,最強(qiáng)大的預(yù)訓(xùn)練模型,如BERT、GPT均采用的是Transfromer基礎(chǔ)架構(gòu)。而且事實(shí)證明,在處理諸如機(jī)器翻譯、文本摘要、語(yǔ)音識(shí)別、問(wèn)答系統(tǒng)等多種語(yǔ)言任務(wù)時(shí),只需進(jìn)行微調(diào),即可達(dá)到SOTA性能。

但是,Transfromer的自監(jiān)督目標(biāo)(self-supervised)更偏通用性,與下游語(yǔ)言任務(wù)聯(lián)系性不強(qiáng),也就是說(shuō)它不知道下游執(zhí)行的是機(jī)器翻譯,還是文本摘要。如果自監(jiān)督目標(biāo)能夠與下游任務(wù)建立緊密聯(lián)系,那么,微調(diào)性能會(huì)更好。

基于這樣的目的,Google AI團(tuán)隊(duì)研發(fā)出了PEGASU(天馬)模型。

開(kāi)源|谷歌發(fā)布最新“天馬”模型,自動(dòng)生成文本摘要已超越人類!

基于Transfromer編/譯碼器的天馬架構(gòu)

結(jié)果出人意料,研究發(fā)現(xiàn)“天馬”模型不僅表現(xiàn)出了卓越的性能,而且在小樣本數(shù)據(jù)下,能夠達(dá)到同樣的效果,極大地優(yōu)化了訓(xùn)練效率,降低了數(shù)據(jù)成本。

目前,這項(xiàng)研究的論文《PEGASUS:Pre-training with Extracted Gap-sentence for Abstractive Summarization》已經(jīng)發(fā)表在預(yù)印論文庫(kù)arXiv上,而且被ICML國(guó)際機(jī)器學(xué)習(xí)大會(huì)收錄。

從“間隙句子”到文本摘要,小樣本性能更佳

研究人員假設(shè),預(yù)訓(xùn)練目標(biāo)越接近下游任務(wù),微調(diào)的性能越好。為此,他們?cè)O(shè)定下游語(yǔ)言任務(wù)為“提取文本摘要”,而預(yù)訓(xùn)練目標(biāo)為“生成間隙句子”(Gap Sentences Generation)。研究人員在輸入文檔中刪除一些完整句子,天馬模型的任務(wù)就是恢復(fù)他們。如果輸出結(jié)果中能夠呈現(xiàn)被刪掉的句子,即表示與下游任務(wù)建立了聯(lián)系,即生成了GSG。如下圖所示:

開(kāi)源|谷歌發(fā)布最新“天馬”模型,自動(dòng)生成文本摘要已超越人類!

這個(gè)過(guò)程就像我們做填空題一樣。研究人員表示,這項(xiàng)看似人類都無(wú)法完成的任務(wù)真的實(shí)現(xiàn)了。而且他們發(fā)現(xiàn)越是刪除一些“重要”的句子,試驗(yàn)的效果越好。

基于此,他們?cè)?2個(gè)下游摘要數(shù)據(jù)集上對(duì)模型進(jìn)行了微調(diào),結(jié)果顯示預(yù)訓(xùn)練后的輸出示例與微調(diào)摘要非常相似,而且這一結(jié)果經(jīng)過(guò)了ROUGE標(biāo)準(zhǔn)測(cè)試。ROUGE通過(guò)N元語(yǔ)法重疊來(lái)計(jì)算兩個(gè)文本的相似度。

另外,這些數(shù)據(jù)集十分豐富,包含文章,科學(xué)論文,專利,短篇小說(shuō),電子郵件,法律文件和使用說(shuō)明,等,這說(shuō)明天馬模型在選擇文本主題上方面并沒(méi)有局限性。

更令人驚奇的是,研究人員發(fā)現(xiàn)天馬模型在小樣本數(shù)據(jù)集中同樣表現(xiàn)出了卓越的性能。以下是研究人員選定4個(gè)數(shù)據(jù)集后,ROUGE得分與監(jiān)督樣本數(shù)量的關(guān)系。(虛線表示具有全監(jiān)督但沒(méi)有預(yù)訓(xùn)練的Transformer編解碼器性能。)

開(kāi)源|谷歌發(fā)布最新“天馬”模型,自動(dòng)生成文本摘要已超越人類!

可以看出,僅1000個(gè)微調(diào)示例,天馬模型已經(jīng)有了非常好的性能表現(xiàn),而且高于未經(jīng)訓(xùn)練的示例(虛線)。這一結(jié)果,表明天馬模型在優(yōu)化性能的同時(shí),可以極大的降低數(shù)據(jù)使用的成本,同時(shí)提高了訓(xùn)練效率。

超越人類的性能表現(xiàn)

為了確保實(shí)驗(yàn)結(jié)果的準(zhǔn)確性,除了ROUGE標(biāo)準(zhǔn)的衡量外,研究人員還采取了人工評(píng)估的方法。即將實(shí)驗(yàn)后的摘要與人類撰寫的摘要進(jìn)行對(duì)比。這類似于圖靈測(cè)試。

研究人員采用了3個(gè)不同的數(shù)據(jù)集,評(píng)分者在進(jìn)行優(yōu)劣判斷時(shí),并不知道哪一個(gè)是人類的,最終結(jié)果顯示評(píng)分者并不總是喜歡人類編寫的摘要。

開(kāi)源|谷歌發(fā)布最新“天馬”模型,自動(dòng)生成文本摘要已超越人類!

而且,從XSum、CNN /Daily Mail和Reddit TIFU這三個(gè)數(shù)據(jù)集中可以看出,僅訓(xùn)練1000個(gè)示例同樣達(dá)到了超越人類的水平,再次印證天馬模型在小樣本下的性能優(yōu)勢(shì)。

開(kāi)源|谷歌發(fā)布最新“天馬”模型,自動(dòng)生成文本摘要已超越人類!

不過(guò),雖然經(jīng)天馬模型預(yù)訓(xùn)練后的性能表現(xiàn)能夠與人類相媲美,它還是會(huì)存在失誤。比如研究人員就以下文本進(jìn)行了預(yù)訓(xùn)練。XSum數(shù)據(jù)集中的這篇示例全文沒(méi)有提到數(shù)字“4”,但是在文本提取中,天馬能夠抽象出文本摘要“No proposals have been submitted to preserve four Royal Navy frigates for reuse, the BBC has learned.”,而且從2-5都是如此。

開(kāi)源|谷歌發(fā)布最新“天馬”模型,自動(dòng)生成文本摘要已超越人類!

開(kāi)源|谷歌發(fā)布最新“天馬”模型,自動(dòng)生成文本摘要已超越人類!

但是在第六艘護(hù)衛(wèi)艦時(shí),天馬出現(xiàn)了失誤,其摘要中顯示的是“七”。說(shuō)明模型在重復(fù)文本提取方面還需要進(jìn)一步優(yōu)化。為此,研究人員也將該項(xiàng)目公開(kāi)發(fā)布到了Github上。

雷鋒網(wǎng)雷鋒網(wǎng)雷鋒網(wǎng)

如果你想了解更多研究?jī)?nèi)容,可參考:

https://ai.googleblog.com/2020/06/pegasus-state-of-art-model-for.html

https://arxiv.org/abs/1912.08777

https://github.com/google-research/pegasus 

雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見(jiàn)轉(zhuǎn)載須知。

分享:
相關(guān)文章
當(dāng)月熱門文章
最新文章
請(qǐng)?zhí)顚懮暾?qǐng)人資料
姓名
電話
郵箱
微信號(hào)
作品鏈接
個(gè)人簡(jiǎn)介
為了您的賬戶安全,請(qǐng)驗(yàn)證郵箱
您的郵箱還未驗(yàn)證,完成可獲20積分喲!
請(qǐng)驗(yàn)證您的郵箱
立即驗(yàn)證
完善賬號(hào)信息
您的賬號(hào)已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
立即設(shè)置 以后再說(shuō)