丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號安全和更好的產(chǎn)品體驗,強(qiáng)烈建議使用更快更安全的瀏覽器
此為臨時鏈接,僅用于文章預(yù)覽,將在時失效
人工智能 正文
發(fā)私信給楊麗
發(fā)送

0

比基線模型快100倍,Google開源文本生成“加速器”LaserTagger

本文作者: 楊麗 2020-02-02 10:19
導(dǎo)語:如何讓不具備可解釋性的神經(jīng)網(wǎng)絡(luò)模型變得更“可控”呢?

比基線模型快100倍,Google開源文本生成“加速器”LaserTagger

雷鋒網(wǎng)訊,2014年,Google提出了Sequence-to-Sequence模型,旨在將句子文本映射到fixed-length向量,其中輸入和輸出的長度可能會有所不同。Seq2Seq通常應(yīng)用于NLP領(lǐng)域的文本生成任務(wù),例如摘要生成、語法糾錯、句子合并等。盡管最新的研究突得端到端的方法在文本生成上比之前更有優(yōu)勢,但其本身存在的不可解釋性,一方面使得該模型需要大量的訓(xùn)練數(shù)據(jù)才能達(dá)到可接受的性能水平,另一方面通常只能逐字生成文字,本質(zhì)上是很慢的。

近日,Google研究團(tuán)隊開源了一款文本編輯模型LaserTagger,可推理出一系列編輯操作,以將源文本轉(zhuǎn)換為目標(biāo)文本。研究人員斷言,LaserTagger處理文本生成一般不易出錯,且更易于訓(xùn)練和執(zhí)行。

在此之前,Google已經(jīng)發(fā)布了Meena,一個具有26億個參數(shù)的神經(jīng)網(wǎng)絡(luò),可處理多輪對話。1月初,Google在論文中還提出了Reformer模型,可處理所有小說。

GitHub鏈接:https://github.com/google-research/lasertagger

LaserTagger設(shè)計和功能

對于許多文本生成任務(wù),輸入和輸出之間存在高度重疊,LaserTagger正是利用了一點。例如,在檢測和糾正語法錯誤或多個合并句子時,大多數(shù)輸入文本可以保持不變,只需修改一小部分單詞。然后,LaserTagger會生成一系列編輯操作,而非實際單詞。 

目前支持的四種編輯操作:

  • Keep(將單詞復(fù)制到輸出中)

  • Delete(刪除單詞)

  • Keep-AddX(添加短語X到標(biāo)記的單詞前) 

  • Delete-AddX(刪除標(biāo)記的單詞)

下圖對LaserTagger在句子合并中的應(yīng)用進(jìn)行了說明。

比基線模型快100倍,Google開源文本生成“加速器”LaserTagger

圖注:LaserTagger預(yù)測的編輯操作中,刪除“Turing”,添加“ and he ”。請注意,輸入和輸出文本存在的高度重疊。

所有添加的短語均來自受限制的詞匯表。該詞匯表是一個優(yōu)化過程的結(jié)果,該優(yōu)化過程具有兩個目標(biāo):(1)最小化詞匯表的大小和(2)最大化訓(xùn)練樣本的數(shù)量,其中添加到目標(biāo)文本的唯一必要單詞僅來自詞匯表。短語詞匯量受限制會使輸出決策的空間變小,并防止模型添加任意詞,從而減輕了“幻覺”(雷鋒網(wǎng)注:hallucination,模型在所生成的文本中,輸入信息中并不存在)的問題。

輸入和輸出文本的高重疊性的一個推論是,所需的修改往往是局部的并且彼此獨立。這意味著編輯操作可以高精度地并行推理,與順序執(zhí)行推理的自回歸seq2seq模型相比,可顯著提高端到端的速度。

結(jié)果

研究人員評估了LaserTagger在四個任務(wù)中的表現(xiàn),分別是:句子合并,拆分和改述,抽象總結(jié)和語法糾正。結(jié)果顯示,使用大量訓(xùn)練樣本情況下,LaserTagger與基于BERT的seq2seq基線成績相當(dāng),并且在訓(xùn)練樣本數(shù)量有限時明顯優(yōu)于基線。下面顯示了WikiSplit數(shù)據(jù)集上的結(jié)果,其中的任務(wù)是將一個長句子改寫為兩個連貫的短句子。

比基線模型快100倍,Google開源文本生成“加速器”LaserTagger

圖注:在100萬個樣本的完整數(shù)據(jù)集上訓(xùn)練模型時,LaserTagger和基于BERT的seq2seq基線成績相當(dāng),但在10,000個或更少樣本的子樣本上進(jìn)行訓(xùn)練時,LaserTagger明顯優(yōu)于基線模型(SARI得分越高越好)。

LaserTagger主要優(yōu)點

與傳統(tǒng)的seq2seq方法相比,LaserTagger具有以下優(yōu)點:

  1. 控制:通過控制輸出短語詞匯(也可以手動編輯或整理),LaserTagger比seq2seq基線更不易產(chǎn)生“幻覺”問題。

  2. 推理速度:LaserTagger計算推理的速度比seq2seq基線快100倍,能夠滿足實際情況下的實時問題。

  3. 數(shù)據(jù)效率:即使僅使用幾百或幾千個訓(xùn)練樣本進(jìn)行訓(xùn)練,LaserTagger也會產(chǎn)生合理的輸出。實驗中,seq2seq基線需要成千上萬個樣本才能獲得相同的性能。

Google團(tuán)隊最后寫道:“ LaserTagger的優(yōu)勢在大規(guī)模應(yīng)用時變得更加明顯,例如,通過縮短響應(yīng)時間并減少重復(fù)性,改進(jìn)了某些服務(wù)中語音應(yīng)答的格式。高推理速度使該模型可以插入現(xiàn)有技術(shù)堆棧中,而不會在用戶端增加任何明顯的延遲,而改進(jìn)的數(shù)據(jù)效率可以收集多種語言的訓(xùn)練數(shù)據(jù),從而使來自不同語言背景的用戶受益。 ”

相關(guān)鏈接:https://ai.googleblog.com/2020/01/encode-tag-and-realize-controllable-and.html(雷鋒網(wǎng))

雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。

比基線模型快100倍,Google開源文本生成“加速器”LaserTagger

分享:
相關(guān)文章

高級主筆

關(guān)注企業(yè)軟件、操作系統(tǒng)、云原生(PaaS)、數(shù)據(jù)中臺 | 微信:leeyangamber
當(dāng)月熱門文章
最新文章
請?zhí)顚懮暾埲速Y料
姓名
電話
郵箱
微信號
作品鏈接
個人簡介
為了您的賬戶安全,請驗證郵箱
您的郵箱還未驗證,完成可獲20積分喲!
請驗證您的郵箱
立即驗證
完善賬號信息
您的賬號已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
立即設(shè)置 以后再說