0
本文作者: 奕欣 | 2017-09-22 11:30 | 專題:EMNLP 2017 |
雷鋒網(wǎng) AI 科技評論按:在今年的 EMNLP 2017 上,臺灣大學(xué)黃意堯與加州圣塔芭芭拉大學(xué) (UCSB)William Wang 教授有一篇合作論文被錄用。受雷鋒網(wǎng) AI 科技評論邀請,黃意堯撰寫了關(guān)于這篇論文的研究歷程,以供學(xué)習與參考。雷鋒網(wǎng) AI 科技評論做了不改動原意的編輯與修改,將繁體字轉(zhuǎn)換為簡體,并將一些臺灣常用表述轉(zhuǎn)換為大陸的通用說法。
論文名稱:Deep Residual Learning for Weakly-Supervised Relation Extraction
論文地址:https://arxiv.org/abs/1707.08866
近年來,越來越多人關(guān)注在關(guān)系抽取 (Relation Extraction) 的題目上,大部分的研究集中在使用更復(fù)雜、更結(jié)構(gòu)化的神經(jīng)網(wǎng)絡(luò),并測量在 SemEval 2010 的關(guān)系抽取數(shù)據(jù)庫上。
但在這個數(shù)據(jù)庫上,最大的問題是數(shù)據(jù)太少,總共只有 10,717 條數(shù)據(jù),導(dǎo)致大部分的模型參數(shù)不能太多,要不然會有過度擬合 (over fitting) 的現(xiàn)象發(fā)生。
相較於另一個數(shù)據(jù)庫,NYT dataset,總共有 695,059 條數(shù)據(jù),採用半監(jiān)督式學(xué)習:distant supervision 來收集數(shù)據(jù)。這個數(shù)據(jù)庫有足夠大的數(shù)量來進行大型神經(jīng)網(wǎng)絡(luò)的實驗。
出於這個動機,本文進行大型神經(jīng)網(wǎng)絡(luò)在 NYT dataset 數(shù)據(jù)庫的實驗,并提出深度殘差網(wǎng)絡(luò)來解決 distant supervision 帶來的噪聲干擾。
我們使用卷積神經(jīng)網(wǎng)絡(luò)來進行關(guān)系抽取,取經(jīng)於計算機視覺與深度卷積神經(jīng)網(wǎng)絡(luò)的成功,我們透過增加層數(shù),來增加神經(jīng)網(wǎng)絡(luò)的參數(shù),希望可以幫助關(guān)系抽取的學(xué)習。結(jié)果如圖一:
圖一、各式卷積網(wǎng)絡(luò)的結(jié)果
但我們卻發(fā)現(xiàn),使用 9 層卷積神經(jīng)網(wǎng)絡(luò) (CNN-9) 的效果,并沒有單層 (CNN) 的好。這個結(jié)果跟過往的經(jīng)驗違背。我們猜測原因是,在 distant supervision 的數(shù)據(jù)裡面,有太多錯誤標簽的數(shù)據(jù),這些數(shù)據(jù)帶來太多的噪聲,而這些噪聲隨著越深層的神經(jīng)網(wǎng)絡(luò)而被放大,導(dǎo)致 9 層卷積神經(jīng)網(wǎng)絡(luò) (CNN-9) 的結(jié)果比單層 (CNN) 更差。為了解決這個問題,我們使用殘差網(wǎng)絡(luò),來幫助網(wǎng)絡(luò)的特征學(xué)習。
基於上面的實驗,我們知道淺層網(wǎng)絡(luò)在 distant supervision 的數(shù)據(jù)庫中,能學(xué)習到比較好的特征。於是,我們設(shè)法讓淺層網(wǎng)絡(luò)的特征,可以跳躍傳遞至深層網(wǎng)絡(luò)。
圖二,殘差網(wǎng)絡(luò)在關(guān)系抽取的架構(gòu)
如圖二所示,我們使用擁有兩層卷積網(wǎng)絡(luò)的殘差區(qū)塊,將淺層網(wǎng)絡(luò)的特征傳到較深層的網(wǎng)絡(luò)。特過這樣的設(shè)計,我們可以依照數(shù)據(jù)庫的大小,來堆迭網(wǎng)絡(luò)架構(gòu),讓網(wǎng)絡(luò)可以選擇較不被噪聲影響的那層網(wǎng)絡(luò)特征來進行關(guān)系分類。
這篇文章,提出一種,解決 distant supervision 噪聲對大型網(wǎng)絡(luò)影響的方法。在表一,我們可以看到,9 層的殘差網(wǎng)絡(luò),與 state-of-the-art(PCNN+ATT) 的模型,有差不多的結(jié)果,并在高順位候選的關(guān)系上,有更棒的效能。證明,利用殘差網(wǎng)絡(luò),可以在 distant supervision 的數(shù)據(jù)庫中,抽取更有用的特征。
表一,殘差網(wǎng)絡(luò)與其它網(wǎng)絡(luò)結(jié)構(gòu)的結(jié)果比較
本篇文章提供讀者、研究人員可以在 distant supervision 的數(shù)據(jù)庫使用大型深度神經(jīng)網(wǎng)絡(luò)。但要注意,此種半監(jiān)督式學(xué)習的噪聲,會影響到實驗結(jié)果。利用殘差網(wǎng)絡(luò)可以解決這樣的問題,這篇文章在關(guān)系抽取的研究上,證明其結(jié)果。
本篇文章是我在加州圣塔芭芭拉大學(xué) (UCSB),做交換學(xué)生時完成的作品。其實圣塔芭芭拉是一個充滿陽光,很美的海灘,每天都可以沖浪、曬太陽、玩水,加上當時課選很少的情況下,覺得生活過得太安逸,決定加入當時新晉教授 William Wang 的實驗室,學(xué)習相關(guān)領(lǐng)域的知識。但沒想到,我是實驗室前 5 個進來的學(xué)生,導(dǎo)致所有知識都要靠自己來,自己吸收與學(xué)習。幸運的是,教授有許多時間,跟我討論題目,但另一方面,我也好像在過一個博士班學(xué)生單獨奮斗的生活,每天死盯著論文,想理解關(guān)系抽取到底發(fā)生了什么事。很幸運地,最后我把文章完成,并且順利的投上 EMNLP。很感謝 William Wang 教授愿意給我機會,與我進行大量的討論。William Wang 教授在知識圖譜的相關(guān)研究很厲害,有興趣的同學(xué),可以申請到他的實驗室進行研究。
原文:https://arxiv.org/abs/1707.08866
項目:https://github.com/darrenyaoyao/ResCNN_RelationExtraction
William Wang 教授主頁:https://www.cs.ucsb.edu/~william
AI慕課學(xué)院近期推出了《NLP工程師入門實踐班:基于深度學(xué)習的自然語言處理》課程!
三大模塊,五大應(yīng)用,海外博士講師手把手教你入門NLP,更有豐富項目經(jīng)驗相授;算法+實踐,搭配典型行業(yè)應(yīng)用;隨到隨學(xué),專業(yè)社群,講師在線答疑!
課程地址:http://www.mooc.ai/course/427
加入AI慕課學(xué)院人工智能學(xué)習交流QQ群:624413030,與AI同行一起交流成長
雷峰網(wǎng)特約稿件,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。