0
本文作者: AI研習社 | 2020-02-13 16:00 |
梯度剪切可以加速梯度下降
完成命名實體識別的雙向LSTM+CRF結構
完成命名實體識別的神經(jīng)網(wǎng)絡結構
自然語言處理(幾乎)從頭開始
免強度函數(shù)學習的時間點過程
論文名稱:Why Gradient Clipping Accelerates Training: A Theoretical Justification for Adaptivity
作者:Jingzhao Zhang /Tianxing He /Suvrit Sra /Ali Jadbabaie
發(fā)表時間:2019/9/26
論文鏈接:https://paper.yanxishe.com/review/10859?from=leiphonecolumn_paperreview0212
在神經(jīng)網(wǎng)絡的訓練過程中對梯度進行剪切是最近越來越流行的一個趨勢,但很多人都不清楚這種做法為什么有效。這篇論文就給出了理論解釋以及證明,證明了梯度剪切確實對網(wǎng)絡訓練有幫助作用。
作者們從實際網(wǎng)絡的訓練過程中的平滑性出發(fā),進行了仔細的分析和推理,證明了梯度剪切和梯度正則化兩種常見方法都可以比傳統(tǒng)的固定步驟大小的梯度下降收斂得更快。作者們也做了進一步的解釋,并在常見的網(wǎng)絡訓練設定下通過實驗驗證了他們的理論。
這篇論文得到了審稿人的一致好評,被ICLR2020接收為口頭報告論文。
論文名稱:Bidirectional LSTM-CRF Models for Sequence Tagging
作者:Zhiheng Huang /Wei Xu /Kai Yu
發(fā)表時間:2015/8/9
論文鏈接:https://paper.yanxishe.com/review/10858?from=leiphonecolumn_paperreview0212
核心問題:這篇論文是完成命名實體識別的工作,這是一系列使用RNN結構并結合CRF層進行NER的工作的文章之一。
創(chuàng)新點:本論文的創(chuàng)新點是使用了雙向LSTM+CRF作為網(wǎng)絡模型,這種創(chuàng)新的意義都是結構上的創(chuàng)新,很多時候模型的效果就是結構上的創(chuàng)新。
研究意義:證明BI-LSTM-CRF模型可以有效地利用過去和未來的輸入信息。
論文名稱:Neural Architectures for Named Entity Recognition
作者:Guillaume Lample /Miguel Ballesteros /Sandeep Subramanian /Kazuya Kawakami
發(fā)表時間:2016/4/7
論文鏈接:https://paper.yanxishe.com/review/10857?from=leiphonecolumn_paperreview0212
推薦原因
核心問題:本文是完成是nlp領域中經(jīng)典的命名識別識別的問題,本論文可以說是承上啟下的作用,它的做法改變了之前的做法,并且之后的很多任務都是使用這樣的基本結構。
創(chuàng)新點:先前的使用的核心模型都是CNN,本文中使用RNN代替CNN,并且搭建了一套RNN+CRF的模型結構,這種模型結構效果不錯
研究意義:通過實現(xiàn)效果,在英語、荷蘭語、德語以及西班牙語上使用LSTM-CRF的實驗都證明了能夠獲得較好的NER性能,并且在沒有任何人工標注特征的條件下,在英語上獲得非常好的性能。
論文名稱:Natural Language Processing (Almost) from Scratch
作者:Ronan Collobert /Jason Weston /Leon Bottou /Michael Karlen /Koray Kavukcuoglu /Pavel Kuksa
發(fā)表時間:2011/1/10
論文鏈接:https://paper.yanxishe.com/review/10856?from=leiphonecolumn_paperreview0212
推薦原因
本文所解決得核心問題:這個論文提出了一種深度神經(jīng)網(wǎng)絡得方法來完成多種nlp任務,比如詞性標注、組塊、命名實體識別和語義角色標記。
研究重點:本文算是很早使用深度學習得方法來做類似得任務,它比機器學習得優(yōu)勢就是不懂手動得來構建特征,并且不需要根據(jù)任務得不同構建不同得特征。它通過兩個網(wǎng)絡模型來完成,一個網(wǎng)絡模型用于提取局部的特征,另外一個網(wǎng)絡模型用于提取全局特征。
研究意義:本文使用得核心思想是多任務訓練得思路,具體來說先訓練好word embedding,然后使用該詞向量完成之后得子任務,并且取得了良好得表現(xiàn)。
這篇文章核心使用得是卷積神經(jīng)網(wǎng)絡,其實有些時候我發(fā)現(xiàn)在文本領域,卷積神經(jīng)網(wǎng)絡取得的效果也是不錯得。
論文名稱:Intensity-Free Learning of Temporal Point Processes
作者:Shchur Oleksandr /Bilo? Marin /Günnemann Stephan
發(fā)表時間:2019/9/26
論文鏈接:https://paper.yanxishe.com/review/10386?from=leiphonecolumn_paperreview0212
推薦原因
時間點過程是一類有效的用于建模連續(xù)時間域的異步事件序列方法。該方法在事件預測,因果分析,圖建模等方向有著廣泛的應用。使用該方法的一個核心問題是條件強度函數(shù)的設計。然而簡單的指定強度函數(shù)(指數(shù)分布族等)會造成模型表達能力有限,復雜的方式又會造成強度函數(shù)中survival積分項計算困難,需要借助數(shù)值方法求解。本文另辟蹊徑,不再建模強度函數(shù),而是分別提出基于流的方法和混合高斯的方法直接建模條件概率。最后的實驗在時間序列預測等任務上達到或者超過了目前的sota, 并且所提出方法非常適合用于學習序列embedding和缺失信息情況下的序列問題。
為了更好地服務廣大 AI 青年,AI 研習社正式推出全新「論文」版塊,希望以論文作為聚合 AI 學生青年的「興趣點」,通過論文整理推薦、點評解讀、代碼復現(xiàn)。致力成為國內(nèi)外前沿研究成果學習討論和發(fā)表的聚集地,也讓優(yōu)秀科研得到更為廣泛的傳播和認可。
我們希望熱愛學術的你,可以加入我們的論文作者團隊。
加入論文作者團隊你可以獲得
1.署著你名字的文章,將你打造成最耀眼的學術明星
2.豐厚的稿酬
3.AI 名企內(nèi)推、大會門票福利、獨家周邊紀念品等等等。
加入論文作者團隊你需要:
1.將你喜歡的論文推薦給廣大的研習社社友
2.撰寫論文解讀
如果你已經(jīng)準備好加入 AI 研習社的論文兼職作者團隊,可以添加運營小姐姐的微信,備注“論文兼職作者”
雷鋒網(wǎng)雷鋒網(wǎng)雷鋒網(wǎng)
相關文章:
今日 Paper | 小樣本學習;機器學習;單幅圖像去霧 ;零樣本目標檢測等
今日 Paper | 可視問答模型;神經(jīng)風格差異轉(zhuǎn)移;圖像壓縮系統(tǒng) ;K-SVD圖像去噪等
今日 Paper | 依賴性解析器;DNNs對圖像損壞;高效人臉特征學習 ;虛擬試穿統(tǒng)一框架等
今日 Paper | 模態(tài)平衡模型;組合語義分析;高表達性SQL查詢;多人姿態(tài)估計模型等
今日 Paper | 多人姿勢估計;對話框語義分析;無監(jiān)督語義分析;自然語言處理工具包等
今日 Paper | 多人線性模型;身體捕捉;會話問答;自然語言解析;神經(jīng)語義
今日 Paper | 手部和物體重建;三維人體姿態(tài)估計;圖像到圖像變換等
今日 Paper | 動態(tài)手勢識別;領域獨立無監(jiān)督學習;基于BERT的在線金融文本情感分析等
今日 Paper | 新聞推薦系統(tǒng);多路編碼;知識增強型預訓練模型等
今日 Paper | 小樣本學習;視覺情感分類;神經(jīng)架構搜索;自然圖像摳像等
今日 Paper | 蚊子叫聲數(shù)據(jù)集;提高語音識別準確率;對偶注意力推薦系統(tǒng)等
今日 Paper | 人臉數(shù)據(jù)隱私;神經(jīng)符號推理;深度學習聊天機器人等
今日 Paper | 虛擬試穿網(wǎng)絡;人群計數(shù)基準;聯(lián)邦元學習;目標檢測等
今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學習;圖像風格遷移等
今日 Paper | 隨機微分方程;流式自動語音識別;圖像分類等
今日 Paper | 高維感官空間機器人;主動人體姿態(tài)估計;深度視頻超分辨率;行人重識別等
今日 Paper | 3D手勢估計;自學習機器人;魯棒語義分割;卷積神經(jīng)網(wǎng)絡;混合高斯過程等
今日 Paper | 精簡BERT;面部交換;三維點云;DeepFakes 及 5G 等
今日 Paper | 虛假新聞檢測;馬爾可夫決策過程;場景文本識別;博弈論框架等
今日 Paper | 問答系統(tǒng);3D人體形狀和姿勢;面部偽造檢測;AdderNet等
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。