丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號安全和更好的產(chǎn)品體驗,強烈建議使用更快更安全的瀏覽器
此為臨時鏈接,僅用于文章預覽,將在時失效
人工智能學術 正文
發(fā)私信給楊曉凡
發(fā)送

0

NLP頂會NAACL-HLT論文獎名單發(fā)布,BERT獲最佳長論文獎

本文作者: 楊曉凡 2019-04-12 09:55
導語:自然語言處理領域優(yōu)秀論文巡禮

NLP頂會NAACL-HLT論文獎名單發(fā)布,BERT獲最佳長論文獎

雷鋒網(wǎng) AI 科技評論按:將于今年 6 月在美國明尼阿波利斯市舉行的自然語言處理頂會 NAACL-HLT (Annual Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies;ACL 北美分會)今天通過官方博客發(fā)布了 NAACL-HLT 2019 的論文獎名單。會議設置了許多種不同的論文獎項,去年的來自谷歌的熱門論文 BERT 獲得最佳長論文獎 —— 雖然 BERT 本身并沒能帶來重大理論突破,但這篇論文發(fā)表之后的火熱討論、成為新的基線模型、以及出現(xiàn)大批基于 BERT 的改進模型都是有目共睹的。

根據(jù) NAACL-HLT 官方博客介紹,NAACL-HLT 2019 正會部分最終投稿數(shù)為 1955 篇(已去除撤稿與評審前拒稿),相比 2018 年的 1072 篇增加 82%;其中長論文 1198 篇,短論文 757 篇。正會接收論文共 423 篇,接收率 21.6%。另外,工業(yè)界部分(Industry Track)的最終投稿數(shù)為 100 篇,相比 2018 年的 85 篇增加 17%;接收論文共 52 篇。

獲獎論文列表與簡介如下:

最佳主旨論文(Best Thematic Paper)

What's in a Name? Reducing Bias in Bios Without Access to Protected Attributes

  • 姓名里含有什么?無需訪問受保護的屬性就可以降低個人簡歷中的偏倚

  • 論文摘要:如今有越來越多的研究都在嘗試提出新的方法減少機器學習系統(tǒng)中的偏倚。這些方法通常都需要訪問種族、性別、年齡之類的應受到保護的隱私屬性,然而這就帶來了兩大挑戰(zhàn),1,受到保護的屬性可能是不允許訪問的,或者使用這些信息是非法的;2,很多時候我們希望同時考慮多種受保護的屬性產(chǎn)生的影響,或者屬性的共同影響。這篇論文探究了職業(yè)性分類中減少偏倚的問題,作者們提出的方法可以降低預測到一個人的真正職業(yè)的概率和他們的名字的詞嵌入之間的關聯(lián)性。這種方法利用了社會偏見,它其實被編碼在了姓名的詞嵌入中;這樣這種方法就不再需要訪問受保護的屬性。更重要的是,它僅僅需要在訓練的時候訪問不同的人的姓名,部署后就不再需要。作者們在線上的大規(guī)模個人簡歷數(shù)據(jù)集上評估了提出的方法的兩種不同版本,結論是這兩個版本的方法都可以同時減少人種和性別偏倚,同時還對分類器的總體正確率幾乎沒有影響。

  • 論文地址:https://arxiv.org/abs/1904.05233 

最佳可解釋性 NLP 論文(Best Explainable NLP Paper)

CNM: An Interpretable Complex-valued Network for Matching

  • CNM:一個用于匹配的可解釋復數(shù)值網(wǎng)絡

  • (是的這篇論文來自中國作者)

  • 論文摘要:這篇論文的目標是通過量子物理的數(shù)學框架對人類語言進行建模。量子物理中已經(jīng)有設計完善的數(shù)學方程式,這個框架借用了這些方程式,然后在單個復數(shù)向量空間中統(tǒng)一了不同的語言學單位,比如,把單詞看作量子態(tài)的粒子,把句子看作混合系統(tǒng)。作者們構建了一個基于復數(shù)值的網(wǎng)絡來實現(xiàn)這個框架并把它用于語義匹配。由于具有約束完善的復數(shù)值成分,這個網(wǎng)絡可以把釋義呈現(xiàn)為顯式的物理概念。論文中提出的這個用于匹配的復數(shù)值網(wǎng)絡(CNM)在測試的兩個問答數(shù)據(jù)集上可以取得與優(yōu)秀的 CNN 和 RNN 基準線模型近似的表現(xiàn)。

  • 論文地址:https://arxiv.org/abs/1904.05298

最佳長論文(Best Long Paper)

BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding

最佳短論文(Best Short Paper)

Probing the Need for Visual Context in Multimodal Machine Translation

  • 探測多模態(tài)機器翻譯中對視覺內(nèi)容的需求

  • 論文摘要:目前的多模態(tài)機器翻譯(MMT)研究表明,視覺模態(tài)往往不是必須的,或者帶來的收益并不明顯。作者們認為原因是這個任務的唯一一個可用數(shù)據(jù)集 Multi30K 中的問題都太簡單、太短、重復性高,在這樣的狀況下,只把源文本作為內(nèi)容就已經(jīng)足夠了。作者們認為,對于更加一般性的情況,合并使用視覺和文本信息、增加翻譯的可靠性是完全可行的。在這篇論文中,作者們選擇了目前最先進的 MMT 模型并探究了視覺模態(tài)的影響,他們部分削弱了模型的源文本側,并進行了系統(tǒng)性研究。結果表明,給定有限的文本內(nèi)容時,模型可以利用視覺輸入中的信息并生成更好的翻譯結果。這很好地反駁了當前的觀點,認為 MMT 模型會丟掉視覺模態(tài)中的信息,原因是由于圖像的特征的質量不高,或者視覺模態(tài)與模型的集成方式不好。

  • 論文地址:https://arxiv.org/abs/1903.08678

最佳資源論文(Best Resource Paper)

CommonsenseQA: A Question Answering Challenge Targeting Commonsense Knowledge

  • CommonsenseQA:一個面向常識知識的問答挑戰(zhàn)

  • 論文摘要:當人類回答問題的時候,除了問題給定的文本之外,他們其實還會運用對這個世界的豐富的知識來幫助他們答題。問答任務上的近期研究主要關于的都是在給定的相關文本或者文檔上答題,很少需要通用的背景知識。為了探究有先驗通用知識的狀況下的問答任務,作者們提出了 CommonsenseQA 數(shù)據(jù)集,這是一個用于常識問題回答的有挑戰(zhàn)性的新數(shù)據(jù)集。為了捕捉關聯(lián)性之外的更多常識,作者們借助 ConceptNet 提取了與同一個源概念有相同語義聯(lián)系的多種概念;作者們也讓眾包工作者編寫提到了源概念的多項選擇問題,在這些問題里需要辨析源概念和其它的相關概念。這樣的設定會讓眾包工作者們嘗試編寫有復雜語義的問題,這樣的問題也就往往需要先驗背景知識才能回答。通過這個過程,論文作者們共創(chuàng)建了超過一萬兩千個問題,并通過一系列傳統(tǒng)上較強的基線模型的測試表明了這個任務的難度。目前作者們找到的最強的基線模型是基于 BERT-large 的,這個模型得到了 56% 的準確率;而人類的準確率為 89%。

  • 論文地址:https://arxiv.org/abs/1811.00937

雷鋒網(wǎng) AI 科技評論報道。更多頂級學術會議報道請繼續(xù)關注我們,或加入小組討論。

雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權禁止轉載。詳情見轉載須知。

NLP頂會NAACL-HLT論文獎名單發(fā)布,BERT獲最佳長論文獎

分享:
相關文章

讀論文為生

日常笑點滴,學術死腦筋
當月熱門文章
最新文章
請?zhí)顚懮暾埲速Y料
姓名
電話
郵箱
微信號
作品鏈接
個人簡介
為了您的賬戶安全,請驗證郵箱
您的郵箱還未驗證,完成可獲20積分喲!
請驗證您的郵箱
立即驗證
完善賬號信息
您的賬號已經(jīng)綁定,現(xiàn)在您可以設置密碼以方便用郵箱登錄
立即設置 以后再說