丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號安全和更好的產(chǎn)品體驗,強(qiáng)烈建議使用更快更安全的瀏覽器
此為臨時鏈接,僅用于文章預(yù)覽,將在時失效
人工智能 正文
發(fā)私信給camel
發(fā)送

0

IJCAI 2017,清華被收錄了哪些論文?

本文作者: camel 2017-08-25 16:16 專題:IJCAI 2017
導(dǎo)語:清華thunlp實驗室有7篇論文被IJCAI收錄

雷鋒網(wǎng)AI科技評論按:這幾天在澳洲舉行的人工智能領(lǐng)域頂級會議“人工智能國際聯(lián)合大會”(International Joint Conference on Artificial Intelligence,IJCAI 2017),IJCAI今年共收到2540篇論文投稿,最終錄用660篇,錄用率26%。

雷鋒網(wǎng)注意到在這660篇文章中,清華大學(xué) 自然語言處理與社會人文計算實驗室(thunlp)就有7篇論文被IJCAI收錄。它們分別是:


1、《Fast Network Embedding Enhancement via High Order Proximity Approximation 》

一句話:針對網(wǎng)絡(luò)表示學(xué)習(xí)問題提出一種基于高階鄰接度逼近的快速算法,能夠普遍提升已有網(wǎng)絡(luò)表示學(xué)習(xí)算法的性能。

IJCAI 2017,清華被收錄了哪些論文?

摘要:最近在網(wǎng)絡(luò)頂點向量表示的學(xué)習(xí)上提出了許多網(wǎng)絡(luò)表示學(xué)習(xí)(NRL)方法。在這篇文章中,我們將現(xiàn)有的大多數(shù)NRL方法統(tǒng)一歸納為兩步驟框架,包括鄰近度矩陣構(gòu)造和維度降低。我們集中分析鄰近度矩陣構(gòu)造這一步驟。當(dāng)構(gòu)建鄰近度矩陣時我們得出一個結(jié)論,即可以通過高階鄰近度來改進(jìn)NRL方法。我們提出網(wǎng)絡(luò)嵌入更新(Network Embedding Update, NEU)算法,其中隱含地有理論近似約束的高階鄰近度,它可以應(yīng)用到任意一個NRL方法中來提高這些方法的性能。實驗上我們對多標(biāo)簽分類和連接預(yù)測任務(wù)做了實驗。結(jié)果表明,NEU可以對所有三種公開數(shù)據(jù)集的NRL方法有一致且顯著的改進(jìn),運行時間幾乎可以忽略不計。本文代碼可以從https://github.com/thunlp/NEU  獲得。

論文下載地址:https://www.ijcai.org/proceedings/2017/0544.pdf


2、《Joint Training for Pivot-based Neural Machine Translation 》

一句話:針對低資源語言的神經(jīng)機(jī)器翻譯提出了源語言-橋接語言和橋接語言-目標(biāo)語言翻譯模型的聯(lián)合訓(xùn)練算法,增強(qiáng)兩個模型在參數(shù)估計中的關(guān)聯(lián)性。

IJCAI 2017,清華被收錄了哪些論文?

摘要:近來神經(jīng)網(wǎng)絡(luò)機(jī)器翻譯方法在資源豐富的語言上表現(xiàn)極佳,但是對于低資源語言卻有著數(shù)據(jù)稀缺的問題。這個問題可以通過橋接語言來連接源語言和目標(biāo)語言得以緩解,但是目前源語言-橋接語言和橋接語言-目標(biāo)語言的模型在訓(xùn)練時大多是相互獨立的。在我們的工作中,我們引入了基于橋接語言的神經(jīng)機(jī)器翻譯的聯(lián)合訓(xùn)練算法。我們提出了三種方式來連接源-橋接和橋接-目標(biāo)這兩種模型,使他們在訓(xùn)練過程中能夠相互作用。基于Europarl和WMT語料庫的實驗表明,這種聯(lián)合訓(xùn)練在多種語言中相比比獨立訓(xùn)練效果都有顯著提高。

論文下載地址:https://www.ijcai.org/proceedings/2017/0555.pdf


3、《TransNet: Translation-Based Network Representation Learning for Social Relation Extraction 》

一句話:提出社會網(wǎng)絡(luò)中用戶關(guān)系抽取問題,成功地利用用戶低維表示間的平移(Translating)思想表示用戶關(guān)系,實現(xiàn)用戶關(guān)系的識別與標(biāo)注。

IJCAI 2017,清華被收錄了哪些論文?

摘要:常規(guī)的網(wǎng)絡(luò)表示學(xué)習(xí)(NRL)模型一般是通過簡單地將每個邊緣作為二分/連續(xù)的值來學(xué)習(xí)低維丁點表示。但實際上,在邊緣部分存在豐富的語義信息,且頂點之間的相互作用通常會保留不同的含義,這些信息在現(xiàn)有的大部分NRL模型中都被忽略了。在本文中,我們提出了一種基于翻譯的NRL模型,TransNet,通過將頂點之間的相互作用作為翻譯來操作。此外,我們將社會化關(guān)系提?。⊿ocial Relation Extraction, SRE)的任務(wù)格式化,用來評估NRL方法對頂點關(guān)系建模的能力。SRE的實驗結(jié)果表明,TransNet在hits@1上比其他基準(zhǔn)方法顯著提高10%到20%。源代碼和數(shù)據(jù)集可以從https://github.com/thunlp/TransNet提取。

論文下載地址:https://www.ijcai.org/proceedings/2017/0399.pdf


4、《Lexical Sememe Prediction via Word Embeddings and Matrix Factorization》

一句話:提出面向HowNet的義原預(yù)測任務(wù),提出基于詞表示和矩陣分解的方法,能夠有效預(yù)測新詞或短語的義原信息。

IJCAI 2017,清華被收錄了哪些論文?

摘要:義原(sememe)被定義為人類語言的最小語義單位。人們以前通過手動注釋文本義原來形成語言知識的基礎(chǔ)。但手動注釋不僅耗時、費力,注釋結(jié)果也具有顯著的不一致性以及較大的噪聲。在這篇文章中,我們首次探索了基于詞嵌入編碼的詞語義學(xué)意義的詞匯義原自動預(yù)測。此外我們應(yīng)用矩陣因式分解方法來學(xué)習(xí)語義和詞之間的語義關(guān)系。在實驗中,我們采用了一個實際生活中的知識庫HowNet進(jìn)行訓(xùn)練和評估,結(jié)果顯示了我們的詞匯義原預(yù)測方法的有效性。我們的這種方法在現(xiàn)有噪雜的義原知識庫的注釋驗證和新詞匯/短語的注釋中將會有很大的應(yīng)用。

論文下載地址:https://www.ijcai.org/proceedings/2017/0587.pdf


5、《Iterative Entity Alignment via Joint Knowledge Embeddings 》

一句話:針對異質(zhì)知識圖譜間的實體對齊問題,僅根據(jù)異質(zhì)知識圖譜的結(jié)構(gòu)信息,提出利用知識的分布式表示學(xué)習(xí)在低維語義空間中有效實現(xiàn)實體對齊。

IJCAI 2017,清華被收錄了哪些論文?


摘要:實體對齊旨在將其對應(yīng)方與多個知識圖(Knowledge Graphs, KG)聯(lián)系起來。大多數(shù)現(xiàn)有的方法通常依賴諸如維基百科鏈接這樣的實體外部信息,且需要昂貴的受凍特征構(gòu)造來完成對齊。在本文中,我們提出了一種通過聯(lián)合知識嵌入來實現(xiàn)實體對齊的新方法。在我們的方法,我們根據(jù)在這種聯(lián)合語義空間中的語義距離,將實體和各種KG的關(guān)系共同編碼成一個統(tǒng)一的低維語義空間。在這個過程中,我們可以根據(jù)在聯(lián)合語義空間中它們的語義距離將這些實體對齊。更具體地說,我們提出了一種迭代和參數(shù)共享的方法來提高對齊的性能。根據(jù)實際生活中的數(shù)據(jù)集的實驗結(jié)果表明,與基準(zhǔn)方法相比,我們的方法對實體對齊有顯著的改進(jìn),并且利用聯(lián)合知識嵌入可以進(jìn)一步提高各種KG實現(xiàn)中的表現(xiàn)。

論文下載地址:https://www.ijcai.org/proceedings/2017/0595.pdf


6、《Image-embodied Knowledge Representation Learning》

一句話:針對知識的分布式表示學(xué)習(xí)問題,成功地引入實體的圖像信息,顯著提升知識表示能力。

IJCAI 2017,清華被收錄了哪些論文?

摘要:實體圖像可以為知識表示學(xué)習(xí)提供重要的視覺信息。大多數(shù)常規(guī)的方法僅從結(jié)構(gòu)化的三元組來學(xué)習(xí)知識表示,而忽略了從實體圖像中提取的豐富的視覺信息。在本文中,我們提出了一種新穎的圖像呈現(xiàn)的知識表示學(xué)習(xí)模型(Image-embodied Knowledge Representation Learning model, IKRL),其中知識表示是同時用三重事實和圖像來學(xué)習(xí)的。更具體地說,我們首先用句有神經(jīng)圖像編碼器的實體的所有圖像構(gòu)造表示。然后,這些圖像表示通過基于注意的方法被集成到聚合的基于圖像的表示中。我們在知識圖實現(xiàn)和三重分類上測試了我們的IKRL模型。實驗結(jié)果表明,我們的模型在兩個任務(wù)中都優(yōu)于其他的基準(zhǔn)方法,這也說明了視覺信息對于知識表示的重要性,以及我們的模型在學(xué)習(xí)圖像表示中的性能。

論文下載地址:https://www.ijcai.org/proceedings/2017/0438.pdf


7、《Maximum Expected Likelihood Estimation for Zero-resource Neural Machine Translation》

一句話:針對零資源神經(jīng)機(jī)器翻譯提出最大期望似然估計準(zhǔn)則訓(xùn)練準(zhǔn)則,實現(xiàn)在無標(biāo)數(shù)據(jù)情況下的直接翻譯建模,緩解了傳統(tǒng)方法分段解碼所面臨的錯誤傳播問題。

IJCAI 2017,清華被收錄了哪些論文?

摘要:雖然神經(jīng)機(jī)器翻譯(neural machine translation, NMT)最近在翻譯少數(shù)資源豐富的語言中取得了顯著的進(jìn)步,但并行語料庫并不總能用到大多數(shù)語言對中。為了解決這個問題,我們提出一種通過最大期望似然估計的零資源NMT方法?;舅枷刖褪?,在一個意向的源-目標(biāo)語言翻譯模型中,我們最大限度地提高關(guān)于連接-源翻譯模型與連接-目標(biāo)并行語料庫之間的期望值。為了近似獲得這個期望值,我們提出兩種方法來結(jié)合 連接-源模型 和 源-目標(biāo)模型。對這兩種零資源語言對的實驗表明,我們所提出的方法相比于基準(zhǔn)方法會有實質(zhì)性的增益。我們還看到,當(dāng)源-目標(biāo)模型與連接-源模型聯(lián)合訓(xùn)練時,后者也將獲得比獨立訓(xùn)練較大的改進(jìn)。

論文下載地址:https://www.ijcai.org/proceedings/2017/0594.pdf


雷鋒網(wǎng)注:本文參考了“我組7篇論文被人工智能頂級會議IJCAI 2017錄用

相關(guān)文章:

現(xiàn)場|楊強(qiáng)教授當(dāng)選新任IJCAI理事會主席后接受采訪:華人首次當(dāng)選的個中細(xì)節(jié)

大陸人工智能學(xué)者第一人!周志華當(dāng)選IJCAI 2021程序委員會主席(附會后采訪)

優(yōu)必選斬獲 IJCAI 2017最佳學(xué)生論文獎,13篇論文入選

IJCAI最佳論文公布 華人斬獲最佳學(xué)生論文獎!

IJCAI 2017 最佳論文明日公布,華人已承包最佳學(xué)生論文獎

雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。

IJCAI 2017,清華被收錄了哪些論文?

分享:
相關(guān)文章
當(dāng)月熱門文章
最新文章
請?zhí)顚懮暾埲速Y料
姓名
電話
郵箱
微信號
作品鏈接
個人簡介
為了您的賬戶安全,請驗證郵箱
您的郵箱還未驗證,完成可獲20積分喲!
請驗證您的郵箱
立即驗證
完善賬號信息
您的賬號已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
立即設(shè)置 以后再說