0
本文作者: AI研習社 | 2020-02-05 15:04 |
對話到行動:大型知識庫的會話問答
從用戶反饋學習的自然語言解析
神經(jīng)語義的數(shù)據(jù)重組模型
SMPL-X: 表現(xiàn)力身體捕捉: 從一個單一的形象獲取手,臉,和身體
SMPL: 一個蒙皮的多人線性模型
論文名稱:Dialog-to-Action: ConversationalQuestion Answering Over a Large-Scale Knowledge Base
作者:DayaGuo /DuyuTang /NanDuan /MingZhou /JianYin
發(fā)表時間:2018/9/13
論文鏈接:https://paper.yanxishe.com/review/9232
推薦原因:核心問題:本文構(gòu)建了一個對話管理系統(tǒng),是一個基于知識圖譜的問答系統(tǒng)。
創(chuàng)新點:對話管理中的一個核心就是語義解析,本文提出了一種將自然語言轉(zhuǎn)成邏輯表達形式的方法,引入了一個對話框內(nèi)存管理組件,該組件在為當前對話生成邏輯表單時利用歷史實體、謂詞和操作子序列。為了避免訓練期間在大規(guī)模知識庫上重復執(zhí)行的耗時情況,提前進行廣度優(yōu)先搜索算法,以獲得能夠產(chǎn)生正確答案的話語對及其動作序列,通過最大化產(chǎn)生預期動作序列的可能性來學習該模型。它可以很好的解決上下指代以及外來詞的情況
研究意義:這種模型和其它的模型比較有很大的優(yōu)勢,取得了很好的效果,這里給我的啟發(fā)還有一點就是要融入更多的信息來做下游的任務。
論文名稱:Learning a Neural Semantic Parser from User Feedback
作者:SrinivasanIyer /IoannisKonstas /AlvinCheung
發(fā)表時間:2017/4/27
論文鏈接:https://paper.yanxishe.com/review/9231
推薦原因
核心問題:這篇論文是做語義解析的,核心是將自然語言轉(zhuǎn)成計算機可以理解并執(zhí)行的SQL語言的生成
創(chuàng)新點:本論文提出了一種快速而容易地為新域構(gòu)建數(shù)據(jù)庫自然語言接口的方法,搭建了一個端到端的神經(jīng)序列模型,將自然語言直接轉(zhuǎn)換為SQL表示。然后將模型進行在線學習,通過線上部署,從而直接獲取到用戶的反饋,之后使用這個反饋來改善模型的效果
研究意義:實驗表明,這種方法可以快速部署到任何一個新的目標域,比如從頭開始為在線學術數(shù)據(jù)庫獲取語義解析器。
論文名稱:Data Recombination for Neural Semantic Parsing
作者:Robin Jia /Percy Liang
發(fā)表時間:2016/6/11
論文鏈接:https://paper.yanxishe.com/review/9230
推薦原因
核心問題:這是一篇做語義解析的任務,這也是nlp領域中最重要的領域之一,如何理解一句話,從而完成下游的任務是解決問題的關鍵所在。
創(chuàng)新點:這篇論文中作者提出了一種新的框架模型,為了建立清晰的邏輯規(guī)則,它將先驗知識注入到模型中,從而得到高精度的語義表示,然后促進下游任務,下游是一個通用模型,基于注意力的復制機制的RNN模型。
研究意義:數(shù)據(jù)重組提高了作者的RNN模型在三個語義分析數(shù)據(jù)集上的準確性,從而使具有可比監(jiān)督的模型在標準GeoQuery數(shù)據(jù)集上獲得了最新的性能。
論文名稱:Expressive Body Capture: 3D Hands, Face, and Body from a Single Image
作者:Pavlakos Georgios /Choutas Vasileios /Ghorbani Nima /Bolkart Timo /Osman Ahmed A. A. /Tzionas Dimitrios /Black Michael J.
發(fā)表時間:2019/4/11
論文鏈接:https://paper.yanxishe.com/review/9227
推薦原因
SMPL-X: 從單個單眼圖像中計算出人體姿勢,手勢和面部表情的3D模型。該模型可以通過完整細節(jié)的手和表情豐富的面孔來擴展SMPL。
該論文通過以下幾種重要方式對SMPLify進行了改進:
該論文檢測與臉部,手部和腳部相對應的2D特征,并將完整的SMPL-X模型擬合到這些特征上;
該論文使用大型MoCap數(shù)據(jù)集訓練新的神經(jīng)網(wǎng)絡姿態(tài);
該論文定義了一種既快速又準確的互穿罰分;
該論文自動檢測性別和適當?shù)纳眢w模型(男性,女性或中性);
評估了一個新的策劃數(shù)據(jù)集的3D準確性
https://smpl-x.is.tue.mpg.de上獲取模型,代碼和數(shù)據(jù)以用于研究。
論文名稱:SMPL: A Skinned Multi-Person Linear Model
作者:Matthew Loper /Naureen Mahmood /Javier Romero /Gerard Pons-Moll /Michael J. Black
發(fā)表時間:2015/10/1
論文鏈接:https://paper.yanxishe.com/review/9226
推薦原因
提出了一種新的人體形狀和位置相關形狀變化的學習模型,該模型比以前的模型更精確,并且與現(xiàn)有的圖形管道兼容。蒙皮多人線性模型(SMPL)是一種基于蒙皮頂點的模型,它可以準確地表示人體自然姿態(tài)中的各種體型。模型的參數(shù)從數(shù)據(jù)中學習,包括rest位姿模板、混合權重、位置相關混合形狀、身份相關混合形狀和從頂點到關節(jié)位置的回歸器。與以往的模型不同,與位置相關的混合形狀是位姿旋轉(zhuǎn)矩陣元素的線性函數(shù)。這個簡單的公式使訓練整個模型從一個相對較大的不同的人在不同的姿勢對齊的3D網(wǎng)格。使用線性或雙四元數(shù)混合皮膚定量評估SMPL的變體,并表明兩者都比基于相同數(shù)據(jù)的BlendSCAPE模型更準確。還將SMPL擴展到動態(tài)軟組織變形的真實模型中。因為它是基于混合皮膚的,所以SMPL與現(xiàn)有的渲染引擎兼容,可以將其用于研究目的。
SMPL是當前3D建模的非?;鸬捻椖?,很多研究都基于此技術。
并且還開發(fā)出了SMPL-X(主要優(yōu)化了面部的建模),SMPL-H(優(yōu)化了手的細節(jié)建模), SMPLify(2D照片的固定POSE建模) 等幾個版本。
源碼需要注冊下載。
官網(wǎng):https://smpl.is.tue.mpg.de/
為了更好地服務廣大 AI 青年,AI 研習社正式推出全新「論文」版塊,希望以論文作為聚合 AI 學生青年的「興趣點」,通過論文整理推薦、點評解讀、代碼復現(xiàn)。致力成為國內(nèi)外前沿研究成果學習討論和發(fā)表的聚集地,也讓優(yōu)秀科研得到更為廣泛的傳播和認可。
我們希望熱愛學術的你,可以加入我們的論文作者團隊。
加入論文作者團隊你可以獲得
1.署著你名字的文章,將你打造成最耀眼的學術明星
2.豐厚的稿酬
3.AI 名企內(nèi)推、大會門票福利、獨家周邊紀念品等等等。
加入論文作者團隊你需要:
1.將你喜歡的論文推薦給廣大的研習社社友
2.撰寫論文解讀
如果你已經(jīng)準備好加入 AI 研習社的論文兼職作者團隊,可以添加運營小姐姐的微信,備注“論文兼職作者”
雷鋒網(wǎng)雷鋒網(wǎng)雷鋒網(wǎng)
相關文章:
今日 Paper | 手部和物體重建;三維人體姿態(tài)估計;圖像到圖像變換等
今日 Paper | 動態(tài)手勢識別;領域獨立無監(jiān)督學習;基于BERT的在線金融文本情感分析等
今日 Paper | 新聞推薦系統(tǒng);多路編碼;知識增強型預訓練模型等
今日 Paper | 小樣本學習;視覺情感分類;神經(jīng)架構(gòu)搜索;自然圖像摳像等
今日 Paper | 蚊子叫聲數(shù)據(jù)集;提高語音識別準確率;對偶注意力推薦系統(tǒng)等
今日 Paper | 人臉數(shù)據(jù)隱私;神經(jīng)符號推理;深度學習聊天機器人等
今日 Paper | 虛擬試穿網(wǎng)絡;人群計數(shù)基準;聯(lián)邦元學習;目標檢測等
今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學習;圖像風格遷移等
今日 Paper | 隨機微分方程;流式自動語音識別;圖像分類等
今日 Paper | 高維感官空間機器人;主動人體姿態(tài)估計;深度視頻超分辨率;行人重識別等
今日 Paper | 3D手勢估計;自學習機器人;魯棒語義分割;卷積神經(jīng)網(wǎng)絡;混合高斯過程等
今日 Paper | 精簡BERT;面部交換;三維點云;DeepFakes 及 5G 等
今日 Paper | 虛假新聞檢測;馬爾可夫決策過程;場景文本識別;博弈論框架等
今日 Paper | 問答系統(tǒng);3D人體形狀和姿勢;面部偽造檢測;AdderNet等
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。