丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號(hào)安全和更好的產(chǎn)品體驗(yàn),強(qiáng)烈建議使用更快更安全的瀏覽器
此為臨時(shí)鏈接,僅用于文章預(yù)覽,將在時(shí)失效
人工智能 正文
發(fā)私信給叢末
發(fā)送

0

NIPS 2018 | 騰訊 AI Lab 入選 20 篇論文,含 2 篇 Spotlight

本文作者: 叢末 2018-10-24 23:23 專題:NeurIPS 2018
導(dǎo)語(yǔ):第 32 屆 NIPS 近日揭曉收錄論文名單,此次為會(huì)議,將于 12 月 3 日至 8 日在加拿大蒙特利爾舉辦。
論文
名稱:NIPS
時(shí)間:
企業(yè):騰訊

被譽(yù)為神經(jīng)計(jì)算和機(jī)器學(xué)習(xí)領(lǐng)域兩大頂級(jí)會(huì)議之一的 NIPS 于近日揭曉收錄論文名單,此次為第 32 屆會(huì)議,將于 12 月 3 日至 8 日在加拿大蒙特利爾舉辦。

騰訊 AI Lab 第三次參加 NIPS,共有 20 篇論文入選,其中 2 篇被選為亮點(diǎn)論文(Spotlight),涵蓋遷移學(xué)習(xí)、模仿學(xué)習(xí)、半監(jiān)督學(xué)習(xí)等多個(gè)研究主題,去年我們?nèi)脒x論文 8 篇,含 1 篇口頭報(bào)告(Oral)。

此外,在今年的多個(gè)頂級(jí)學(xué)術(shù)會(huì)議中,騰訊 AI Lab 也入選多篇論文,位居國(guó)內(nèi)企業(yè)前列,包括計(jì)算機(jī)視覺(jué)領(lǐng)域頂會(huì) CVPR(21 篇)和 ECCV(19 篇)、機(jī)器學(xué)習(xí)領(lǐng)域頂會(huì) ICML(16 篇)、NLP 領(lǐng)域頂會(huì) EMNLP(16 篇),以及語(yǔ)音領(lǐng)域頂會(huì) Interspeech(8 篇)等。

我們將在下文一一解析本次騰訊 AI Lab 入選論文,也邀請(qǐng)大家在 NIPS 的現(xiàn)場(chǎng)跟我們進(jìn)一步交流與討論。

NIPS 2018 | 騰訊 AI Lab 入選 20 篇論文,含 2 篇 Spotlight

1. 一種自適應(yīng)于不同環(huán)境、不同任務(wù)的強(qiáng)化學(xué)習(xí)方法

Synthesize Policies for Transfer and Adaptation across Environments and Tasks

這項(xiàng)研究由騰訊 AI Lab 和南加州大學(xué)合作主導(dǎo)完成,是本屆 NIPS 的 Spotlight 論文之一,研究了同時(shí)在不同環(huán)境(Env)和不同任務(wù)(Task)之間遷移的問(wèn)題,目的是利用稀疏的(Env, Task)組合就能學(xué)到在所有可能組合中遷移的能力。文中提出了一種新穎的部件神經(jīng)網(wǎng)絡(luò),它描述了如何從環(huán)境和任務(wù)來(lái)組成強(qiáng)化學(xué)習(xí)策略的元規(guī)則。值得注意的是,這里的主要挑戰(zhàn)之一是環(huán)境和任務(wù)的特征描述必須與元規(guī)則一起學(xué)習(xí)。為此,研究者又進(jìn)一步提出了新的訓(xùn)練方法來(lái)解鎖這兩種學(xué)習(xí)任務(wù),使得最終的特征描述不僅成為環(huán)境和任務(wù)的獨(dú)特簽名,更成為組建策略的有效模塊。研究者在 GRIDWORLD 和 AI2-THOR 上進(jìn)行了大量實(shí)驗(yàn),結(jié)果表明新提出的模型可以有效地在 400 個(gè)(Env, Task)組合之間成功遷移,而模型的訓(xùn)練只需要這些組合的大概 40%。

2. SPIDER:一種基于隨機(jī)路徑積分的差分估計(jì)子的鄰近最優(yōu)的非凸優(yōu)化方法 SPIDER

Near-Optimal Non-Convex Optimization via Stochastic Path Integrated Differential Estimator

這項(xiàng)研究由北京大學(xué)與騰訊 AI Lab 合作完成,探索了一種用于快速隨機(jī)求解非凸優(yōu)化問(wèn)題的方法,同時(shí)也是本屆 NIPS 的 Spotlight 論文之一。論文中提出了一種名為「隨機(jī)路徑積分的差分估計(jì)子(SPIDER)」的新技術(shù),能以更低的計(jì)算復(fù)雜度追蹤許多我們感興趣的量。研究者還進(jìn)一步將 SPIDER 與歸一化的梯度下降方法結(jié)合到了一起,提出了用于求解非凸隨機(jī)優(yōu)化問(wèn)題(僅需使用隨機(jī)梯度)的兩個(gè)算法:SPIDER-SFO 和 SPIDER-SSO。這兩個(gè)算法具有很快的收斂速度。特別值得一提的是,SPIDER-SFO 和 SPIDER-SSO 能夠以的隨機(jī)梯度復(fù)雜度分別解出一個(gè)滿足 ε 誤差的一階穩(wěn)定點(diǎn)和滿足誤差的二階穩(wěn)定點(diǎn)。除此之外,對(duì)于有限和并滿足梯度利普希茨連續(xù)的函數(shù)族,SPIDER-SFO 在獲取一階穩(wěn)定點(diǎn)時(shí)幾乎達(dá)到了算法下界。

NIPS 2018 | 騰訊 AI Lab 入選 20 篇論文,含 2 篇 Spotlight

SPIDER-SFO

NIPS 2018 | 騰訊 AI Lab 入選 20 篇論文,含 2 篇 Spotlight

SPIDER-SSO

3. 基于分批歷史數(shù)據(jù)的指數(shù)加權(quán)模仿學(xué)習(xí)方法

Exponentially Weighted Imitation Learning for Batched Historical Data

這項(xiàng)研究由騰訊 AI Lab 獨(dú)立完成,主要研究了僅使用成批量的歷史數(shù)據(jù)的深度策略學(xué)習(xí)。這篇文章中我們主要考慮的是只使用歷史數(shù)據(jù)的深度策略學(xué)習(xí)。這個(gè)問(wèn)題的主要挑戰(zhàn)在于,與大部分強(qiáng)化學(xué)習(xí)問(wèn)題不同,我們不再有一個(gè)環(huán)境的模擬器來(lái)進(jìn)行學(xué)習(xí)。為了解決這個(gè)問(wèn)題,研究者提出一個(gè)單調(diào)優(yōu)勢(shì)加權(quán)的模仿學(xué)習(xí)算法來(lái)從歷史數(shù)據(jù)中學(xué)習(xí),并且可以應(yīng)用到復(fù)雜非線性函數(shù)近似以及混合動(dòng)作空間的問(wèn)題中。這個(gè)方法并不依賴用來(lái)生成數(shù)據(jù)的行為策略的知識(shí),所以可以被用來(lái)從一個(gè)未知的策略生成的數(shù)據(jù)中進(jìn)行學(xué)習(xí)。在一些條件下,該算法(盡管非常簡(jiǎn)單)可以證明策略提升的下界,并且在實(shí)驗(yàn)中的效果超過(guò)了其它方法,并有望為復(fù)雜游戲 AI 提供更好的模仿學(xué)習(xí)。論文中也提供了詳盡的數(shù)值實(shí)驗(yàn)來(lái)展示所提出的算法的有效性。

4. 基于適應(yīng)性采樣的快速圖表示學(xué)習(xí)

Adaptive Sampling Towards Fast Graph Representation Learning

論文地址:https://arxiv.org/abs/1809.05343

這項(xiàng)研究由騰訊 AI Lab 獨(dú)立完成,提出了一種適用于大規(guī)模社交網(wǎng)絡(luò)的節(jié)點(diǎn)分類方法。社交網(wǎng)絡(luò)可表示成圖(graph)的形式,而圖卷積網(wǎng)絡(luò)已經(jīng)成為了圖節(jié)點(diǎn)表示學(xué)習(xí)的一種重要工具。在大規(guī)模圖上使用圖卷積網(wǎng)絡(luò)會(huì)產(chǎn)生巨大的時(shí)間和空間開(kāi)銷(xiāo),這主要是由無(wú)限制的鄰居擴(kuò)張引起的。在這篇論文中,研究者設(shè)計(jì)了一種適應(yīng)性的逐層采樣方法,可加速圖卷積網(wǎng)絡(luò)的訓(xùn)練。通過(guò)自上而下地構(gòu)建神經(jīng)網(wǎng)絡(luò)的每一層,基于頂層的節(jié)點(diǎn)采樣出下層的節(jié)點(diǎn),可使得采樣出的鄰居節(jié)點(diǎn)被不同的父節(jié)點(diǎn)所共享并且便于限制每層的節(jié)點(diǎn)個(gè)數(shù)來(lái)避免過(guò)擴(kuò)張。更重要的是,新提出的采樣方法能顯式地減少采樣方差,因此能強(qiáng)化該方法的訓(xùn)練。研究者還進(jìn)一步提出了一種新穎且經(jīng)濟(jì)的跳(skip)連接方法,可用于加強(qiáng)相隔比較遠(yuǎn)的節(jié)點(diǎn)之間的信息傳播。研究者在幾個(gè)公開(kāi)的數(shù)據(jù)集上進(jìn)行了大量實(shí)驗(yàn),結(jié)果表明我們方法是有效的而且能很快收斂。

5. 具有非對(duì)稱損益重尾特性的金融收益序列低維簡(jiǎn)約分位數(shù)回歸

Parsimonious Quantile Regression of Financial Asset Tail Dynamics via Sequential Learning

這項(xiàng)研究由騰訊 AI Lab 主導(dǎo),與香港城市大學(xué)、香港中文大學(xué)合作完成。文中提出了一種低維簡(jiǎn)約分位數(shù)回歸框架來(lái)學(xué)習(xí)金融資產(chǎn)收益的動(dòng)態(tài)尾部行為。該方法由數(shù)據(jù)驅(qū)動(dòng), 即能廣泛的表征金融時(shí)間序列的在損益兩端的重尾不對(duì)稱性,又能很好地抓住條件分位數(shù)函數(shù)的時(shí)變特性。該方法將序列神經(jīng)網(wǎng)絡(luò)模型 LSTM 的優(yōu)勢(shì)與一種新構(gòu)建的用來(lái)表示資產(chǎn)價(jià)格條件收益的參數(shù)化分位數(shù)函數(shù)結(jié)合到了一起。研究者在長(zhǎng)達(dá) 68 年(1950-2018)的歷史數(shù)據(jù)中, 對(duì)股票,債券,外匯三大類 14 種資產(chǎn)的研究表明,該方法的重要特點(diǎn)是能半?yún)?shù)的提取可能存在于數(shù)據(jù)中的條件分位函數(shù)的非線性演化過(guò)程。該機(jī)制對(duì)于抓住那些能驅(qū)動(dòng)高階矩時(shí)變演化而又獨(dú)立于波動(dòng)率的因子非常關(guān)鍵。對(duì)比表明新提出的模型的外樣本預(yù)測(cè)表現(xiàn)優(yōu)于 GARCH 模型族。與此同時(shí)該方法既不會(huì)導(dǎo)致分位數(shù)交叉,也沒(méi)有參數(shù)化概率密度函數(shù)方法的不適定性問(wèn)題。應(yīng)用方面,該方法可用于對(duì)金融二級(jí)市場(chǎng)(包括股票、外匯、債券、大宗商品等)的波動(dòng)率預(yù)測(cè)和尾部風(fēng)險(xiǎn)預(yù)測(cè),能在金融機(jī)構(gòu)的風(fēng)險(xiǎn)管理中發(fā)揮重要價(jià)值。

6. 非局部神經(jīng)網(wǎng)絡(luò)、非局部擴(kuò)散與非局部建模

Nonlocal Neural Networks, Nonlocal Diffusion and Nonlocal Modeling

論文地址:https://arxiv.org/abs/1806.00681

這項(xiàng)研究由騰訊 AI Lab 主導(dǎo),與美國(guó)哥倫比亞大學(xué)合作完成。在這篇論文中,研究者對(duì)經(jīng)過(guò)良好訓(xùn)練的網(wǎng)絡(luò)的權(quán)重矩陣進(jìn)行了譜分析,從而探索理解了非局部網(wǎng)絡(luò)的擴(kuò)散和抑制效應(yīng)的本質(zhì),并基于此提出了一種新的非局部模塊的構(gòu)建方法。這種新模塊不僅能學(xué)習(xí)非局部的交互,而且還有穩(wěn)定的動(dòng)態(tài)特性,因此支持更深度的非局部結(jié)構(gòu)——從而可以堆疊更多非局部模塊以充分利用其優(yōu)勢(shì)。此外,研究者還從通用型非局部建模的角度對(duì)這種構(gòu)建方法進(jìn)行了分析,將新提出的非局部網(wǎng)絡(luò)與非局部擴(kuò)散過(guò)程與非局部馬爾可夫跳變過(guò)程等其它非局部模型聯(lián)系到了一起。非局部運(yùn)算與卷積和循環(huán)模塊不同,可以通過(guò)直接計(jì)算特征空間中每對(duì)位置之間的交互來(lái)實(shí)現(xiàn)長(zhǎng)程依賴。這項(xiàng)研究對(duì)圖像或視頻分類、文本摘要和金融市場(chǎng)分析等諸多實(shí)際機(jī)器學(xué)習(xí)問(wèn)題有重要的指導(dǎo)意義。

7. 弱監(jiān)督下對(duì)視頻進(jìn)行稠密事件標(biāo)注

Weakly Supervised Dense Event Captioning in Videos

這項(xiàng)研究由騰訊 AI Lab 與清華大學(xué)、麻省理工學(xué)院(MIT)和微軟亞洲研究院(MSRA)

合作完成。提出了一種使用弱監(jiān)督方式標(biāo)注視頻中的稠密事件的方法,從而能夠緩解模型訓(xùn)練對(duì)成本高昂的人工標(biāo)注數(shù)據(jù)的需求。這種方法不再需要每個(gè)事件的發(fā)生時(shí)間區(qū)間來(lái)進(jìn)行模型訓(xùn)練,而是基于一一對(duì)應(yīng)假設(shè),即每個(gè)時(shí)間區(qū)間只有一個(gè)語(yǔ)言描述,而每個(gè)語(yǔ)言描述只對(duì)應(yīng)于一個(gè)時(shí)間區(qū)間。一一對(duì)應(yīng)假設(shè)在當(dāng)前公開(kāi)任務(wù)和真實(shí)場(chǎng)景中都成立?;诖?,研究者將原問(wèn)題分解為了一對(duì)對(duì)偶問(wèn)題:事件描述和語(yǔ)句定位,并提出了一個(gè)用于訓(xùn)練模型的循環(huán)系統(tǒng)。研究者進(jìn)行了大量實(shí)驗(yàn),結(jié)果表明該方法能同時(shí)解決視頻中的稠密事件標(biāo)注和語(yǔ)句定位這兩個(gè)任務(wù)。

NIPS 2018 | 騰訊 AI Lab 入選 20 篇論文,含 2 篇 Spotlight

新提出的模型結(jié)構(gòu)及其訓(xùn)練連接如上圖所示。該模型由一個(gè)語(yǔ)句定位器和一個(gè)描述生成器組成。在訓(xùn)練過(guò)程中,模型可使用視頻及其所有的事件描述。首先語(yǔ)句定位器會(huì)使用視頻和其中一個(gè)事件描述來(lái)獲得一個(gè)時(shí)間片段預(yù)測(cè),然后描述生成器會(huì)使用這個(gè)時(shí)間片段來(lái)生成一個(gè)描述語(yǔ)句。

8. 基于可配置熵約束的半監(jiān)督學(xué)習(xí)

Semi-Supervised Learning with Declaratively Specified Entropy Constraints

論文地址:https://arxiv.org/abs/1804.09238

 這項(xiàng)研究由卡耐基梅隆大學(xué)(CMU)與騰訊 AI Lab 合作完成,提出了一種新的聲明式列舉規(guī)則的半監(jiān)督學(xué)習(xí)的方法,可用于定制化半監(jiān)督學(xué)習(xí)。這種方法可以組合多個(gè)半監(jiān)督學(xué)習(xí)策略,同時(shí)可以結(jié)合多個(gè)協(xié)議(agreement)約束和熵正則化(entropic regularization)約束。此外,這種方法還可以用于模擬其它常見(jiàn)的模型,比如聯(lián)合訓(xùn)練和針對(duì)全新域的啟發(fā)式方法。除了表征單個(gè)的半監(jiān)督學(xué)習(xí)啟發(fā)式方法,研究者還表明可以使用貝葉斯優(yōu)化將多種啟發(fā)式方法組合到一起。在多個(gè)數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果表明這種方法能穩(wěn)定地優(yōu)于其它方法,并在一個(gè)較困難的關(guān)系抽取任務(wù)上得到了當(dāng)前最佳的結(jié)果。

NIPS 2018 | 騰訊 AI Lab 入選 20 篇論文,含 2 篇 Spotlight

聲明式地描述半監(jiān)督學(xué)習(xí)規(guī)則

9. 基于廣義低秩近似的深度非盲反卷積

Deep Non-Blind Deconvolution via Generalized Low-Rank Approximation

這項(xiàng)研究由騰訊 AI Lab、中科院信工所、南京理工大學(xué)和美國(guó)加州大學(xué)默塞德分校等合作完成。本文提出了一種基于偽逆模糊核低秩特征的深度非盲反卷積方法,可以處理不同模糊核造成的模糊圖片,尤其是對(duì)具有飽和像素的模糊圖片有更好的效果。研究者首先對(duì)大量模糊核進(jìn)行廣義低秩分解,利用分解得到的左右特征值向量對(duì)網(wǎng)絡(luò)參數(shù)進(jìn)行初始化,從而使網(wǎng)絡(luò)更好的模擬偽逆模糊核。另外,基于廣義低秩近似的分解矩陣可以有效區(qū)分不同偽逆模糊核的變化特征,因此可以幫助網(wǎng)絡(luò)更好的進(jìn)行圖像恢復(fù)。研究者在大量具有飽和像素的模糊圖片上進(jìn)行了實(shí)驗(yàn),結(jié)果證明該方法可以得到較好的圖像反卷積效果。據(jù)介紹,該方法可以應(yīng)用于相機(jī)、車(chē)載記錄儀、監(jiān)控等設(shè)備在已知運(yùn)動(dòng)軌跡情況下的圖像復(fù)原。

NIPS 2018 | 騰訊 AI Lab 入選 20 篇論文,含 2 篇 Spotlight

新提出的去卷積網(wǎng)絡(luò)的架構(gòu),其中通過(guò)廣義低秩近(GLRA)使用大量模糊核(blur kernel)的可分離過(guò)濾器來(lái)初始化第 1 層和第 3 層的參數(shù),并使用為每個(gè)模糊核估計(jì)的 M 來(lái)固定第 2 個(gè)卷積核中的參數(shù)。另外還堆疊了額外的 3 個(gè)卷積層來(lái)去除偽影。

10. 超越二次指派模型:圖匹配形式化的一個(gè)推廣

Generalizing Graph Matching beyond Quadratic Assignment Model

這項(xiàng)研究由騰訊 AI Lab、上海交通大學(xué)、美國(guó)亞利桑那州立大學(xué)等合作完成。圖匹配在過(guò)去幾十年間一直受到持續(xù)觀注,該問(wèn)題往往可以被形式化成一個(gè)二階指派問(wèn)題。研究者在本文中展示:通過(guò)引入一系列在本文中被稱為可分離的函數(shù),并調(diào)整近似控制參數(shù),可以在連續(xù)域中對(duì)離散的圖匹配問(wèn)題進(jìn)行漸進(jìn)的近似。研究者對(duì)該近似模型的全局最優(yōu)解性質(zhì)進(jìn)行了研究,并進(jìn)一步設(shè)計(jì)了凸/凹性質(zhì)保持下的擴(kuò)展算法,而該類似策略在傳統(tǒng) Lawler 二次指派模型上亦被廣泛采用。從理論上,研究者進(jìn)一步論證了所提出的框架在為圖匹配新算法與技術(shù)設(shè)計(jì)帶來(lái)的巨大潛力。最后,通過(guò)兩個(gè)具體的可分離函數(shù)形式,研究者設(shè)計(jì)了相關(guān)求解算法,并在公開(kāi)數(shù)據(jù)集上進(jìn)行了驗(yàn)證。

11. 基于蒸餾 Wasserstein 學(xué)習(xí)的單詞嵌入與主題建模

Distilled Wasserstein Learning for Word Embedding and Topic Modeling

論文地址:https://arxiv.org/abs/1809.04705

這項(xiàng)研究由 InfiniaML, Inc. 和美國(guó)杜克大學(xué)主導(dǎo),與騰訊 AI Lab 合作完成。本文提出了一種具有蒸餾機(jī)制的 Wasserstein 學(xué)習(xí)方法,實(shí)現(xiàn)了單詞嵌入與文本主題的聯(lián)合學(xué)習(xí)。該方法的依據(jù)在于不同主題單詞分布的 Wasserstein 距離往往是建立在單詞嵌入的歐式距離的基礎(chǔ)之上的。因此,該方法采用了一個(gè)統(tǒng)一的框架用以學(xué)習(xí)主題模型對(duì)應(yīng)的單詞分布,單詞分布之間的最優(yōu)傳輸,以及相應(yīng)的單詞嵌入模型。在學(xué)習(xí)主題模型時(shí),研究者利用模型蒸餾的方法平滑距離矩陣,用以更新主題模型和計(jì)算主題之間的最優(yōu)傳輸。這種蒸餾機(jī)制為下一步單詞嵌入的更新提供了具有魯棒性的指導(dǎo),改進(jìn)了學(xué)習(xí)過(guò)程的收斂性。針對(duì)采用疾病和手術(shù) ICD 編碼的病人入院記錄,研究者的方法在構(gòu)建疾病相關(guān)性網(wǎng)絡(luò),死亡率預(yù)測(cè),和治療方案推薦等應(yīng)用上取得了比現(xiàn)有方法更好的結(jié)果。

NIPS 2018 | 騰訊 AI Lab 入選 20 篇論文,含 2 篇 Spotlight

用于單詞嵌入和主題建模的聯(lián)合學(xué)習(xí)的蒸餾 Wasserstein 學(xué)習(xí)(DWL)方法

12. 基于往復(fù)式學(xué)習(xí)的深度顯著性跟蹤

Deep Attentive Tracking via Reciprocative Learning

論文地址:https://arxiv.org/abs/1810.03851

這項(xiàng)研究由騰訊 AI Lab、北京郵電大學(xué)、澳洲阿德萊德大學(xué)和美國(guó)加州大學(xué)默塞德分校合作完成。由感知神經(jīng)科學(xué)衍生出來(lái)的視覺(jué)關(guān)注度促使人類對(duì)日常信息中最敏感的部分進(jìn)行仔細(xì)關(guān)注。近年來(lái),大量的研究工作致力于在計(jì)算機(jī)視覺(jué)系統(tǒng)中挖掘顯著性的信息。在視覺(jué)跟蹤這個(gè)任務(wù)中,跟蹤不斷變化的目標(biāo)物體是非常具有挑戰(zhàn)性的。顯著性響應(yīng)圖能夠使得跟蹤器關(guān)注于目標(biāo)物體在時(shí)間域中穩(wěn)定的特征,從而能夠減輕視覺(jué)跟蹤的困難。在現(xiàn)有的基于檢測(cè)的跟蹤框架中,分類器并沒(méi)有進(jìn)行顯著性的設(shè)計(jì),使得其主要利用額外的模塊來(lái)生成特征權(quán)重。本文中,研究者提出一種往復(fù)式學(xué)習(xí)的算法在訓(xùn)練分類器的過(guò)程中挖掘顯著性,該算法通過(guò)前向和后向兩部分操作來(lái)生成顯著性響應(yīng)圖。在訓(xùn)練過(guò)程中,響應(yīng)圖作為正則項(xiàng)結(jié)合傳統(tǒng)的分類損失函數(shù)進(jìn)行網(wǎng)絡(luò)的訓(xùn)練。以此方式訓(xùn)練的分類器能夠關(guān)注于目標(biāo)物體中克服外表變化的特征。在大規(guī)模數(shù)據(jù)集上大量的實(shí)驗(yàn)表明,研究者提出的基于顯著性的跟蹤方法在目前主流的跟蹤算法中性能優(yōu)異。

NIPS 2018 | 騰訊 AI Lab 入選 20 篇論文,含 2 篇 Spotlight

上圖展示了新提出的往復(fù)式學(xué)習(xí)算法總覽。該算法會(huì)首先在前向過(guò)程中計(jì)算給定訓(xùn)練樣本的分類分?jǐn)?shù),然后在后向過(guò)程中通過(guò)取該分類分?jǐn)?shù)相對(duì)該樣本的偏導(dǎo)數(shù)來(lái)得到顯著性響應(yīng)圖。之后再將這個(gè)響應(yīng)圖作為正則化項(xiàng)與分類損失結(jié)合起來(lái)用于訓(xùn)練分類器。測(cè)試階段不會(huì)生成響應(yīng)圖,而是由分類器直接預(yù)測(cè)目標(biāo)位置。

13. 基于學(xué)習(xí)的多任務(wù)學(xué)習(xí)框架 L2MT

Learning to Multitask

論文地址:https://arxiv.org/abs/1805.07541

這項(xiàng)研究由香港科技大學(xué)與騰訊 AI Lab 合作完成,提出了學(xué)會(huì)多任務(wù)學(xué)習(xí)(L2MT)的框架,能夠自動(dòng)發(fā)掘?qū)τ谝粋€(gè)多任務(wù)問(wèn)題最優(yōu)的多任務(wù)學(xué)習(xí)模型。為了實(shí)現(xiàn)這個(gè)目標(biāo),L2MT 充分利用了歷史的多任務(wù)學(xué)習(xí)經(jīng)驗(yàn)。每個(gè)多任務(wù)學(xué)習(xí)經(jīng)驗(yàn)是一個(gè)三元組,包括一個(gè)由多個(gè)任務(wù)組成的多任務(wù)問(wèn)題、一個(gè)多任務(wù)學(xué)習(xí)模型以及該模型在該多任務(wù)問(wèn)題上的相對(duì)測(cè)試錯(cuò)誤率。以歷史的多任務(wù)學(xué)習(xí)經(jīng)驗(yàn)作為訓(xùn)練集,L2MT 首先使用層式圖神經(jīng)網(wǎng)絡(luò)(layerwise graph neural network)學(xué)習(xí)每個(gè)多任務(wù)問(wèn)題里所有任務(wù)的特征表示。其次,L2MT 會(huì)學(xué)習(xí)一個(gè)估計(jì)函數(shù)來(lái)預(yù)測(cè)相對(duì)測(cè)試錯(cuò)誤率,該估計(jì)函數(shù)基于多任務(wù)問(wèn)題的特征表示以及多任務(wù)學(xué)習(xí)模型。如此一來(lái),給定一個(gè)新的多任務(wù)問(wèn)題,通過(guò)最小化該估計(jì)函數(shù)(等價(jià)于最小化相對(duì)測(cè)試錯(cuò)誤率)可以確定一個(gè)合適的多任務(wù)模型。在標(biāo)準(zhǔn)數(shù)據(jù)集上的實(shí)驗(yàn)證明了 L2MT 的有效性。

NIPS 2018 | 騰訊 AI Lab 入選 20 篇論文,含 2 篇 Spotlight

上圖展示了 L2MT 的框架,該框架包含 2 個(gè)階段。訓(xùn)練階段是學(xué)習(xí)一個(gè)估計(jì)函數(shù) f(·,·),以基于訓(xùn)練數(shù)據(jù)集和特定的多任務(wù)模型來(lái)近似相對(duì)測(cè)試誤差;測(cè)試階段則是通過(guò)最小化該相對(duì)測(cè)試誤差(接近隨 Ω 變化的 γ1f(E? , Ω))來(lái)學(xué)習(xí)任務(wù)協(xié)方差矩陣。

14. 可判別式深度神經(jīng)網(wǎng)絡(luò)通道剪枝

Discrimination-aware Channel Pruning for Deep Neural Networks

這項(xiàng)研究由騰訊 AI Lab、華南理工大學(xué)和阿德萊德大學(xué)合作完成,對(duì)通道剪枝方法進(jìn)行了改進(jìn)。通道剪枝是深度模型壓縮的一個(gè)主要方法。現(xiàn)有的剪枝方法要么通過(guò)對(duì)通道強(qiáng)加稀疏約束從頭訓(xùn)練,要么極小化預(yù)訓(xùn)練特征和壓縮后特征之間的重構(gòu)誤差。這兩個(gè)策略都存在不足:前者計(jì)算量大并且難以收斂,后者只關(guān)注重構(gòu)誤差而忽略了通道的判別能力。為了克服這些不足,研究者設(shè)計(jì)了一種簡(jiǎn)單而有效的方法——可判別式通道剪枝——來(lái)選擇那些真正具有判別能力的通道。為此,研究者引入了額外的損失來(lái)增加神經(jīng)網(wǎng)絡(luò)中間層的判別能力。之后再?gòu)拿恳粚又羞x擇判別能力最強(qiáng)的通道,同時(shí)還會(huì)考慮這個(gè)新的額外損失和重構(gòu)誤差。最后,研究者還提出了一個(gè)貪心算法,可用于迭代地進(jìn)行通道選擇和參數(shù)優(yōu)化。研究者進(jìn)行了大量實(shí)驗(yàn),結(jié)果表明該方法是有效的。例如,在 ILSVRC-12 數(shù)據(jù)集上,在對(duì) ResNet-50 壓縮 30% 的通道量后還取得了比原方法高 0.39% 的識(shí)別準(zhǔn)確度。

NIPS 2018 | 騰訊 AI Lab 入選 20 篇論文,含 2 篇 Spotlight

可判別式通道剪枝(DCP)示意圖

15. M-Walk: 圖游走的蒙特卡洛樹(shù)狀搜索學(xué)習(xí)方法 

M-Walk: Learning to Walk in Graph with Monte Carlo Tree Search

論文地址:https://arxiv.org/abs/1802.04394

這項(xiàng)研究由微軟研究院與騰訊 AI Lab 合作完成,提出了一種可用于知識(shí)圖譜推理的蒙特卡洛樹(shù)狀搜索學(xué)習(xí)方法 M-Walk。在知識(shí)庫(kù)完成等應(yīng)用中,給定一個(gè)輸入查詢和一個(gè)源節(jié)點(diǎn),學(xué)習(xí)在圖中到達(dá)目標(biāo)節(jié)點(diǎn)是一個(gè)很重要的研究問(wèn)題。這個(gè)問(wèn)題可通過(guò)一個(gè)已知的狀態(tài)轉(zhuǎn)移模型而形式化為一個(gè)強(qiáng)化學(xué)習(xí)問(wèn)題。為了克服獎(jiǎng)勵(lì)稀疏的難題,研究者開(kāi)發(fā)出了一種能在圖中游走的智能體 M-Walk——由一個(gè)深度循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)和蒙特卡洛樹(shù)搜索(MCTS)構(gòu)成。RNN 會(huì)對(duì)狀態(tài)(即游走過(guò)的路徑的歷史)進(jìn)行編碼,并將其分別映射成一個(gè)策略、一個(gè)狀態(tài)值和狀態(tài)-動(dòng)作 Q 值。為了能使用稀疏獎(jiǎng)勵(lì)有效地訓(xùn)練該智能體,研究者將 MCTS 與這個(gè)神經(jīng)網(wǎng)絡(luò)策略結(jié)合到了一起,可以生成能產(chǎn)生更多積極獎(jiǎng)勵(lì)的軌跡。通過(guò) Q 學(xué)習(xí)方法(其會(huì)通過(guò)參數(shù)共享來(lái)修改 RNN 策略),神經(jīng)網(wǎng)絡(luò)能使用這些軌跡以一種離策略的方式得到改進(jìn)。研究者提出的強(qiáng)化學(xué)習(xí)算法可以反復(fù)應(yīng)用這一策略改進(jìn)步驟,從而學(xué)習(xí)得到整個(gè)模型。在測(cè)試時(shí)間,MCTS 仍然會(huì)與神經(jīng)策略結(jié)合起來(lái)預(yù)測(cè)目標(biāo)節(jié)點(diǎn)。研究者在多個(gè)圖游走基準(zhǔn)上進(jìn)行了實(shí)驗(yàn),結(jié)果表明 M-Walk 能夠?qū)W會(huì)比其它基于強(qiáng)化學(xué)習(xí)的方法(主要基于策略梯度)更好的策略。M-Walk 的表現(xiàn)也優(yōu)于傳統(tǒng)的知識(shí)庫(kù)完成基準(zhǔn)。

NIPS 2018 | 騰訊 AI Lab 入選 20 篇論文,含 2 篇 Spotlight

M-Walk 的神經(jīng)架構(gòu)

16. 基于優(yōu)化嵌入的耦合變分貝葉斯方法 

Coupled Variational Bayes via Optimization Embedding

這項(xiàng)研究由喬治亞理工學(xué)院、伊利諾伊大學(xué)厄巴納-香檳分校、騰訊 AI Lab 和微軟研究院合作完成,文中構(gòu)建了一種名為優(yōu)化嵌入(optimization embedding)的分布類,能輔助實(shí)現(xiàn)優(yōu)良的近似能力和計(jì)算效率,進(jìn)而讓變分推理在學(xué)習(xí)圖模型方面的表現(xiàn)更好(尤其是在大規(guī)模數(shù)據(jù)集上)。優(yōu)化嵌入這個(gè)靈活的函數(shù)類能將變分分布和圖模型中的原始參數(shù)耦合到一起,能夠通過(guò)反向傳播使用變分分布來(lái)實(shí)現(xiàn)端到端的圖模型學(xué)習(xí)。研究者還在理論上將其與梯度流(gradient flow)聯(lián)系到了一起,并在極限意義上表明了這種隱式分布族極其靈活。在實(shí)踐中,這種技術(shù)能大幅縮小搜索空間,從而顯著加速學(xué)習(xí)過(guò)程,即文中提出的耦合變分貝葉斯(CVB)。實(shí)驗(yàn)表明,新提出的方法在多種圖模型(具有連續(xù)或離散的隱變量)上都優(yōu)于之前最佳的方法。研究者相信優(yōu)化嵌入是一種重要的通用型技術(shù),未來(lái)也有望在生成對(duì)抗模型和對(duì)抗訓(xùn)練等其它模型中得到應(yīng)用。

NIPS 2018 | 騰訊 AI Lab 入選 20 篇論文,含 2 篇 Spotlight

耦合變分貝葉斯算法

17. 常數(shù)迭代復(fù)雜度的隨機(jī)經(jīng)驗(yàn)誤差最小化方法 

Stochastic Primal-Dual Method for Empirical Risk Minimization with O(1) Per-Iteration Complexity

這項(xiàng)研究由香港中文大學(xué)、騰訊 AI Lab、加州大學(xué)戴維斯分校與羅切斯特大學(xué)合作完成,提出了一種可用于快速求解基于廣義線性模型的經(jīng)驗(yàn)誤差最小化問(wèn)題的方法。該方法的特點(diǎn)是每輪迭代只需要 O(1) 的常數(shù)計(jì)算量,與問(wèn)題的維度以及數(shù)據(jù)的大小無(wú)關(guān)。研究者還發(fā)展了該方法的一種方差減小的變種,在強(qiáng)凸條件下可以證明它具有線性收斂性。研究者使用 logistic 損失函數(shù)進(jìn)行了求解分類問(wèn)題的數(shù)值實(shí)驗(yàn),結(jié)果表明新方法在高維問(wèn)題上的收斂速度優(yōu)于 SGD、SVRG、SAGA 等經(jīng)典算法。

NIPS 2018 | 騰訊 AI Lab 入選 20 篇論文,含 2 篇 Spotlight

每次迭代成本為 O(1) 的隨機(jī)原始-對(duì)偶方法(SPD1)

NIPS 2018 | 騰訊 AI Lab 入選 20 篇論文,含 2 篇 Spotlight

使用了方差縮減的 SPD1

18. 方差縮減的隨機(jī)期望最大化算法

Stochastic Expectation Maximization with Variance Reduction

論文地址:https://ml.cs.tsinghua.edu.cn/~jianfei/semvr-nips2018.pdf

這項(xiàng)研究由清華大學(xué)主導(dǎo)完成,騰訊 AI Lab 和牛津大學(xué)也有參與。論文提出了一個(gè)受方差縮減的隨機(jī)梯度下降算法啟發(fā)的基于方差縮減的隨機(jī) EM(sEM-vr)算法。研究表明 sEM-vr 具備和批 EM 相同的指數(shù)收斂速率,且 sEM-vr 只需要常數(shù)步長(zhǎng),從而能降低調(diào)參的負(fù)擔(dān)。研究者在高斯混合模型和 PLSA 上比較了 sEM-vr 和批處理 EM、隨機(jī) EM 及其它算法,結(jié)果表明 sEM-vr 比其它算法收斂明顯更快。該方法在對(duì)訓(xùn)練精度要求較高時(shí)能顯著提升隨機(jī) EM 算法的收斂速度。

19. 通信有效分布式優(yōu)化的稀疏梯度方法

Gradient Sparsification for Communication-Efficient Distributed Optimization

論文地址:https://arxiv.org/abs/1710.09854

這項(xiàng)研究由賓夕法尼亞大學(xué)、騰訊 AI Lab、芝加哥大學(xué)與羅切斯特大學(xué)合作完成,提出了一種可用于提高大規(guī)模分布式機(jī)器學(xué)習(xí)模型訓(xùn)練的通信速度的方法。現(xiàn)代大規(guī)模機(jī)器學(xué)習(xí)一般使用分布式環(huán)境下的隨機(jī)優(yōu)化算法,傳播梯度的通信成本是其中一大重要瓶頸。為了降低通信成本,研究者提出了一種基于凸優(yōu)化的方法來(lái)減小編碼長(zhǎng)度,并使用了一些簡(jiǎn)單快速的近似算法來(lái)有效求解最優(yōu)的稀疏化方法,該方法能提供基于稀疏程度的理論保證。另外,研究者也在 L2 正則化 logistic 回歸、支持向量機(jī)和卷積神經(jīng)網(wǎng)絡(luò)等凸模型和非凸模型上驗(yàn)證對(duì)新提出的算法進(jìn)行了驗(yàn)證。

20. 去中心化的壓縮算法

Decentralization Meets Quantization

論文地址:https://arxiv.org/abs/1803.06443

這項(xiàng)研究由羅徹斯特大學(xué)、蘇黎世聯(lián)邦理工學(xué)院與騰訊 AI Lab 合作完成,提出了兩種適用于去中心化網(wǎng)絡(luò)的壓縮方法(外推壓縮和差異壓縮)。對(duì)于大規(guī)模并行計(jì)算,去中心化的網(wǎng)絡(luò)設(shè)計(jì)和傳輸信息的壓縮對(duì)于解決網(wǎng)絡(luò)延時(shí)十分有效。然而,與中心化的并行計(jì)算不同,理論分析表明,直接將去中心化網(wǎng)絡(luò)與壓縮算法結(jié)合將會(huì)造成訓(xùn)練結(jié)果不收斂。研究者為解決該問(wèn)題而提出的兩種壓縮方法能達(dá)到與中心化壓縮算法相同的運(yùn)算效率。研究者也實(shí)驗(yàn)了這兩種算法,結(jié)果表明它們大幅優(yōu)于只用去中心化網(wǎng)絡(luò)或只用壓縮的算法。

NIPS 2018 | 騰訊 AI Lab 入選 20 篇論文,含 2 篇 Spotlight

ECD-PSGD:外推壓縮去中心化并行隨機(jī)梯度下降算法

NIPS 2018 | 騰訊 AI Lab 入選 20 篇論文,含 2 篇 Spotlight

DCD-PSGD:差異壓縮去中心化并行隨機(jī)梯度下降算法

一分鐘了解 NIPS

NIPS 全稱為 Annual Conference and Workshop on Neural Information Processing Systems,于 1986 年在由加州理工學(xué)院和貝爾實(shí)驗(yàn)室組織的 Snowbird 神經(jīng)網(wǎng)絡(luò)計(jì)算年度閉門(mén)論壇上首次提出。會(huì)議固定在每年 12 月舉行。今年是第 32 屆,將于 12 月 3 日到 8 日在加拿大蒙特利爾舉辦。

計(jì)算機(jī)學(xué)科由于成果更新迅速,更愿意通過(guò)會(huì)議優(yōu)先發(fā)表成果,因此該類頂級(jí)會(huì)議大多比期刊更具權(quán)威性與影響力。NIPS 和 ICML 是機(jī)器學(xué)習(xí)領(lǐng)域最受認(rèn)可的兩大頂會(huì),是中國(guó)計(jì)算機(jī)學(xué)會(huì) CCF 推薦的 A 類會(huì)議及 Google 學(xué)術(shù)指標(biāo)前五名。(見(jiàn)如下)

NIPS 2018 | 騰訊 AI Lab 入選 20 篇論文,含 2 篇 Spotlight

NIPS 2018 | 騰訊 AI Lab 入選 20 篇論文,含 2 篇 Spotlight


雷峰網(wǎng)版權(quán)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見(jiàn)轉(zhuǎn)載須知

NIPS 2018 | 騰訊 AI Lab 入選 20 篇論文,含 2 篇 Spotlight

分享:
相關(guān)文章
當(dāng)月熱門(mén)文章
最新文章
請(qǐng)?zhí)顚?xiě)申請(qǐng)人資料
姓名
電話
郵箱
微信號(hào)
作品鏈接
個(gè)人簡(jiǎn)介
為了您的賬戶安全,請(qǐng)驗(yàn)證郵箱
您的郵箱還未驗(yàn)證,完成可獲20積分喲!
請(qǐng)驗(yàn)證您的郵箱
立即驗(yàn)證
完善賬號(hào)信息
您的賬號(hào)已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
立即設(shè)置 以后再說(shuō)