丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網賬號安全和更好的產品體驗,強烈建議使用更快更安全的瀏覽器
此為臨時鏈接,僅用于文章預覽,將在時失效
人工智能 正文
發(fā)私信給不靈叔
發(fā)送

1

【預告】常青藤名校嘉賓來了!一周4場學術公開課,干貨太多完全聽不過來……

本文作者: 不靈叔 2017-09-29 18:00
導語:一大波預告來襲

【預告】常青藤名校嘉賓來了!一周4場學術公開課,干貨太多完全聽不過來……

學術青年分享會是雷鋒網旗下垂直AI領域學術交流社群——AI研習社所發(fā)起的活動。AI研習社致力于建設全球領先的AI求知社區(qū),基于專業(yè)直播平臺,進行技術交流的公益?zhèn)鞑ズ蜕疃冉涣鳌?/p>

分享會通過邀請學術界、工業(yè)界學者進行高質量內容分享,讓廣大學術青年了解最前沿的學術與行業(yè)技術進展,成為連接學術界與工業(yè)界之間的橋梁,雷鋒網希望能夠從中發(fā)現(xiàn)一大批優(yōu)秀AI人才,推動國內AI行業(yè)的持續(xù)發(fā)展。

接下來是一大波國慶節(jié)后的分享會預告:

10月10日 10:30

主題:端到端自動駕駛與自動駕駛前沿研究內容

分享內容:本次分享會嘉賓將會通過解讀這篇被CVPR2017收錄的論文《End-to-end Learning of Driving Models from Large-scale Video Datasets》來介紹自動駕駛前沿的研究內容 。本次工作的核心是定義了如何從視覺的角度通過深度學習來實現(xiàn)自動駕駛,并且與英偉達、CMU的ALVINN的工作不同,不僅僅在路況簡單的情況下可以實現(xiàn)“車道跟隨”(lane following),而且可以處理更復雜的環(huán)境,例如城市、商業(yè)區(qū)等?,F(xiàn)有的深度學習的方法往往由于數(shù)據(jù)的原因被限制在固定的場景下,他們使用大規(guī)模眾籌(crowd-sourced)視頻數(shù)據(jù),從而讓模型可以更好地泛化。他們沿著ALVINN的道路嘗試了端到端(end-to-end)的訓練方式,這樣的模型探索了端到端自動駕駛的可能性,同時隱含地學習出圖像中關鍵的信息,并且加入了LSTM來進行對時間序列的建模,從而可以利用駕駛者的歷史信息。他們還嘗試了用其他task來增強主task,用語義分割網絡來對主要駕駛網絡進行調整,發(fā)現(xiàn)對主要的task有部分效果提升。

分享人:許華哲,UC Berkeley博士,師從Prof. Trevor Darrell。對計算機視覺、自動駕駛、強化學習感興趣。本科畢業(yè)于清華大學電子工程系。

10月11日 20:00

主題:基于LSTM-RNN的語音聲學建模技術

分享內容:LSTM-RNN可以對長時序列信息進行建模,廣泛應用于語音識別聲學模型建模中。此次主要介紹近期LSTM的一些研究進展包括LC-BLSTM,2D-LSTM等。其中LC-BLSTM采用了雙向LSTM結構,并在訓練和解碼時加入了數(shù)幀的未來信息來控制延時,解決了普通雙向LSTM無法用于實時語音識別的問題;而2D-LSTM在時間和頻域兩個維度上進行循環(huán),同時保存時間軸與頻域軸的序列信息,Google和微軟都在大規(guī)模語音識別任務上驗證了這類2D-LSTM結構的有效性。

分享人:張弼弘,2017年4月畢業(yè)于西北工業(yè)大學并獲得碩士學位。研究方向是語音識別聲學建模,深度學習,機器學習。目前就職于搜狗。

10月12日 20:00

主題:神經霍克斯過程:一個基于神經網絡的自調節(jié)多變量點過程

分享內容:對連續(xù)時間上的離散事件進行建模,一直是一個非常重要的研究方向:發(fā)現(xiàn)事件中廣泛而復雜的影響關系,可以幫助我們準確地預測未來事件的類型和發(fā)生時間。在這篇NIPS文章中,作者設計了一個基于神經網絡的點過程模型,并通過一個continuous-time LSTM增強了該模型在連續(xù)時間上的表達和泛化能力。實驗結果充分證實了所提出的模型的良好性能。

分享人:梅洪源 ,JHU CS系二年級博士生,導師Jason Eisner教授。 研究興趣在于機器學習和自然語言處理。 在此之前,他曾在芝加哥大學自然科學學院獲得碩士學位,并在華中科技大學電子信息工程系獲得學士學位。他曾在微軟研究院和豐田技術研究所實習。

10月13日 20:00

主題:Beyond Universal Saliency: Personalized Saliency Prediction with Multi-task CNN

分享內容:顯著性檢測是計算機視覺中長期存在的問題?,F(xiàn)有的大部分研究都集中在探索用戶間普遍存在的顯著性模型,即缺乏對個體在性別、年齡、習慣上差異的重視。在這篇IJCAI文章中,作者首次提出了個人顯著性預測任務,并建立了首個個人顯著性數(shù)據(jù)庫,同時提出基于卷積神經網絡的多任務個人顯著性預測模型(Multi-Task Convolutional Neural Network),實驗結果驗證了模型的良好的性能。

分享人:徐衍鈺,上??萍即髮W信息學院三年級博士生,導師為高盛華教授。2011年本科畢業(yè)于大連理工大學。主要研究方向為計算機視覺,例如顯著性分析、人臉對齊等。

 報名方式 

掃描二維碼備注「雷鋒網」立即報名活動。

【預告】常青藤名校嘉賓來了!一周4場學術公開課,干貨太多完全聽不過來……

雷峰網原創(chuàng)文章,未經授權禁止轉載。詳情見轉載須知。

【預告】常青藤名校嘉賓來了!一周4場學術公開課,干貨太多完全聽不過來……

分享:
相關文章
當月熱門文章
最新文章
請?zhí)顚懮暾埲速Y料
姓名
電話
郵箱
微信號
作品鏈接
個人簡介
為了您的賬戶安全,請驗證郵箱
您的郵箱還未驗證,完成可獲20積分喲!
請驗證您的郵箱
立即驗證
完善賬號信息
您的賬號已經綁定,現(xiàn)在您可以設置密碼以方便用郵箱登錄
立即設置 以后再說