丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號(hào)安全和更好的產(chǎn)品體驗(yàn),強(qiáng)烈建議使用更快更安全的瀏覽器
此為臨時(shí)鏈接,僅用于文章預(yù)覽,將在時(shí)失效
人工智能學(xué)術(shù) 正文
發(fā)私信給AI研習(xí)社
發(fā)送

0

今日 Paper | 弱監(jiān)督目標(biāo)的定位;遞歸殘差卷積神經(jīng)網(wǎng)絡(luò);嵌套U-Net結(jié)構(gòu);超強(qiáng)小目標(biāo)檢測(cè)等

本文作者: AI研習(xí)社 2020-03-13 15:31
導(dǎo)語:為了更好地服務(wù)廣大 AI 青年,AI 研習(xí)社正式推出全新「論文」版塊。

今日 Paper | 弱監(jiān)督目標(biāo)的定位;遞歸殘差卷積神經(jīng)網(wǎng)絡(luò);嵌套U-Net結(jié)構(gòu);超強(qiáng)小目標(biāo)檢測(cè)等

  目錄

重新思考通往弱監(jiān)督目標(biāo)的定位

基于U-Net(R2U-Net)的遞歸殘差卷積神經(jīng)網(wǎng)絡(luò)在醫(yī)學(xué)圖像分割中的應(yīng)用

UNet++: 一種醫(yī)學(xué)圖像分割的嵌套U-Net結(jié)構(gòu)

使用基于雙譜的深度卷積神經(jīng)網(wǎng)絡(luò)對(duì)非線性時(shí)間序列進(jìn)行分類

hAttention-RPN和Multi-Relation的超強(qiáng)小目標(biāo)檢測(cè)

  重新思考通往弱監(jiān)督目標(biāo)的定位

論文名稱:Rethinkingthe Route Towards Weakly SupervisedObject Localization

作者:Chen-Lin Zhang

發(fā)表時(shí)間:2020/3/3

論文鏈接:https://paper.yanxishe.com/review/13532?from=leiphonecolumn_paperreview0313

推薦原因

本文為2020CVPR的文章。針對(duì)目前弱監(jiān)督目標(biāo)定位方法的問題,本論文提出了偽監(jiān)督目標(biāo)定位方法(PSOL)來解決當(dāng)下研究的困境。作者分別從定位和分類兩方面來搭建偽監(jiān)督目標(biāo)定位的網(wǎng)絡(luò),接著在訓(xùn)練集上使用Deep descriptor transformation(DDT)生成偽GT進(jìn)行訓(xùn)練,整體效果達(dá)到SOTA。

 該論文主要有三點(diǎn)貢獻(xiàn):

一、提出了偽監(jiān)督目標(biāo)定位PSOL算法;

二、通過實(shí)驗(yàn)驗(yàn)證,該算法在不同數(shù)據(jù)集上不需要fine-tuning也能有很好的定位遷移能力。

今日 Paper | 弱監(jiān)督目標(biāo)的定位;遞歸殘差卷積神經(jīng)網(wǎng)絡(luò);嵌套U-Net結(jié)構(gòu);超強(qiáng)小目標(biāo)檢測(cè)等
今日 Paper | 弱監(jiān)督目標(biāo)的定位;遞歸殘差卷積神經(jīng)網(wǎng)絡(luò);嵌套U-Net結(jié)構(gòu);超強(qiáng)小目標(biāo)檢測(cè)等

  基于U-Net(R2U-Net)的遞歸殘差卷積神經(jīng)網(wǎng)絡(luò)在醫(yī)學(xué)圖像分割中的應(yīng)用

論文名稱:Recurrent Residual Convolutional Neural Network based on U-Net (R2U-Net) for Medical Image Segmentation

作者:Alom Md Zahangir /Hasan Mahmudul /Yakopcic Chris /Taha Tarek M. /Asari Vijayan K.

發(fā)表時(shí)間:2018/2/20

論文鏈接:https://paper.yanxishe.com/review/13551?from=leiphonecolumn_paperreview0313

推薦原因

本文作者提出了一種基于U-Net的遞歸卷積神經(jīng)網(wǎng)絡(luò)(RCNN)和一種基于U-Net模型的遞歸殘差卷積神經(jīng)網(wǎng)絡(luò)(RRCNN),分別稱為RU-Net和R2U-Net。提出的模型利用了U-Net,殘差網(wǎng)絡(luò)和RCNN。首先,殘差單元在訓(xùn)練深度架構(gòu)時(shí)會(huì)有所幫助。其次,具有遞歸殘差卷積層的特征對(duì)分割任務(wù)具有更好的特征表示。第三,它使我們能夠設(shè)計(jì)出具有相同數(shù)量網(wǎng)絡(luò)參數(shù)的更好U-Net架構(gòu),并具有更好的醫(yī)學(xué)圖像分割性能。

今日 Paper | 弱監(jiān)督目標(biāo)的定位;遞歸殘差卷積神經(jīng)網(wǎng)絡(luò);嵌套U-Net結(jié)構(gòu);超強(qiáng)小目標(biāo)檢測(cè)等
今日 Paper | 弱監(jiān)督目標(biāo)的定位;遞歸殘差卷積神經(jīng)網(wǎng)絡(luò);嵌套U-Net結(jié)構(gòu);超強(qiáng)小目標(biāo)檢測(cè)等

  UNet++: 一種醫(yī)學(xué)圖像分割的嵌套U-Net結(jié)構(gòu)

論文名稱:UNet++: A Nested U-Net Architecture for Medical Image Segmentation

作者:Zongwei Zhou / Md Mahfuzur Rahman Siddiquee / Nima Tajbakhsh / Jianming Liang

發(fā)表時(shí)間:2018/7/18

論文鏈接:https://paper.yanxishe.com/review/13550?from=leiphonecolumn_paperreview0313

推薦原因

文章是2018年在MICCAI中發(fā)表的UNet++,對(duì)Unet改進(jìn)的點(diǎn)主要是skip connection。作者認(rèn)為skip connection 直接將unet中encoder的淺層特征與decoder的深層特征結(jié)合是不妥當(dāng)?shù)?,?huì)產(chǎn)生semantic gap。整篇文章的一個(gè)假設(shè)就是,當(dāng)所結(jié)合的淺層特征與深層特征是semantically similar時(shí),網(wǎng)絡(luò)的優(yōu)化問題就會(huì)更簡(jiǎn)單,因此文章對(duì)skip connection的改進(jìn)就是想bridge/reduce 這個(gè)semantic gap。

今日 Paper | 弱監(jiān)督目標(biāo)的定位;遞歸殘差卷積神經(jīng)網(wǎng)絡(luò);嵌套U-Net結(jié)構(gòu);超強(qiáng)小目標(biāo)檢測(cè)等
今日 Paper | 弱監(jiān)督目標(biāo)的定位;遞歸殘差卷積神經(jīng)網(wǎng)絡(luò);嵌套U-Net結(jié)構(gòu);超強(qiáng)小目標(biāo)檢測(cè)等

  使用基于雙譜的深度卷積神經(jīng)網(wǎng)絡(luò)對(duì)非線性時(shí)間序列進(jìn)行分類

論文名稱:Nonlinear Time Series Classification Using Bispectrum-based Deep Convolutional Neural Networks

作者:Paul A. Parker /Scott H. Holan /Nalini Ravishanker

發(fā)表時(shí)間:2020/3/4

論文鏈接:https://paper.yanxishe.com/review/13522?from=leiphonecolumn_paperreview0313

推薦原因

1 核心問題:

在時(shí)間序列的分析上,學(xué)術(shù)界已經(jīng)擁有豐富的研究基礎(chǔ)和歷史,由于假設(shè)基本過程為線性,絕大多數(shù)現(xiàn)有的方法只依賴于時(shí)間序列的一階和二階屬性。然而,非線性數(shù)據(jù)在現(xiàn)實(shí)世界卻普遍存在,針對(duì)此種情況,本文主要解決了對(duì)非線性時(shí)間序列分類的問題。

2 創(chuàng)新點(diǎn):

此前,并沒有使用高階頻譜分析(HOSA)對(duì)商業(yè)和工業(yè)的時(shí)間序列數(shù)據(jù)進(jìn)行統(tǒng)計(jì)分類的相關(guān)研究。本文主要提出一種將高階頻譜分析(HOSA)和深度神經(jīng)網(wǎng)絡(luò)(DCNN)結(jié)合起來,對(duì)非線性時(shí)間序列進(jìn)行分類的方法。同時(shí),還利用了貝葉斯神經(jīng)網(wǎng)絡(luò),對(duì)非線性時(shí)間序列數(shù)據(jù)進(jìn)行不確定性度量。在實(shí)驗(yàn)部分,本文(1)實(shí)現(xiàn)了谷歌趨勢(shì)數(shù)據(jù)的分類(2)實(shí)現(xiàn)了基于用電耗費(fèi)量對(duì)家庭電器的分類。

3 研究意義:

面對(duì)非線性時(shí)間序列的現(xiàn)有有效分類方法的不足,以及非線性時(shí)間序列數(shù)據(jù)在現(xiàn)實(shí)生活中普遍存在的事實(shí),本文提出了一種非線性時(shí)間序列分類的方法。此方法(1)有利于不確定度量(2)可以容納高維數(shù)據(jù)結(jié)構(gòu),避免進(jìn)行高耗費(fèi)的蒙特卡洛馬爾可夫鏈的計(jì)算(3)實(shí)現(xiàn)了特征提取的變體,此變體可以通過識(shí)別用來確定類別概率的關(guān)鍵頻率來進(jìn)行推理。

今日 Paper | 弱監(jiān)督目標(biāo)的定位;遞歸殘差卷積神經(jīng)網(wǎng)絡(luò);嵌套U-Net結(jié)構(gòu);超強(qiáng)小目標(biāo)檢測(cè)等
今日 Paper | 弱監(jiān)督目標(biāo)的定位;遞歸殘差卷積神經(jīng)網(wǎng)絡(luò);嵌套U-Net結(jié)構(gòu);超強(qiáng)小目標(biāo)檢測(cè)等

  hAttention-RPN和Multi-Relation的超強(qiáng)小目標(biāo)檢測(cè)

論文名稱:Few-Shot Object Detection with Attention-RPN and Multi-Relation Detector

作者:Qi Fan?

發(fā)表時(shí)間:2019/12/23

論文鏈接:https://paper.yanxishe.com/review/13530?from=leiphonecolumn_paperreview0313

推薦原因

研究意義:

本文主要研究的是如何對(duì)少樣本目標(biāo)進(jìn)行檢測(cè),在此基礎(chǔ)上,作者提出了一種包括Attention-RPN、多關(guān)系檢測(cè)器以及對(duì)比訓(xùn)練策略的檢測(cè)算法,為后續(xù)研究提供了新的思路。

創(chuàng)新點(diǎn):

1、提出了新的少樣本目標(biāo)檢測(cè)算法,創(chuàng)新點(diǎn)包括Attention-RPN、多關(guān)系檢測(cè)器以及對(duì)比訓(xùn)練策略。

2、構(gòu)建了包含1000類的少樣本檢測(cè)數(shù)據(jù)集FSOD,在FSOD上訓(xùn)練得到的論文模型能夠直接遷移到新類別的檢測(cè)中,不需要fine-tune。

今日 Paper | 弱監(jiān)督目標(biāo)的定位;遞歸殘差卷積神經(jīng)網(wǎng)絡(luò);嵌套U-Net結(jié)構(gòu);超強(qiáng)小目標(biāo)檢測(cè)等
今日 Paper | 弱監(jiān)督目標(biāo)的定位;遞歸殘差卷積神經(jīng)網(wǎng)絡(luò);嵌套U-Net結(jié)構(gòu);超強(qiáng)小目標(biāo)檢測(cè)等


今日 Paper | 弱監(jiān)督目標(biāo)的定位;遞歸殘差卷積神經(jīng)網(wǎng)絡(luò);嵌套U-Net結(jié)構(gòu);超強(qiáng)小目標(biāo)檢測(cè)等

雷鋒網(wǎng)雷鋒網(wǎng)雷鋒網(wǎng)

相關(guān)文章:

今日 Paper | 神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)搜索;視覺目標(biāo);人物識(shí)別;視頻3D人體姿態(tài)估計(jì)等

雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知

今日 Paper | 弱監(jiān)督目標(biāo)的定位;遞歸殘差卷積神經(jīng)網(wǎng)絡(luò);嵌套U-Net結(jié)構(gòu);超強(qiáng)小目標(biāo)檢測(cè)等

分享:

編輯

聚焦數(shù)據(jù)科學(xué),連接 AI 開發(fā)者。更多精彩內(nèi)容,請(qǐng)?jiān)L問:yanxishe.com
當(dāng)月熱門文章
最新文章
請(qǐng)?zhí)顚懮暾?qǐng)人資料
姓名
電話
郵箱
微信號(hào)
作品鏈接
個(gè)人簡(jiǎn)介
為了您的賬戶安全,請(qǐng)驗(yàn)證郵箱
您的郵箱還未驗(yàn)證,完成可獲20積分喲!
請(qǐng)驗(yàn)證您的郵箱
立即驗(yàn)證
完善賬號(hào)信息
您的賬號(hào)已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
立即設(shè)置 以后再說