0
本文作者: 叢末 | 2019-10-29 14:04 | 專題:ICCV 2019 |
雷鋒網(wǎng) AI 科技評(píng)論:10 月 27 日至 11 月 2 日,兩年一屆的 ICCV 2019 來(lái)到韓國(guó)首爾,選址 COEX 會(huì)展中心舉行。嚴(yán)謹(jǐn)且嚴(yán)肅的國(guó)際頂級(jí)學(xué)術(shù)會(huì)議與充滿著熱情與活力的首爾將在這個(gè)楓葉開(kāi)得正紅的季節(jié)碰撞出怎樣的火花呢?雷鋒網(wǎng) AI 科技評(píng)論在現(xiàn)場(chǎng)帶大家一起看!
29 日,經(jīng)過(guò) 2 天 Workshop 和 Tutorial 的前期預(yù)熱和醞釀,ICCV 2019 開(kāi)幕式在籠罩著一片溫煦秋陽(yáng)的清晨如期而至。
開(kāi)幕式開(kāi)始前,幾位主席在臺(tái)上合影
韓國(guó)時(shí)間八點(diǎn)四十五一到,ICCV 2019 四位大會(huì)主席(General Chair)之一、首爾大學(xué)(Seoul National University)教授 Kyoung Mu Lee 上臺(tái)宣布會(huì)議開(kāi)幕并進(jìn)行開(kāi)幕致辭。他首先逐一介紹并感謝了包括其它大會(huì)主席、程序主席,并向其他各領(lǐng)域的主席們致謝。
說(shuō)到中途,他話鋒一轉(zhuǎn)向臺(tái)下各位寒暄到「這幾天首爾是不是很冷?」臺(tái)下一片掌聲和歡笑聲后,他接著簡(jiǎn)單介紹了本次 ICCV 的整體數(shù)據(jù)。正如之前所報(bào)道的,今年 ICCV 共收到 4303 篇投稿,最終收錄了 1075 篇,雖然整體數(shù)據(jù)都有所提高的,但是由于分母——總投稿量的大幅增加,今年收錄率為 25%,比去年 28.9% 的收錄率要低上不少。
而今年參會(huì)人數(shù)的數(shù)據(jù)非常驚人驚訝:人數(shù)達(dá) 7501 人,比去年增加了 2.41 倍之多!而值得一提的是,今年參會(huì)人數(shù)中有 2964 位來(lái)自韓國(guó),1264 位來(lái)自中國(guó),1199 位來(lái)自美國(guó)以及 260 位來(lái)自日本,從這些數(shù)據(jù)來(lái)看,臨近國(guó)才是最「捧場(chǎng)」的區(qū)域所在呀!
雖然 ICCV 的贊助商數(shù)量不如今年 CVPR 那么壯觀,但數(shù)據(jù)相比于其他學(xué)術(shù)頂會(huì)而言,也算不錯(cuò),獲得了 56 家企業(yè)的贊助以及 72 家展商參展。
UIUC 副教授 Svetlana Lazebnik 作為 ICCV 2019 的程序主席之一,隨后對(duì)今年 ICCV 的論文情況進(jìn)行了解說(shuō)。今年的 4303 篇投稿,相比去年增加了一倍,其中參與論文的作者人數(shù)達(dá) 1 萬(wàn)人;最終接受論文數(shù)為 1075 篇,收錄比為 25%,其中包括 200 篇 Oral 論文,并且所有 Oral 論文都如 CVPR 2019 一樣——都為短論文。
從論文主題來(lái)看,最熱門的關(guān)鍵詞如圖所示,排在前幾位的依次是 Learning、Image、Network、Deep、3D、Object 等,這也反映了該領(lǐng)域內(nèi)研究人員們對(duì)于各個(gè)細(xì)分課題的關(guān)注程度。
從論文的區(qū)域分布來(lái)看,今年接收論文數(shù)量最多的國(guó)家是中國(guó),超過(guò) 350 篇,其次是美國(guó)、德國(guó)、韓國(guó)和英國(guó)。在這組數(shù)據(jù)發(fā)布前,大家都知道這次華人研究者表現(xiàn)很好,但不知道論文收錄數(shù)量比美國(guó)還多!
而這些論文被收錄的背后,同樣的也離不開(kāi)程序委員會(huì)的工作。據(jù) Svetlana Lazebnik 介紹,今年除了 4 位程序主席,還安排了 172 位領(lǐng)域主席以及 2506 位審稿人參與論文評(píng)審,其中,每位領(lǐng)域主席需要評(píng)審的論文為 20 至 30 篇,而 2506 位審稿人有 68% 的研究者或高校教師和 32% 的學(xué)生組成,各自需要評(píng)審的論文分別最多達(dá) 9 篇、5 篇。
緊接著,開(kāi)幕式迎來(lái)了高潮環(huán)節(jié)——公布獎(jiǎng)項(xiàng)!
獎(jiǎng)項(xiàng)中最受關(guān)注的最佳論文獎(jiǎng)(Best Paper Award)、最佳學(xué)生論文獎(jiǎng)(Best Student Paper Award)、最佳論文提名獎(jiǎng)(Best Paper Honorable Mentions)、以及最佳論文一般提名(Best Paper Nomination)繼續(xù)由 Svetlana Lazebnik 公布。
一、最佳論文獎(jiǎng)
1、最佳論文獎(jiǎng)(Marr 獎(jiǎng))
本屆最佳論文獎(jiǎng)(Marr獎(jiǎng))為《SinGAN: Learning a Generative Model from a Single Natural Image》,論文第一作者Tamar Rott Shaham來(lái)自以色列理工(Technion):
SinGAN: Learning a Generative Model from a Single Natural Image
SinGAN:從單張自然圖像學(xué)習(xí)生成式模型
作者:Tamar Rott Shaham, Tali Dekel, Tomer Michaeli
單位:Technion(以色列理工), Google
論文地址:https://arxiv.org/abs/1905.01164
論文摘要:作者們提出了 SinGAN,這是一個(gè)可以從單張自然圖像學(xué)習(xí)的非條件性生成式模型。這個(gè)模型可以捕捉給定圖像中各個(gè)小塊內(nèi)的內(nèi)在分布,接著就能夠生成帶有和給定圖像中的視覺(jué)內(nèi)容相同的高質(zhì)量且多樣的新圖像。SinGAN的結(jié)構(gòu)是多個(gè)全卷積GANs組成的金字塔,這些全卷積GANs都負(fù)責(zé)學(xué)習(xí)圖像中的某個(gè)小塊中的數(shù)據(jù)分布,不同的GANs學(xué)習(xí)的小塊的大小不同。
這種設(shè)計(jì)可以讓它生成具有任意大小和比例的新圖像,這些新圖像在具有給定的訓(xùn)練圖像的全局結(jié)構(gòu)和細(xì)節(jié)紋理的同時(shí),還可以有很高的可變性。與此前的從單張圖像學(xué)習(xí)GAN的研究不同的是,作者們的這個(gè)方法不僅僅可以學(xué)習(xí)圖像中的紋理,而且是一個(gè)非條件性模型(也就是說(shuō)它是從噪聲生成圖像的)。作者們做實(shí)驗(yàn)讓人分辨原始圖像和生成的圖像,結(jié)果表明很難區(qū)分。作者們也在多種圖像操控任務(wù)中展示了SinGAN的作用。
2、最佳學(xué)生論文獎(jiǎng)
最佳學(xué)生論文的第一作者 Timothy Duff 來(lái)自佐治亞理工學(xué)院。
PLMP -- Point-Line Minimal Problems in Complete Multi-View Visibility
PLMP —— 多視角完全可見(jiàn)條件下的點(diǎn)-線極小問(wèn)題研究
作者:Timothy Duff, Kathlén Kohn, Anton Leykin, Tomas Pajdla
單位:Georgia Tech(佐治亞理工學(xué)院),KTH(瑞典皇家理工學(xué)院),Czech Technical University in Prague(布拉格捷克理工大學(xué))
論文地址:https://arxiv.org/abs/1903.10008
論文摘要:極小問(wèn)題(minimal problem)指在三維重建過(guò)程中根據(jù)給定圖像反解出攝像頭的姿態(tài)和世界坐標(biāo),而且要求隨機(jī)給定的輸入樣本可以得到有限數(shù)目的解。在這篇論文中,作者們以觀察者相機(jī)經(jīng)過(guò)矯正、圖中一般的點(diǎn)和線全部可見(jiàn)為條件,對(duì)所有的極小問(wèn)題進(jìn)行了分類。
作者們表明,極小問(wèn)題一共只有30種,對(duì)于有超過(guò)6個(gè)相機(jī)、或者超過(guò)5個(gè)點(diǎn)、超過(guò)6條線的情況,極小問(wèn)題都是可解的。作者們進(jìn)行了一系列檢測(cè)極小性的測(cè)試,從對(duì)自由度計(jì)數(shù)開(kāi)始,最終對(duì)有代表性的樣本進(jìn)行了完整的符號(hào)和數(shù)值驗(yàn)證。對(duì)于所有發(fā)現(xiàn)的極小問(wèn)題,作者們都給出了它們的代數(shù)度數(shù),即解的數(shù)目,這也是問(wèn)題的本征難度的衡量指標(biāo);從這里可以看出隨著視角數(shù)目的增加,問(wèn)題的難度是如何變化的。一個(gè)重要的點(diǎn)是,一些新出現(xiàn)的極小問(wèn)題其實(shí)只有很小的代數(shù)度數(shù),這意味著它們可以在圖像匹配和三維重建任務(wù)中得到實(shí)際應(yīng)用。
3、最佳論文榮譽(yù)提名(Best paper Honorable Mentions)
共有兩篇論文被榮譽(yù)提名,如下:
最佳論文榮譽(yù)提名 1
Asynchronous Single-Photon 3D Imaging
非同步單光子3D成像
作者:Anant Gupta, Atul Ingle, Mohit Gupta
單位:University of Wisconsin-Madison(威斯康星大學(xué)麥迪遜分校)
論文地址:https://arxiv.org/abs/1908.06372
論文摘要:?jiǎn)喂庾友┍蓝O管(SPAD)在基于飛行時(shí)間(time-of-flight)的深度測(cè)量中得到了越來(lái)越多的應(yīng)用,因?yàn)樗鼈兙哂幸云っ刖炔蹲絾蝹€(gè)光子的獨(dú)特能力。不過(guò),環(huán)境光照(比如陽(yáng)光)會(huì)對(duì)基于SPAD的3D相機(jī)產(chǎn)生干擾,給捕捉到的波形帶來(lái)嚴(yán)重的非線性失真(連續(xù)命中),總而造成深度測(cè)量錯(cuò)誤。作者們?cè)谡撐闹刑岢隽诵碌姆峭绞絾喂庾?D成像,這是一類可以緩解光子捕捉過(guò)程中的連續(xù)命中問(wèn)題的新的捕捉模式。非同步捕捉捕捉模式會(huì)根據(jù)預(yù)定義的、或者隨機(jī)設(shè)定的偏移量,故意短期錯(cuò)過(guò)激光發(fā)射到SPAD測(cè)量的時(shí)間窗口。
作者們這樣做的考慮是,如果選擇一系列時(shí)間窗口的偏移量,讓這些偏移量可以對(duì)應(yīng)全部的測(cè)量深度,那么他們就可以根據(jù)沒(méi)有發(fā)射激光的時(shí)候收集到的信號(hào)(看作本底噪聲)把正常采集信號(hào)中的干擾部分抵消掉。作者們開(kāi)發(fā)了一個(gè)通用的圖像成像模型,并進(jìn)行了理論分析,探索非同步采集模式的各種可能的做法,并找到具有很好表現(xiàn)的模式。作者們的仿真實(shí)驗(yàn)和實(shí)際實(shí)驗(yàn)都表明了他們的方法相比于當(dāng)前最優(yōu)秀的方法可以在各種成像條件下(尤其是具有強(qiáng)烈環(huán)境光照的)都帶來(lái)深度檢測(cè)精度提升,最高可以提升一個(gè)數(shù)量級(jí)。
最佳論文榮譽(yù)提名 2
Specifying Object Attributes and Relations in Interactive Scene Generation
從交互性的場(chǎng)景生成中指定物體屬性和關(guān)系
作者:Oron Ashual, Lior Wolf
單位:Tel-Aviv University(以色列特拉維夫大學(xué))
論文地址:https://arxiv.org/abs/1909.05379
論文摘要:作者們提出了一種從場(chǎng)景圖(scene graph)輸入生成圖像的方法。這個(gè)方法會(huì)分別生成一個(gè)布局嵌入和一個(gè)外觀嵌入。在兩個(gè)嵌入的共同作用下,生成的圖像可以更好地匹配輸入的場(chǎng)景圖,有更高的視覺(jué)質(zhì)量,而且能支持更復(fù)雜的場(chǎng)景圖。
除此之外,這個(gè)嵌入方法支持為同一個(gè)場(chǎng)景圖生成多個(gè)不同的輸出圖像,用戶也能控制這個(gè)生成過(guò)程。作者們展示了兩種控制圖像中的物體的方法:1,參照其他的圖像中的元素;2,在物體空間中導(dǎo)覽,找到外觀原型。作者們把代碼開(kāi)源在了 http://github.com/ashual/scene_generation。
4、最佳論文提名
本屆最佳論文提名共有 7 篇文章,其中僅有兩篇一作為華人,其一是來(lái)自中山大學(xué)的Ruijia Xu,另一位則是斯坦福大學(xué)的Chengxu Zhuang。當(dāng)然何愷明團(tuán)隊(duì)也獲得了提名。
最佳論文一般提名1:
Larger Norm More Transferable: An Adaptive Feature Norm Approach for Unsupervised Domain Adaptation
更大的常態(tài)有更好的可遷移性:用于無(wú)監(jiān)督領(lǐng)域適應(yīng)的一種自適應(yīng)特征常態(tài)方法
作者:Ruijia Xu, Guanbin Li, Jihan Yang, Liang Lin
單位:Sun Yat-sen University(中山大學(xué))、DarkMatter AI Research
鏈接:https://arxiv.org/abs/1811.07456
最佳論文一般提名 2:
Deep Hough Voting for 3D Object Detection in Point Clouds
用于點(diǎn)云中的三維物體檢測(cè)的深度Hough投票方法
作者:Charles R. Qi, Or Litany, Kaiming He(何愷明), Leonidas J. Guibas
單位:Facebook AI Research,Stanford University
鏈接:https://arxiv.org/abs/1904.09664
最佳論文一般提名 3:
Unsupervised Deep Learning for Structured Shape Matching
用于結(jié)構(gòu)形狀匹配的無(wú)監(jiān)督深度學(xué)習(xí)方法
作者:Jean-Michel Roufosse, Abhishek Sharma, Maks Ovsjanikov
單位:LIX,Ecole Polytechnique(巴黎綜合理工大學(xué))
鏈接:https://arxiv.org/abs/1812.03794
最佳論文一般提名 4:
Gated2Depth: Real-time Dense Lidar from Gated Images
Gated2Depth:從門圖像實(shí)時(shí)生成雷達(dá)質(zhì)量的密度圖像
作者:Tobias Gruber, Frank Julca-Aguilar, Mario Bijelic, Werner Ritter, Klaus Dietmayer, Felix Heide
單位:Daimler AG(戴姆勒), Algolux, Ulm University(德國(guó)烏爾姆大學(xué)), Princeton University
鏈接:https://arxiv.org/abs/1902.04997
最佳論文一般提名 5:
Local Aggregation for Unsupervised Learning of Visual Embeddings
視覺(jué)嵌入中無(wú)監(jiān)督學(xué)習(xí)的局部聚合
作者:Chengxu Zhuang, Alex Lin Zhai, Daniel Yamins
單位:Stanford University
鏈接:https://arxiv.org/abs/1903.12355
最佳論文一般提名 6:
Habitat: A Platform for Embodied AI Research
Habitat:一個(gè)實(shí)體AI研究平臺(tái)
作者:Manolis Savva, Abhishek Kadian, Oleksandr Maksymets, Yili Zhao, Erik Wijmans, Bhavana Jain, Julian Straub, Jia Liu, Vladlen Koltun, Jitendra Malik, Devi Parikh, Dhruv Batra
單位:Facebook AI Research, Facebook Reality Labs, Georgia Institute of Technology, Simon Fraser University, Intel Labs, UC Berkeley
鏈接:https://arxiv.org/abs/1904.01201
最佳論文一般提名 7:
Robust Change Captioning
魯棒的場(chǎng)景變化說(shuō)明
作者:Dong Huk Park, Trevor Darrell, Anna Rohrbach
University of California, Berkeley
鏈接:https://arxiv.org/abs/1901.02527
二、PAMI TC 獎(jiǎng)項(xiàng)
這幾項(xiàng)重磅獎(jiǎng)項(xiàng)揭曉后,PAMI 服務(wù)主席 Bryan Morse 上臺(tái)頒布四大 PAMI TC 獎(jiǎng)項(xiàng),包括 Helmholtz 獎(jiǎng)、Everingham 獎(jiǎng)、Azriel Rosenfeld 終身成就獎(jiǎng)以及杰出研究者獎(jiǎng)。
1、Helmholtz Prize
該獎(jiǎng)項(xiàng)以 19 世紀(jì)物理學(xué)家赫爾曼·馮·赫姆霍茲(Hermann von Helmholtz)命名,每?jī)赡觐C發(fā)一次,旨在表彰在計(jì)算機(jī)視覺(jué)領(lǐng)域做出的基礎(chǔ)性貢獻(xiàn),且只頒發(fā)給 10 年前在 ICCV 上發(fā)表且產(chǎn)生重大影響的論文。本屆共有兩篇發(fā)表于 2009 年的論文入選,分別為:
1)Building Rome in a Day(華盛頓大學(xué))
2)Attribute and Simile Classifiers for Face Verification(哥倫比亞大學(xué))
2、Everingham Prize
該獎(jiǎng)項(xiàng)用來(lái)紀(jì)念 Mark Everingham,并鼓勵(lì)其他研究者和他一樣推動(dòng)整個(gè)計(jì)算機(jī)視覺(jué)領(lǐng)域的進(jìn)步。這個(gè)獎(jiǎng)會(huì)頒發(fā)給一位研究人員,或者是一個(gè)研究團(tuán)隊(duì);評(píng)獎(jiǎng)標(biāo)準(zhǔn)是,他們?yōu)橛?jì)算機(jī)視覺(jué)大家庭中的別的成員作出了重大的、無(wú)私的貢獻(xiàn)。這次也頒發(fā)了兩個(gè)獎(jiǎng)。
第一個(gè)獎(jiǎng)?lì)C發(fā)給了單個(gè)研究員,獲獎(jiǎng)?wù)呤?Gerard Medioni
頒獎(jiǎng)詞:他在過(guò)去的幾十年中為 CVPR 和 ICCV 會(huì)議的組織提供了充分的、持續(xù)的幫助,還為整個(gè) CV 大家庭提供了很多其它的服務(wù)。除此之外,他設(shè)計(jì)了會(huì)議和 workshop 使用的統(tǒng)一護(hù)照注冊(cè)系統(tǒng),還是計(jì)算機(jī)視覺(jué)基金會(huì) CVF 的聯(lián)合創(chuàng)始人之一。
第二個(gè)獎(jiǎng)項(xiàng)頒發(fā)給了 2007 年提出了 LFW 人臉識(shí)別數(shù)據(jù)集,并在此后舉辦 LFW 人臉識(shí)別比賽并持續(xù)維護(hù)的團(tuán)隊(duì)。LFW 數(shù)據(jù)集幫助整個(gè)領(lǐng)域向著更缺乏條件控制的、更面向真實(shí)世界情境的人臉識(shí)別技術(shù)進(jìn)行研究。
3、Azriel Rosenfeld 終身成就獎(jiǎng)
Azriel Rosenfeld 終身成就獎(jiǎng)是在里約熱內(nèi)盧舉辦的 ICCV 2007 上設(shè)立的,以表彰那些在長(zhǎng)期職業(yè)生涯中對(duì)計(jì)算機(jī)視覺(jué)領(lǐng)域做出了杰出貢獻(xiàn)的研究人員。該獎(jiǎng)?wù)乱约o(jì)念已故的計(jì)算機(jī)科學(xué)家和數(shù)學(xué)家教授 Azriel Rosenfeld。
本屆獲獎(jiǎng)?wù)邽橐陨形浩澛茖W(xué)研究所(Weizmann Institute of Science, Israel)的 Shimon Ullman 教授。
Ullman 出生于 1948 年,并于 1977 年在 MIT 獲得博士學(xué)位,師從計(jì)算機(jī)視覺(jué)之父 David Marr。其主要研究領(lǐng)域?yàn)槿伺c機(jī)器視覺(jué)處理的研究。具體來(lái)說(shuō),他專注于物體和面部識(shí)別,并在該領(lǐng)域取得了許多重要見(jiàn)解,包括與 Christof Koch 一起在哺乳動(dòng)物視覺(jué)系統(tǒng)中建立了視覺(jué)顯著圖,以調(diào)節(jié)選擇性的空間注意力。
4、杰出研究者獎(jiǎng)(Distinguished Researcher Award)
杰出研究者獎(jiǎng)(Distinguished Researcher Award)授予 MIT 的 William T. Freeman 與哥倫比亞大學(xué)的 Shree Nayar 兩人。
William T.Freeman 現(xiàn)就職于 MIT。研究領(lǐng)域包括應(yīng)用于 CV 的 ML、可視化感知的貝葉斯模型、計(jì)算攝影學(xué)等。其最有影響力的研究成果是與 Alex Efros 在 2001 年 SIGGRAPH 上發(fā)表了」Image quilting for texture synthesis and transfer」,其思想是從已知圖像中獲得小塊,然后將這些小塊拼接 mosaic 一起,形成新的圖像。該算法也是圖像紋理合成中經(jīng)典中的經(jīng)典。
Shree Nayar 現(xiàn)就職于哥倫比亞大學(xué)。其研究領(lǐng)域主要在新型相機(jī)的創(chuàng)建、基于物理的視覺(jué)模型和圖像理解算法。Nayar 曾提出了計(jì)算攝影學(xué)的概念,也是計(jì)算攝影領(lǐng)域的先驅(qū)人物。曾于 1990 年和 1995 年先后獲得兩次 Marr 獎(jiǎng),是當(dāng)時(shí)計(jì)算機(jī)視覺(jué)領(lǐng)域炙手可熱的青年學(xué)者之一。
最后,Kyoung Mu Lee 再次站上舞臺(tái)專程為各參會(huì)者介紹了一份「官方參會(huì)指南」,包括整個(gè)會(huì)場(chǎng)的分布情況、社交活動(dòng)、注意事項(xiàng),乃至于去哪里用餐、如何連接 WIFI 等等事宜,讓人倍感溫暖。
在會(huì)議召開(kāi)之前,隨著華人學(xué)者在 ICCV 2019 再度取得的一系列傲人成績(jī)的相關(guān)消息相繼出爐,各位關(guān)注 ICCV 動(dòng)態(tài)的同學(xué)們想必也對(duì)今年將于中國(guó)鄰國(guó)——韓國(guó)召開(kāi)的 ICCV 2019 充滿了期待。而本次會(huì)議中,無(wú)論是在各大議程和競(jìng)賽中頻頻刷臉的華人面孔,還是張貼在展廳各個(gè)角落的寫著華人作者姓名的 poster,更是讓今年在異國(guó)參會(huì)的華人研究者們?cè)谛牡子苛髦还蓾鉂獾淖院栏?。AI 科技評(píng)論記者站在人潮如流的參會(huì)人群中,也切身地感受著這一切。
然而,在與去年「何愷明包攬全部?jī)身?xiàng)最佳論文獎(jiǎng)」光環(huán)的比照下,今年華人在獎(jiǎng)項(xiàng)上的表現(xiàn)略顯慘淡:除了中山大學(xué)的《Larger Norm More Transferable: An Adaptive Feature Norm Approach for Unsupervised Domain Adaptation》和何愷明參與的一篇論文《Deep Hough Voting for 3D Object Detection in Point Clouds》入選最佳論文一般提名,其他獲獎(jiǎng)?wù)叨紴榉侨A人學(xué)者。這也給所有參加會(huì)議的華人學(xué)者心中留下了些許的遺憾。
接下來(lái),雷鋒網(wǎng) AI 科技評(píng)論還將在現(xiàn)場(chǎng)與一系列計(jì)算機(jī)視覺(jué)領(lǐng)域的大佬級(jí)研究者進(jìn)行交流,例如今年 CVPR 最佳學(xué)生論文一作王鑫,去年包攬大會(huì)全部?jī)身?xiàng) Best Paper Award 的何愷明,以及顏水成、孫劍、林達(dá)華、程明明、盧湖川等一眾大家熟悉的「老面孔」們,為大家?guī)?lái)特別報(bào)道,請(qǐng)大家持續(xù)關(guān)注!
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見(jiàn)轉(zhuǎn)載須知。
本專題其他文章