1
本文作者: no name | 2016-09-25 15:16 |
近日,谷歌發(fā)布了最新版機(jī)器學(xué)習(xí)系統(tǒng),通過(guò)識(shí)別圖像中的內(nèi)容,配上對(duì)應(yīng)文字,效果達(dá)到了歷史最佳。谷歌已經(jīng)在 TensorFlow 上開(kāi)源了這項(xiàng)成果。自 2014 年以來(lái),谷歌一直致力于這個(gè)項(xiàng)目,現(xiàn)在這個(gè)算法描述圖像的準(zhǔn)確率已經(jīng)高達(dá) 93.9% 。
因?yàn)樗麄冋谑褂靡粋€(gè)使用一個(gè)開(kāi)始架構(gòu)的最新的迭代,所以對(duì)于谷歌團(tuán)隊(duì)來(lái)說(shuō),有個(gè)大問(wèn)題是該算法是否可以做的比簡(jiǎn)單識(shí)別圖像中的對(duì)象更多。要真正解釋和描述一張照片,人工智能不僅需要了解圖片中是什么,更要了解圖像中這些對(duì)象有什么相互關(guān)系。谷歌的開(kāi)發(fā)人員表示這不只是一個(gè)數(shù)據(jù)的倒推。該算法必須能夠自然地理解圖像中的對(duì)象和它們的用途。
谷歌研究的博客發(fā)文說(shuō):“令人興奮的是,在展示全新情境時(shí),我們的模型的確可以產(chǎn)生準(zhǔn)確的配文,這顯示出系統(tǒng)對(duì)圖像中目標(biāo)和背景的理解更深了。”同樣重要的是,“它還學(xué)會(huì)了如何表示知識(shí)在自然的英語(yǔ)短語(yǔ),盡管它只讀了人類給的說(shuō)明字幕,沒(méi)有在接受其他額外的訓(xùn)練。”
至少?gòu)哪壳皝?lái)說(shuō),相對(duì)于視頻,機(jī)器學(xué)習(xí)算法能更好地理解靜止圖像的內(nèi)容。
推薦閱讀:
洪小文獨(dú)家解讀: 直到AI可以自己編程 它才有資格跟 “路人甲” 比智能
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見(jiàn)轉(zhuǎn)載須知。