0
本文作者: nebula | 2024-01-26 13:49 |
1月26日,阿里云公布多模態(tài)大模型研究進(jìn)展。通義千問視覺理解模型Qwen-VL再次升級,繼Plus版本之后,再次推出Max版本,升級版模型擁有更強(qiáng)的視覺推理能力和中文理解能力,能夠根據(jù)圖片識人、答題、創(chuàng)作、寫代碼,并在多個(gè)權(quán)威測評中獲得佳績,比肩OpenAI的GPT-4V和谷歌的Gemini Ultra。
LLM(大語言模型)之后,大模型領(lǐng)域的下一個(gè)爆點(diǎn)是什么?多模態(tài)是當(dāng)前最具共識的方向。過去半年來,OpenAI、谷歌等爭相推出多模態(tài)模型,阿里云也在2023年8月發(fā)布并開源具備圖文理解能力的Qwen-VL模型,Qwen-VL取得了同期遠(yuǎn)超同等規(guī)模通用模型的表現(xiàn)。
視覺是多模態(tài)能力中最重要的模態(tài),作為人類感知世界、認(rèn)知世界的第一感官,視覺傳遞的信息占據(jù)了“五感”信息的80%。通義千問視覺語言模型基于通義千問LLM開發(fā),通過將視覺表示學(xué)習(xí)模型與LLM對齊,賦予AI理解視覺信息的能力,在大語言模型的“心靈”上開了一扇視覺的“窗”。
相比Qwen-VL,Qwen-VL-Plus和Qwen-VL-Max擁有更強(qiáng)的視覺推理和中文理解能力,整體性能堪比GPT-4V和Gemini Ultra。在MMMU、MathVista等測評中遠(yuǎn)超業(yè)界所有開源模型,在文檔分析(DocVQA)、中文圖像相關(guān)(MM-Bench-CN)等任務(wù)上超越GPT-4V,達(dá)到世界最佳水平。
基礎(chǔ)能力方面,升級版模型能夠準(zhǔn)確描述和識別圖片信息,并且根據(jù)圖片進(jìn)行信息推理、擴(kuò)展創(chuàng)作;具備視覺定位能力,還可針對畫面指定區(qū)域進(jìn)行問答。
視覺推理方面,Qwen-VL-Plus和Qwen-VL-Max可以理解流程圖等復(fù)雜形式圖片,可以分析復(fù)雜圖標(biāo),看圖做題、看圖作文、看圖寫代碼也不在話下。
Qwen-VL-Max看圖做題
圖像文本處理方面,升級版Qwen-VL的中英文文本識別能力顯著提高,支持百萬像素以上的高清分辨率圖和極端寬高比的圖像,既能完整復(fù)現(xiàn)密集文本,也能從表格和文檔中提取信息。
Qwen-VL-Max復(fù)現(xiàn)密集文本
相比LLM,多模態(tài)大模型擁有更大的應(yīng)用想象力。比如,有研究者在探索將多模態(tài)大模型與自動駕駛場景結(jié)合,為“完全自動駕駛”找到新的技術(shù)路徑;將多模態(tài)模型部署到手機(jī)、機(jī)器人、智能音箱等端側(cè)設(shè)備,讓智能設(shè)備自動理解物理世界的信息;或者基于多模態(tài)模型開發(fā)應(yīng)用,輔助視力障礙群體的日常生活,等等。
目前,Qwen-VL-Plus和Qwen-VL-Max限時(shí)免費(fèi),用戶可以在通義千問官網(wǎng)、通義千問APP直接體驗(yàn)Max版本模型的能力,也可以通過阿里云靈積平臺(DashScope)調(diào)用模型API。
雷峰網(wǎng)(公眾號:雷峰網(wǎng))
雷峰網(wǎng)版權(quán)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。