丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網賬號安全和更好的產品體驗,強烈建議使用更快更安全的瀏覽器
此為臨時鏈接,僅用于文章預覽,將在時失效
業(yè)界 正文
發(fā)私信給王悅
發(fā)送

0

對話程斌、劉洛麒:大模型未必是坦途,但一定是方向

本文作者: 王悅 2023-10-31 21:13
導語:這一波生成式 AI 技術的爆發(fā),讓我們 AI 從業(yè)者看到了 AGI(通用人工智能)的曙光。

對話程斌、劉洛麒:大模型未必是坦途,但一定是方向

“這一波生成式 AI 技術的爆發(fā),讓我們 AI 從業(yè)者看到了 AGI(通用人工智能)的曙光。”在聊到今年生成式 AI 的行業(yè)大勢時,F(xiàn)asion.AI 創(chuàng)始人程斌如此對 AI 科技評論說到。

坐在他旁邊的,是美圖影像研究院(MT Lab)負責人劉洛麒。在北京海淀的量子銀座大廈,這兩位在人工智能行業(yè)深耕十數(shù)載、目前均在生成式AI領域開拓的一線從業(yè)者,與 AI 科技評論一起,展開了一場別開生面的對談。

按輩分來算,程斌是劉洛麒的師兄,兩人博士均畢業(yè)于新加坡國立大學,師從人工智能領域國際頂級專家顏水成教授。師徒三人也曾與其他同伴一起加入 360,創(chuàng)立 360 人工智能研究院,將人工智能技術廣泛落地于智能硬件、金融風控、直播和短視頻等業(yè)務場景中。

2019 年,隨著顏水成離開 360,已經有過一次創(chuàng)業(yè)經歷的程斌,也離職開啟了自己的二次創(chuàng)業(yè)之路。其創(chuàng)立的 Fasion.AI,是國內較早利用生成式 AI 技術進行圖片和視頻內容生產的初創(chuàng)公司,尤其是在基于超寫實 2D 數(shù)字人的視頻內容合成領域頗有建樹,其產品已經在教育、營銷、直播、客服等領域廣泛應用。

兩年后,曾在博士期間主攻人臉、以“美顏”為主題拿到過 ACM Multimedia Best Paper Award 的劉洛麒,加入了國內最懂“美學” 、以“美”為內核的美圖公司,負責核心算法研發(fā)工作,帶領團隊不斷打造“ AI 時代的影像生產力工具”,并于今年推出國內首個懂美學的AI視覺大模型 MiracleVision,助力美圖近期業(yè)績和股價的雙重突破。

本次,針對時下大火的 AIGC 和數(shù)字人賽道,AI 科技評論請到了這兩位業(yè)界人士分享他們對于今天人工智能賽道的理解和洞見。

以下是 AI 科技評論與程斌、劉洛麒二人的對話實錄,AI 科技評論在不改變原意的前提下,做了編輯和調整。


大模型未必是坦途,但一定是方向

AI 科技評論:大模型會是人工智能走向 AGI 的坦途嗎?

劉洛麒:目前來看,大模型應該是走在正確的方向上。我們可以進行一種生物學的類比,人類是基于碳基的生物,機器是由硅基制造,雖然兩者的底層是非常不一樣的,但最終硅基結構是否也有可能像碳基構造一樣,產生出一定的智能性?就像人類的大腦中大約有數(shù)百億個神經元,每個神經元都與其它數(shù)千個神經元相連,可以想象連接路徑的龐大與復雜程度。

大模型的參數(shù)量雖然能夠達到百億的量級,但是它連接的拓撲結構都是規(guī)整的,相對比較簡單,連接數(shù)也不夠多。如果有一天,大模型的參數(shù)量和連接數(shù)也達到或者超過人腦的規(guī)模,計算能力相比現(xiàn)在也有了極大的提高,那是否有可能實現(xiàn)跟人類大腦接近的智能,我們是可以憧憬下的。

所以,當大模型的理解、推理、學習等多種能力達到一定程度之后,也許就能實現(xiàn) AGI 了。人工智能的通用性在不斷提高,但要實現(xiàn)真正的 AGI 還需要時間。大模型也是我們邁向通用人工智能的重要一步,為未來的 AI 研究和發(fā)展開辟了新的道路。

程斌:回顧歷史,人工智能行業(yè)其實一直在追求AGI的道路上孜孜不倦,歷經了幾十年的研究和實踐才走到了今天。對于AI從業(yè)者來講,上一波深度學習 AI1.0 的時代,大多數(shù)人還是會用比較理智謹慎的態(tài)度去看待 AGI。

那個時候,我們能實現(xiàn)的更多還是在限定場景下的淺層智能,但是距離真正的通用人工智能還是挺遠的。然而這一波生成式AI技術的爆發(fā),真正讓我們AI從業(yè)者感覺到 AGI 的曙光。

有個很典型的例子, NLP 在上一波深度學習時代并不是一個被解決得很好的問題,大家認為這個是極具挑戰(zhàn)的問題,因為牽扯到認知、理解、邏輯推理和生成這些復雜能力。但是大模型上來就在這個原以為最難的問題上取得了巨大的突破,甚至有一點降維打擊的感覺,這個給 AI 從業(yè)者們帶來非常大的震撼。

當然,目前我們距離真正的 AGI 還有明顯的難題等待解決,例如大模型還需要面對可解釋性不明確、輸出結果不可控、泛化能力不足、多模態(tài)能力局限等一系列問題,進而會帶來一些倫理和規(guī)范上的約束。

從現(xiàn)階段的發(fā)展來看,大模型雖然在提高自然語言處理、計算機視覺和其他任務的性能方面取得了顯著進展,但要實現(xiàn) AGI 仍有許多挑戰(zhàn)。它一定不是一帆風順的坦途,Transformer 架構也未必是最終形態(tài),也可能會有新的技術和方向出來,再顛覆它。但是大模型確實是目前最有希望的方向,激發(fā)了大家對 AGI 的信心。

AI 科技評論:在大模型迭代的過程中,數(shù)據是天花板般的存在。當下大模型消耗數(shù)據的速度非常驚人,數(shù)據是否在短時間內被消耗完,大模型是否看到了天花板?

劉洛麒:我覺得當下社會中的數(shù)據量沒有窮盡。首先,生產者依然在源源不斷地產生新數(shù)據,包括文本、圖像、視頻、音頻等等多種模態(tài),比如短視頻平臺每時每刻仍然在生產新的視頻內容。

客觀物理世界的數(shù)據描述可以是多層次,多模態(tài)的,交互式的。對于同一個物理事件,我們可以在不同精度下的時間、空間等坐標系下去對應描述,也可以通過多種感知手段下去記錄(視覺、聽覺、觸覺等),不同物理事物和事件的交互行為又幾乎是無窮的。而這些都是通向 AGI 所需要的數(shù)據記錄,

事實上,大規(guī)模的優(yōu)質數(shù)據才是實現(xiàn)算法突破的關鍵因素,而優(yōu)質數(shù)據目前其實還處于挖掘初期。我們還需要思考,已有的數(shù)據資源是不是真的挖掘到位,數(shù)據是否已經物盡其用?

如現(xiàn)在大多數(shù) LLM 是基于純文本進行訓練,而人類所感知的外界信息70%以上來自視覺,如何更好的實現(xiàn)語言、圖像、視頻、聲音等多模態(tài)間的結合也將是大模型未來的探索方向。

目前大模型使用的數(shù)據還是更多是單一孤立的,缺少更豐富的數(shù)據表述,近期 OpenAI 新推出的多模態(tài)模型 GPT-4v 已經能聽語音,理解圖片,但我們在這個方向上也仍有很長的路要走。

程斌:當下人工智能消耗數(shù)據的速度是非??膳碌摹N覀€人覺得,如果設想的道路可以被打通,有可能有一天物理世界數(shù)據的生產速度真的會跟不上人工智能學習的速度。

當然,我很認同洛麒說的點,現(xiàn)在很多數(shù)據可能真的還沒有更好地去應用它。當下數(shù)據采集和存儲的范圍、力度都還沒有達到邊界,數(shù)據處理的質量也有待提高,尤其是數(shù)據的使用還牽扯到隱私性和安全性,這些都是需要去逐步解決的問題。

最近也有不少公司去利用 AI 生產數(shù)據,對這個我還是比較謹慎地去看待的,因為擔心會不會陷入到數(shù)據繭房中。這里面有一個很重要的前提,AI 的邏輯是不是代表了整個客觀物理世界的邏輯?

如果 AI 僅僅代表了物理世界的一部分的邏輯,那 AI 合成的數(shù)據最后都將陷入一個局部最優(yōu)解,而喪失了全局的判斷,這可能導致 AI 系統(tǒng)在不同環(huán)境下的泛化能力受限。

這里正好引出一個非常有意思的問題,就是這次人工智能浪潮為什么會從語言大模型先突破?

有一個很重要的原因就是,文本和語言已經經過了人類幾千年的積累,是被精煉和壓縮過的知識性數(shù)據。這些文本數(shù)據具有非常高的信息密度、豐富性和完整性,大模型在學習的時候直接邁過了信息提煉這第一步過程,其學習效率大大提升。

相比之下,圖像跟視頻是從物理世界直接獲取的數(shù)據,沒有經過類似的精煉過程,它們與文本和語言的信息密度是完全不一樣的。所以,現(xiàn)在我們還沒有真正能夠挖掘到現(xiàn)實世界中海量圖像和視頻中所蘊含的更豐富的知識。如果這一步能夠突破,那距離實現(xiàn) AGI 會更近一步。


AIGC 創(chuàng)業(yè),充滿了挑戰(zhàn)和新的機遇

AI 科技評論:如何看待當下的這波 AIGC 創(chuàng)業(yè)潮?

程斌:這波 AIGC 的創(chuàng)業(yè)潮發(fā)展還是非常迅猛的,從今年二三月份的時候底層大模型公司被追捧,到五六月份大家逐漸關注應用層面,在營銷等最直接落地的領域開始嘗試,再到七八月份涌現(xiàn)出不少傳統(tǒng)行業(yè)結合大模型進行自我升級的典型案例,比如在旅游、教育、醫(yī)療、跨國人力資源等領域,已經有一些敏銳的傳統(tǒng)行業(yè)創(chuàng)業(yè)者開始擁抱大模型。未來五年內,AIGC 領域的創(chuàng)業(yè)公司一定會如當年互聯(lián)網和移動互聯(lián)網創(chuàng)業(yè)潮那樣涌現(xiàn)。

不過,相比較上一波 AI 創(chuàng)業(yè)潮,最近這一波技術爆發(fā)有一個很有意思的點,大模型把原來很多我們認為不可解或者解不好的問題變得可解了,但同時,解決問題的技術門檻也被大大拉低。

我以前一直說,AI 這樣的應用科學領域很難去構建所謂的技術壁壘。但是,以前我們還能多多少少通過一些差異化的技術點,在一些細分領域形成一定的技術門檻,現(xiàn)在這一門檻被大大削弱,這更加考驗創(chuàng)業(yè)團隊對業(yè)務的理解能力、運營能力和商業(yè)化能力。

從某種意義上講,這一波 AIGC 的真正受益者其實是原來已經形成商業(yè)閉環(huán)的企業(yè),比如美圖,即原來的業(yè)務有流量、有場景、有商業(yè)化邏輯,然后用 AIGC 來更好地降本增效,提升和改善原有的產品體驗,甚至進一步拓展更加豐富的商業(yè)化產品。

劉洛麒:是的。美圖擁有影像行業(yè)第一的用戶心智,用戶規(guī)模強大,大模型冷啟動的獲客成本低,基于大模型的 AI 技術也讓我們可以很快地將構想落地驗證,也帶來非常正向的用戶反饋,還能在短時間去驗證產品成功與否,減少了大量的時間和人力成本投入,更重要的是減少了很多的不確定性。

而對于用戶來說,AIGC 是前所未有的,這對于用戶群體的吸引力是非常強的,用戶也有足夠的動力去嘗試,這也提高了付費訂閱意愿。

目前業(yè)界雖然有許多開源的大模型,但具體業(yè)務場景下的大模型的開發(fā)依然存在一定的門檻。數(shù)據、算力、算法是決定大模型質量的“三駕馬車”,大模型依賴成熟的算力基建,訓練和推理則需要強大的算法和計算能力,還需要龐大的數(shù)據量和優(yōu)質的數(shù)據質量,數(shù)據質量的高低很大程度上決定了模型能力的上限,而這些正是美圖的優(yōu)勢所在。

另外,大模型的布局需要找到合適的切入場景,對業(yè)務賦能,也能夠對外輸出能力。比如美圖通過 AIGC 推動了 AI 繪畫、AI 動漫、AI 商品圖、AI 模特試衣等等功能應用落地,同時基于大模型重構了美圖過去 15 年的產品,從生活場景延伸至生產力場景。

依托美圖 AI 開放平臺,以 API 和 SDK 的方式,為行業(yè)客戶提供提供大模型的商業(yè)使用模式。2023 上半年,在 AIGC 推動下,美圖在 AI 圖片、AI 視頻、AI 設計等領域持續(xù)創(chuàng)新,推動 VIP 訂閱收入大幅增長,VIP 會員數(shù)超 720 萬,同比增長 44%,創(chuàng)下歷史新高。

AI 科技評論:以 AIGC 為主攻方向的創(chuàng)業(yè)公司要想突出重圍,有哪些關鍵要素是必須具備的?

劉洛麒:其實 AIGC 領域的公司要想突出重圍的話,不僅僅是技術問題,更關鍵的是需要把技術和應用場景相結合起來。

但是當下存在的一個現(xiàn)象是部分公司對大模型實際的應用場景考慮得不夠深入,技術的落地有一定難度。做好大模型很重要,但如何用好大模型其實更加重要。

我們不能只關注大模型的數(shù)據量、參數(shù)量這些技術指標,更要抓住應用場景的核心需求,并且在商業(yè)模式上得到驗證。預訓練大模型是基礎設施,大模型的下一步是走向多模態(tài)。

如何實現(xiàn)在不同行業(yè)、垂直領域、功能場景的部署與應用,讓大模型真正走向產業(yè)、走進實體,解決企業(yè)與行業(yè)面臨的現(xiàn)實問題,是更值得關注的領域。

程斌:創(chuàng)業(yè)公司在技術層面再去卷基礎大模型的意義已經不大了,現(xiàn)在市面上已經有很多開源的大模型做得很好,直接調用就可以,而且做基礎大模型還是有一定的門檻的,這讓后來者很難再入局并取得優(yōu)勢。

現(xiàn)階段,如果要打出差異化,一定是將生成式 AI 技術與具體業(yè)務做深度融合,而不是浮于表面的做一些簡單的應用。剛才我也說了,有一些敏銳的傳統(tǒng)行業(yè)創(chuàng)業(yè)者已經開始擁抱大模型。他們熟悉行業(yè),了解需求,一旦利用好大模型這樣的先進生產工具,發(fā)展會非常迅猛。

不過,正如我以前說國內 SaaS 行業(yè)存在的一個問題,大模型應用領域也有可能同樣存在,那就是生產工具的變革能否真正帶來生產關系的改變,進而真正提高生產力。

打個比方說,如果傳統(tǒng)行業(yè)應用是馬拉車,那么結合先進生產工具,很多時候貌似我們打造出來一輛小汽車,但是并沒有真正改變商業(yè)模式當中的某些痛點環(huán)節(jié),還是在沿用傳統(tǒng)方式在運營,那無非就是從馬拉車變成馬拉小汽車,并沒有能夠讓它靠先進發(fā)動機和燃料跑起來,沒有真正形成商業(yè)模式和生產力的變革。

所以,在大模型這樣顛覆級的技術突破下,我們也希望看到更多行業(yè)能夠真正從馬車升級到小汽車,靠著先進發(fā)動機和燃料實現(xiàn)突破。這需要更多的創(chuàng)新和深度融合,以確保技術不僅僅停留在表面,而是真正為企業(yè)和社會帶來持續(xù)的價值和進步。

當然,對于技術型初創(chuàng)公司來說,AIGC 也不只是大模型這一條路。大模型更多是以數(shù)據為支撐,能產生豐富多樣的內容。但在一些樣本量小、功耗資源少、對實時性有一定要求的場景中,其他技術路徑,比如生成對抗網絡(GAN),仍然存在差異化的優(yōu)勢。

雖然在 Diffusion 和 Transformer 出來之后,GAN 有點被冷落了,但在一些小而美的應用場景中,它仍然具有一定優(yōu)勢的。此外,自監(jiān)督學習、強化學習、元學習等方法也可能在特定領域或任務中提供了新的機會和優(yōu)勢。

因此,AIGC 領域的技術創(chuàng)新是多樣化的,創(chuàng)業(yè)公司應根據其業(yè)務定位、市場需求和資源狀況,選擇適合其需求的技術路徑。

AI 科技評論:美圖做 AIGC 和大模型有什么獨到之處?

劉洛麒:美圖的大模型確實是不同于其他廠商的。絕大部分 AI 公司做大模型大多更強調數(shù)據量和參數(shù)規(guī)模,而美圖做大模型的創(chuàng)新點在于“懂美學”。

通過融合多年來積累的美學認知,美圖為大模型搭建了基于機器學習的美學評估系統(tǒng),為模型的生成效果打上“美學分數(shù)“,從而不斷地提升模型對美學的理解。

美圖視覺大模型的三大優(yōu)勢:第一,擅長亞洲人像攝影,二是將中國傳統(tǒng)文化元素融入現(xiàn)代設計中,為創(chuàng)作賦予獨特的東方韻味;三是在商業(yè)設計領域的應用價值,設計師可以在美圖視覺大模型等幫助下,快速地創(chuàng)作出具有創(chuàng)意和美感的作品。

現(xiàn)在,美圖視覺大模型 MiracleVision 作為美圖 AI 產品生態(tài)的底層支撐,在為美圖全系產品提供 AI 模型能力。


數(shù)字人是AGI最自然的展現(xiàn)形式和交互方式

AI 科技評論:數(shù)字人和大模型之間的關系是什么?

程斌:目前在很多場景中,語言大模型生產的文本內容在和外界的交互過程中,單純的文本呈現(xiàn)形式相對比較單一,經常需要多樣性和形象化展現(xiàn)形式,可視化呈現(xiàn)變得尤為重要,而數(shù)字人則是最優(yōu)的解決方案。

數(shù)字人結合語言大模型,不僅可以理解和生成語言和文本,還可以具備虛擬的外觀、聲音和行為,使交互更加生動和自然,為用戶提供了更富有情感、更具個性化的交互體驗。而在未來,當 AGI 真正實現(xiàn)的時候,數(shù)字人是 AGI 最自然的展現(xiàn)形式和交互方式。

AI 科技評論:當下數(shù)字人市場中有 2D 和 3D 兩種技術路線,實踐的過程中,面對這兩種路線要如何抉擇?

程斌:2D 和 3D 數(shù)字人應該說各具特色,各有其適用的場景。

3D 數(shù)字人走的高端精品路線,通過設計或拍攝、建模、渲染、面部、骨骼綁定、動捕驅動等一系列流程完成資產制作及內容生產。

要創(chuàng)建一個超寫實、高精度的 3D 虛擬數(shù)字人,需要專業(yè)的工程師使用專業(yè)的設備和軟件進行精細化制作,其生產成本較高、周期較長?,F(xiàn)階段,很多公司利用AI技術進行 3D 數(shù)字人的輔助創(chuàng)作,大大提高了其生產效率,但是依然造價不菲。此外,3D 數(shù)字人資產制作僅僅是初期的一次性投入,后期的運營成本也不低,其內容制作也需要專業(yè)團隊持續(xù)跟進。

過去 3D 數(shù)字人更多被影視和游戲行業(yè)所使用,這幾年因為元宇宙等概念的興起,很多品牌也開始推出自己的數(shù)字代言人,但是行業(yè)中也出現(xiàn)過 3D 數(shù)字人在制作完成之后品牌方缺乏持續(xù)運營能力的狀況,造成大量 3D 資產的閑置和浪費。

另外,3D 數(shù)字人更強調其 IP 屬性,IP 和內容是 3D 數(shù)字人的核心。某種意義上說,人們并不太關心 3D 數(shù)字人是哪家技術公司做的,更關心其 IP 和運營權在誰手里。因此,IP 和內容是 3D 數(shù)字人的核心,決定了它們的吸引力和商業(yè)潛力。

而 2D 數(shù)字人相比較 3D 數(shù)字人來說,有它固有的一些劣勢。比如,2D 數(shù)字人本身并不像 3D 數(shù)字人那樣是一個完整的資產。它只采集了人的正面信息用于訓練合成,無法像 3D 數(shù)字人那樣可以從任意角度去生成各種復雜動作,僅僅只能完成正面口播和一些簡單預置動作的交互,其生成的內容相對于 3D 數(shù)字人來說會比較單一,其應用場景也會相對受限。

但是,正所謂“尺有所短,寸有所長”,與3D數(shù)字人相比,2D 數(shù)字人也有其天然的優(yōu)勢。

首先,2D 數(shù)字人的制作和內容生產完全是由AI算法合成的,其生產效率和生產成本比 3D 數(shù)字人有極大的優(yōu)勢。我們 Fasion.AI 目前打造的 2D 數(shù)字人可以做到實時驅動和交互,整體的生產成本不到 3D 數(shù)字人的十分之一。

其次,2D 數(shù)字人的模型制作以及后續(xù)內容生產,都是基于真人拍攝的視頻訓練而成,其呈現(xiàn)效果幾乎與真人一模一樣。而 3D 數(shù)字人目前因為技術所限,其渲染結果始終距離真人還有一些差距 。在一些對人物真實性要求比較高的場景下,2D 數(shù)字人還是有其先天的優(yōu)勢。

因此,2D 數(shù)字人特別適用于高頻次、低成本、批量化進行增量內容合成的場景,比如教育、營銷、客服、直播等領域。某種意義上說,相比較 3D 數(shù)字人較強的 IP 屬性, 2D 數(shù)字人在很多場景下其實是在去 IP 化,并不特別強調其IP屬性,而是更強調它快速進行內容生成的能力。

我們 Fasion.AI 目前已經完成了整套自主知識產權的 2D 數(shù)字人的能力搭建,包括基于 2D 數(shù)字人的短視頻離線合成、互動直播、實時交互、私有化部署等,口型合成的準確率超過 98%,可實現(xiàn)幾十種語言的實時驅動和無縫切換,實時交互的延遲最低可達到 500 毫秒以內,在業(yè)內均處于領先地位。

特別是我們推出的“云影”小樣本數(shù)字人,僅需要 3 到 5 分鐘的訓練視頻,就可以快速為客戶打造專屬數(shù)字人,極大的降低了數(shù)字人的生產和使用門檻。

目前,我們已經為客戶打造專屬 2D 數(shù)字人數(shù)百例,客戶行業(yè)涵蓋教育、營銷、金融、保險、客服、直播、黨建、主持等領域,并與華為、360、昆侖萬維、智譜華章、高途、標貝、云知聲等大模型和行業(yè)公司都展開了深度合作。

劉洛麒:美圖的 AI 數(shù)字人走的是另一條路徑。我們主要服務于視頻內容創(chuàng)作、影視處理與剪輯等生產力場景,主要側重在 3D 數(shù)字人領域。我們的 3D 數(shù)字人跟傳統(tǒng)的數(shù)字人不太一樣,是更加偏向特效場景的 3D 數(shù)字人,對于一些短視頻的制作非常有幫助。

美圖在今年8月正式上線的AI數(shù)字人生成工具——DreamAvatar。首期推出“AI 演員”功能,數(shù)字人的生成不需要專業(yè)設備,一臺手機就能輕松搞定。

用戶只需要將拍攝好的視頻素材導入,并指定視頻里的人物,就能夠進行人體檢測、跟蹤、擦除、替換、背景修復,自動把真人替換成數(shù)字人,做到動作于真人完美同步。通過相機姿態(tài)估計和跟蹤,以及光照估計算法,數(shù)字人和環(huán)境的融合變得更加自然,而且更具真實感。

目前我們共推出了機器人、獸人、類人三大題材,共計 11 個不同風格的數(shù)字人形象,每個題材從造型風格、渲染風格都做了不同方向的細化。未來我們也會提供更多的數(shù)字人形象,并考慮與用戶輸入的形象進行結合,為用戶提供多樣性的體驗和選擇。

此外,我們也在探索 3D 大模型的實現(xiàn)路徑,將人物、物品的 3D 形象自動建模出來,從文生圖,到文生視頻,再到文生 3D,這也是美圖在多模態(tài)領域努力的一個方向。

雷峰網(公眾號:雷峰網)雷峰網雷峰網


雷峰網原創(chuàng)文章,未經授權禁止轉載。詳情見轉載須知

分享:
相關文章
當月熱門文章
最新文章
請?zhí)顚懮暾埲速Y料
姓名
電話
郵箱
微信號
作品鏈接
個人簡介
為了您的賬戶安全,請驗證郵箱
您的郵箱還未驗證,完成可獲20積分喲!
請驗證您的郵箱
立即驗證
完善賬號信息
您的賬號已經綁定,現(xiàn)在您可以設置密碼以方便用郵箱登錄
立即設置 以后再說