丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網賬號安全和更好的產品體驗,強烈建議使用更快更安全的瀏覽器
此為臨時鏈接,僅用于文章預覽,將在時失效
智能駕駛 正文
發(fā)私信給李雨晨
發(fā)送

0

對話吳新宙:智能駕駛和座艙,英偉達的「三步走」規(guī)劃

本文作者: 李雨晨 2024-05-10 12:40
導語:“英偉達是定位于整個AI生態(tài)的賦能者,不止是專注于做車??梢哉f每個AI的突破,我們都希望在NVIDIA的生態(tài)中產生?!?

北京車展前夕,英偉達在北京辦公室召開了北京車展媒體溝通會。

英偉達全球副總裁、汽車事業(yè)部負責人吳新宙,英偉達汽車事業(yè)部數據中心副總裁Norm Marks, 英偉達全球副總裁、中國區(qū)汽車事業(yè)部負責人劉通等人出席。這是吳新宙履新英偉達的第7個月。 對話吳新宙:智能駕駛和座艙,英偉達的「三步走」規(guī)劃

在這次溝通會之后的車展上,英偉達與奇瑞汽車簽訂了合作協(xié)議,雙方宣布圍繞英偉達旗下的 DRIVE Thor 計算平臺聯(lián)合打造新一代高端智駕平臺,該平臺將會在星途高端車型上首發(fā)。同一天里,由吉利控股和百度聯(lián)合打造的極越,也宣布采用新一代的DRIVE Thor計算平臺。

吳新宙表示,“DRIVE Thor大概2025年開始有第一代的SOP,芯片也會比較快地拿到樣片。”

英偉達正在逐漸擴大它在智能駕駛領域的領地。不過,吳新宙卻說,“英偉達是定位于整個AI生態(tài)的賦能者,不止是專注于做車??梢哉f每個AI的突破,我們都希望在NVIDIA的生態(tài)中產生。”

AI定義汽車與軟件定義汽車有何不同?

吳新宙表示,過去十年,軟件定義汽車在汽車領域產生了非常深遠的影響,特別是通過OTA技術,把汽車這樣一個固定不變的硬件產品變成可以自學習、不斷變化的用戶產品。但是,隨著生成式AI的大規(guī)模進展,AI定義汽車一定會是趨勢。

自動駕駛并不是一個新鮮事物,早在上世紀90年代的美國,就已經有了自動駕駛的相關論文和落地嘗試。而我們熟悉的現(xiàn)代化的自動駕駛的發(fā)展會經歷三段式的發(fā)展。

第一代的自動駕駛系統(tǒng)是完全基于規(guī)則,有著大量人工Engineer Feature(工程師特征),通過很多算法去完成讓車自己開的動作。

第二代就是目前市場的主流,用大量的AI取代原有的人工Engineer Feature(工程師特征),不管是預測還是規(guī)劃都在用模型去做,但是仍然需要很多工程師的介入才能把獲取到的數據用好。

第三代應該會通過NVIDIA達到更大的突破,就是變成端到端大模型的方式。

吳新宙向雷峰網(公眾號:雷峰網)表示,“這個過程不可避免,并在接下來的五年內發(fā)生?!?/p>

而未來的AI汽車會比現(xiàn)在的自動駕駛開發(fā)簡單很多,更多地集中在云端。因為英偉達在云端有大量的自動駕駛模型訓練的能力,仿真、驗證都可以放在云端進行。目前,這些技術的積累在自動駕駛系統(tǒng)的開發(fā)流程中已經比較成熟,車端能夠把Corner Case的數據準確觸發(fā)反饋到云端。 對話吳新宙:智能駕駛和座艙,英偉達的「三步走」規(guī)劃

相比之下,軟件定義汽車則有了諸多“落后”之處。

軟件定義汽車需要大量工程師介入,所有的組件的算法開發(fā)量非常大,比如Corner Case識別比較慢,需要海量的路測,只有測過的路線,大家才有信心在ODD(運行設計域)釋放,這是非常大的系統(tǒng)開發(fā)工作流程。

另一方面,需要大規(guī)模的測試、運營,需要準確、快速地把數據回傳給工程師,需要一個非常好的基礎建設設施支持數據設施閉環(huán)。

經過大量測試以后,軟件定義汽車是通過OTA的方法更新,現(xiàn)在還有國家合規(guī)的要求,不管是軟件開發(fā)、模型開發(fā)還是數據閉環(huán)需要大量人工參與的工作。

所以,這也是AI定義汽車與軟件定義汽車的區(qū)別,前者可以讓流程得到很大的簡化。

在AI定義汽車時代,大部分模型都能夠在云端完成訓練,通過數據驅動的方式,車端觸發(fā)Edge Case(邊緣案例),然后通過自動數據驅動完成模型的自我迭代,也可以在云端通過仿真完成大部分的驗證,極大地減少車端大規(guī)模設備部署和測試的依賴性。未來的部署也可以簡化成模型更新的工作,而不是巨大的代碼更新。

除了自動駕駛,智能座艙也會面臨大變化。隨著生成式AI能力的進一步提升,也會對座艙有巨大的提升。NVIDIA在智能駕駛和座艙領域有哪些舉措,吳新宙提出了一個三步走的規(guī)劃。

第一步是完善現(xiàn)有的L2和L2+系統(tǒng),以達到市場領先水平或者第一梯隊水平;

第二步希望L2++領域取得新突破,實現(xiàn)未來軟件棧的端到端可訓練,將上游模型和下游模型打通,整體上用生成式大模型的布局已經開始,今年晚些時間會有DEMO展示,通過端到端模型的方式完成;

第三步就是希望能夠在2026年量產的L3,實現(xiàn)完全自動駕駛。

端到端的行業(yè)熱點,繞不開的數據難題

除了AI與大模型方面的規(guī)劃,英偉達還在使用生成式數據,其自研渲染工具Omniverse能夠實現(xiàn)數據生成,補足仿真Corner Case,從而快速轉成虛擬數據,然后進行隨機處理,衍生出更多的Corner Case。

目前就有多家中國車企通過Omniverse虛擬現(xiàn)實技術實現(xiàn)對汽車制造工廠的工作流程優(yōu)化。

英偉達中國區(qū)汽車事業(yè)部負責人劉通透露,除了在端到端全棧式合作,包括車端芯片DRIVE Orin和DRIVE Thor、智駕芯片和數據中心端的解決方案等,比亞迪和NVIDIA還在智能工廠方面進行合作,利用Omniverse做自主機器的仿真,包括物流小車、機械臂等。

英偉達汽車事業(yè)部數據中心副總裁Norm Marks表示,自動駕駛汽車1.0時代主要是基于標注圖像的訓練,并在上面開發(fā)和部署深度神經網絡的集成,可能會有40-50個深度神經網絡從L2+層級轉向更高級的自動駕駛。假設一個車隊50輛測試車,每周可能會生成2PB的數據,但其中只有10%-15%會得到標注。

而在自動駕駛汽車2.0時代,是基于視頻進行模型的訓練,就像真人看世界那樣,是一整個大的融合世界的統(tǒng)一模型。 對話吳新宙:智能駕駛和座艙,英偉達的「三步走」規(guī)劃

Norm Marks還預計,未來自動駕駛汽車2.0轉型的模型規(guī)模將增長13倍,數據存儲規(guī)模將增長17倍?;赥ransformer需要3000個服務器節(jié)點,而如果以GPT4作為基礎的話需要上萬的服務器節(jié)點,即達到超算水平。

英偉達的NeMo平臺可作為一站式工具幫助構建大語言模型,從最開始的數據準備、數據獲取、數據測轉、預訓練、模型定制化、提示語調優(yōu)化以及人為反饋進入閉環(huán),包括后續(xù)的信息檢索,實現(xiàn)比較精確的信息檢索。

在溝通會上,吳新宙還對今年最熱的端到端話題進行了回應。

雖然端到端智能駕駛方案已經成為業(yè)內的一個共識,但是端到端的問題也很明顯:通常需要處理大量的傳感器數據,包括圖像、點云、雷達等,直接輸出控制指令,對算力的要求較高。此外,為了訓練這些復雜的神經網絡模型,需要大量的標注數據。

吳新宙認為,“端到端模型上線之前,一定會有一個“護欄”,因為需要不停地優(yōu)化和成長,要是一開始就上線端到端的模型是非常困難的。把端到端模型做好的企業(yè)一定也需要非常好的第二代甚至第一代的自動駕駛堆棧?!?/p>

所以,端到端模型仍然離不開原有模型,通過原有的模型和方法保證安全性,這些是把端到端模型真正大規(guī)模部署變成主流的過程。

至于如何解決黑盒問題,吳新宙提出了幾個緯度:

一、原有的第一代、第二代算法棧,可以保證端到端模型的安全性,也可以不停地判斷端到端模型決定的合理性,把雙方有差異的地方作為輸入。這就類似于大語言模型訓練的反饋,讓結果更加合理化,

二、未來的大模型、端到端模型有周邊的輸出點可以觀測,比如可以觀測DEV輸出的結果,訓練的時候也是部分訓練等。于是在黑盒上開啟幾扇“窗”,看到信號是怎樣的模式。

吳新宙認為,英偉達的一個巨大優(yōu)勢就是端到端,而且是整體AI賦能,汽車只是其中的一個垂直領域。

他表示,“我們在數據中心、訓練工具都有巨大的投入,我們有SoC和安全平臺,從底層軟件加上芯片,所有的每一層都有引入非常強的安全概念,我們還有端到端全棧軟件的開發(fā)。以上四個方面構成我們汽車生態(tài)系統(tǒng),”雷峰網

雷峰網原創(chuàng)文章,未經授權禁止轉載。詳情見轉載須知

分享:
相關文章
最新文章
請?zhí)顚懮暾埲速Y料
姓名
電話
郵箱
微信號
作品鏈接
個人簡介
為了您的賬戶安全,請驗證郵箱
您的郵箱還未驗證,完成可獲20積分喲!
請驗證您的郵箱
立即驗證
完善賬號信息
您的賬號已經綁定,現(xiàn)在您可以設置密碼以方便用郵箱登錄
立即設置 以后再說