必讀視頻專題飛象趣談光通信人工智能低空經(jīng)濟(jì)5G手機(jī)智能汽車智慧城市會(huì)展特約記者

中國(guó)信通院副總工程師許志遠(yuǎn):具身智能取得階段性突破,未來(lái)方向仍在快速演化中

2025年12月13日 13:51CCTIME飛象網(wǎng)

飛象網(wǎng)訊 12月13日,“2026中國(guó)信通院深度觀察報(bào)告會(huì)”在北京舉辦。中國(guó)信息通信研究院副總工程師許志遠(yuǎn)針對(duì)具身智能發(fā)表了自身觀點(diǎn)和見(jiàn)解。

在他看來(lái),當(dāng)前具身智能已經(jīng)取得認(rèn)知智能與物理智能的雙線突破,但模型路線、數(shù)據(jù)范式以及最佳機(jī)器人形態(tài)仍未定型,大規(guī)模落地仍處于早期階段,其未來(lái)方向仍在持續(xù)競(jìng)爭(zhēng)與快速演化中。

具身智能取得階段性突破

仍需關(guān)注三大核心焦點(diǎn)問(wèn)題

許志遠(yuǎn)詳細(xì)介紹了具身智能當(dāng)前實(shí)際進(jìn)展及需要重點(diǎn)關(guān)注的內(nèi)容。他表示,當(dāng)前具身智能的確取得了階段性突破。一方面,機(jī)器人的“認(rèn)知智能”實(shí)現(xiàn)明顯躍升(即“大腦”能力),大模型使機(jī)器人能夠完成傳統(tǒng)機(jī)器人難以處理的復(fù)雜任務(wù),具備“可感知、可思考、可交互”的智能特征。另一方面,“物理智能”加速突破:基于強(qiáng)化學(xué)習(xí),人形機(jī)器人在復(fù)雜地形行走、高難度舞蹈等動(dòng)態(tài)任務(wù)上表現(xiàn)顯著提升;基于模仿學(xué)習(xí)與大模型范式,上肢操作能力快速增強(qiáng),已能執(zhí)行切黃瓜、倒水、疊衣服等精細(xì)操作。

“然而,盡管技術(shù)突破不斷,具身智能的大規(guī)模落地仍處于早期階段”, 許志遠(yuǎn)指出:“當(dāng)前行業(yè)仍面臨三個(gè)核心焦點(diǎn)問(wèn)題。”

具體而言,一是模型路線之爭(zhēng):大模型范式是否適用于機(jī)器人?雖然大模型在語(yǔ)言、圖像、視頻領(lǐng)域取得巨大成功,但“同樣的范式能否直接遷移到機(jī)器人控制”仍未被證明。業(yè)界正在探索多種途徑。

二是數(shù)據(jù)訓(xùn)練范式之爭(zhēng):哪類數(shù)據(jù)才是機(jī)器人智能提升的關(guān)鍵?數(shù)據(jù)仍然是限制機(jī)器人能力躍升的核心瓶頸。目前機(jī)器人模型主要依賴三類數(shù)據(jù):真機(jī)數(shù)據(jù):質(zhì)量最高但采集昂貴、規(guī)模有限;合成/仿真數(shù)據(jù):規(guī)模大、成本低,但逼真度與物理一致性有差距;人類第一視角視頻數(shù)據(jù):自然、豐富,但動(dòng)作標(biāo)注與映射存在挑戰(zhàn)。當(dāng)前尚無(wú)結(jié)論表明機(jī)器人領(lǐng)域是否會(huì)像 NLP、CV 一樣遵循 Scaling Law——即“更多數(shù)據(jù)一定帶來(lái)更強(qiáng)能力”。因此,數(shù)據(jù)范式仍在快速演化,混合數(shù)據(jù)、多模態(tài)數(shù)據(jù)、世界模型生成數(shù)據(jù)等方向均在探索中。

三是形態(tài)路線之爭(zhēng):人形機(jī)器人是否是“真需求”?具身智能的落地呈現(xiàn)出兩大派系:① 人形堅(jiān)守派(Tesla、Figure AI 等),這些企業(yè)堅(jiān)持全人形路線,原因包括:人形最契合人類社會(huì)現(xiàn)有環(huán)境與工具體系;人形形態(tài)最利于學(xué)習(xí)人類動(dòng)作、利用人類數(shù)據(jù);長(zhǎng)期看具備最大通用性。特斯拉和 Figure AI 因此持續(xù)投入大量資源,力圖構(gòu)建“通用勞動(dòng)機(jī)器人”。② 折中派(大量國(guó)內(nèi)企業(yè))。國(guó)內(nèi)今年涌現(xiàn)出多款“輪-臂式復(fù)合機(jī)器人”,其特點(diǎn)是:輪式底盤更可靠、成本更低、部署更簡(jiǎn)單;動(dòng)作可控性強(qiáng),更適合集成到商業(yè)場(chǎng)景快速落地。這種路徑更強(qiáng)調(diào)“工程可落地性”,旨在在短期內(nèi)形成可規(guī);纳虡I(yè)應(yīng)用。

在 VLA 基礎(chǔ)上引入世界模型

有望成為提升機(jī)器人大模型能力的重要路徑

據(jù)許志遠(yuǎn)介紹,目前,利用大模型提升機(jī)器人的泛化能力已成為業(yè)界共識(shí),但如何有效地將大模型應(yīng)用于機(jī)器人系統(tǒng),仍存在多條技術(shù)路徑,行業(yè)也在持續(xù)探索中。

第一條路徑是采用大語(yǔ)言模型(LLM)對(duì)人類指令進(jìn)行語(yǔ)義理解與任務(wù)分解,這是賦予機(jī)器人高層智能的關(guān)鍵能力,谷歌的 SayCan 是早期代表性工作。第二條路徑是在 LLM 的基礎(chǔ)上引入視覺(jué),使模型具備語(yǔ)言與視覺(jué)跨模態(tài)融合能力,通過(guò)視覺(jué)語(yǔ)言模型(VLM)進(jìn)行機(jī)器人控制。借助視覺(jué)信息,模型不僅能分析環(huán)境的空間關(guān)系和物體屬性,也能更好支撐高層任務(wù)規(guī)劃。谷歌的 PaLM-E 展示了跨模態(tài)推理在機(jī)器人控制中的潛力。第三條路徑是在 VLM 的基礎(chǔ)上進(jìn)一步加入動(dòng)作生成能力,形成視覺(jué)-語(yǔ)言-動(dòng)作模型(VLA)。這類模型以視覺(jué)圖像和語(yǔ)言指令為輸入,直接輸出機(jī)器人控制指令。VLA 路線自 2024 年底以來(lái)受到高度關(guān)注。各家廠商在模型架構(gòu)、模塊設(shè)計(jì)和動(dòng)作生成方式上不斷優(yōu)化,例如美國(guó)的 Figure AI、PI,以及國(guó)內(nèi)的智元、銀河通用等均聚焦于這一方向。

許志遠(yuǎn)強(qiáng)調(diào),目前,許多 VLA 模型采用 MoE 架構(gòu),以 VLM 作為骨干網(wǎng)絡(luò),動(dòng)作層常使用自回歸預(yù)測(cè)、擴(kuò)散模型或流匹配等生成方式。同時(shí),在 VLM 與動(dòng)作預(yù)測(cè)之間通常加入隱向量用于信息傳遞,以兼顧復(fù)雜任務(wù)推理與實(shí)時(shí)控制需求。VLA 在復(fù)雜、多步驟、多樣化任務(wù)上展示出一定適應(yīng)性!叭欢覀円灿^察到,盡管 VLA 在結(jié)構(gòu)上不斷演進(jìn),其實(shí)際落地效果仍未達(dá)到預(yù)期。原因在于物理世界具有高度多樣性與不確定性,而當(dāng)前可獲取的機(jī)器人數(shù)據(jù)量級(jí)有限、覆蓋場(chǎng)景不足,使得 VLA 難以充分學(xué)習(xí)并泛化到真實(shí)環(huán)境中!

展望未來(lái),在 VLA 的基礎(chǔ)上引入 世界模型(World Model),借助其對(duì)物理世界的理解、預(yù)測(cè)與推演能力,有望成為進(jìn)一步提升機(jī)器人大模型能力的重要發(fā)展路徑。

重視利用合成數(shù)據(jù)和視頻數(shù)據(jù)

滿足機(jī)器人模型訓(xùn)練需求

“機(jī)器人的真機(jī)數(shù)據(jù)雖然質(zhì)量最高,但人工采集的成本極高,高質(zhì)量樣本更是稀缺,遠(yuǎn)遠(yuǎn)無(wú)法滿足模型的訓(xùn)練需求。因此,業(yè)界開(kāi)始越來(lái)越重視合成數(shù)據(jù)和視頻數(shù)據(jù)的利用! 許志遠(yuǎn)指出。

一方面,業(yè)界開(kāi)始采用混合數(shù)據(jù)訓(xùn)練模式:先利用合成數(shù)據(jù)或視頻數(shù)據(jù)進(jìn)行模型預(yù)訓(xùn)練,再用真機(jī)數(shù)據(jù)進(jìn)行微調(diào)。例如,銀河通用使用 10 億幀合成數(shù)據(jù)完成抓取模型的預(yù)訓(xùn)練;英偉達(dá) GROOT N1 模型中,合成、視頻和真機(jī)數(shù)據(jù)分別占 25%、31% 和 44%!拔覀儼l(fā)現(xiàn),主流方案的非真機(jī)數(shù)據(jù)占比通常在80%~99%,但是哪個(gè)比例對(duì)于機(jī)器人性能提升更加有效仍需產(chǎn)業(yè)界來(lái)不斷試錯(cuò)驗(yàn)證!

另一方面,今年以來(lái),使用人類第一視角拍攝的視頻數(shù)據(jù)成為破解數(shù)據(jù)瓶頸的一類重要方案。具體做法是讓操作員佩戴頭戴式攝像設(shè)備,在不影響日常工作的前提下記錄其操作過(guò)程,為模型訓(xùn)練提供高質(zhì)量的人類示范數(shù)據(jù)。6 月份有消息稱,馬斯克將延續(xù)自動(dòng)駕駛“全視頻學(xué)習(xí)”的路線,未來(lái)的訓(xùn)練將主要依賴來(lái)自人類第一視角的視頻數(shù)據(jù)。Figure AI也在9月份發(fā)布了Go-Big項(xiàng)目,目標(biāo)就是構(gòu)建全球最大、最多樣化的視頻預(yù)訓(xùn)練數(shù)據(jù)集。國(guó)內(nèi)清華大學(xué)、地平線、智元機(jī)器人等也在做相關(guān)路線的探索。

編 輯:高靖宇
飛象網(wǎng)版權(quán)及免責(zé)聲明:
1.本網(wǎng)刊載內(nèi)容,凡注明來(lái)源為“飛象網(wǎng)”和“飛象原創(chuàng)”皆屬飛象網(wǎng)版權(quán)所有,未經(jīng)允許禁止轉(zhuǎn)載、摘編及鏡像,違者必究。對(duì)于經(jīng)過(guò)授權(quán)可以轉(zhuǎn)載,請(qǐng)必須保持轉(zhuǎn)載文章、圖像、音視頻的完整性,并完整標(biāo)注作者信息和飛象網(wǎng)來(lái)源。
2.凡注明“來(lái)源:XXXX”的作品,均轉(zhuǎn)載自其它媒體,在于傳播更多行業(yè)信息,并不代表本網(wǎng)贊同其觀點(diǎn)和對(duì)其真實(shí)性負(fù)責(zé)。
3.如因作品內(nèi)容、版權(quán)和其它問(wèn)題,請(qǐng)?jiān)谙嚓P(guān)作品刊發(fā)之日起30日內(nèi)與本網(wǎng)聯(lián)系,我們將第一時(shí)間予以處理。
本站聯(lián)系電話為86-010-87765777,郵件后綴為cctime.com,冒充本站員工以任何其他聯(lián)系方式,進(jìn)行的“內(nèi)容核實(shí)”、“商務(wù)聯(lián)系”等行為,均不能代表本站。本站擁有對(duì)此聲明的最終解釋權(quán)。
推薦閱讀

精彩視頻

精彩專題

關(guān)于我們廣告報(bào)價(jià)聯(lián)系我們隱私聲明本站地圖

CCTIME飛象網(wǎng) CopyRight © 2007-2025 By CCTIME.COM

京ICP備08004280號(hào)-1 電信與信息服務(wù)業(yè)務(wù)經(jīng)營(yíng)許可證080234號(hào) 京公網(wǎng)安備110105000771號(hào)

公司名稱: 北京飛象互動(dòng)文化傳媒有限公司

未經(jīng)書(shū)面許可,禁止轉(zhuǎn)載、摘編、復(fù)制、鏡像