近日舉辦的“2026中國信通院深度觀察報(bào)告會(huì)”上,中國信息通信研究院副總工程師許志遠(yuǎn)表示,當(dāng)前具身智能已經(jīng)取得認(rèn)知智能與物理智能的雙線突破,但模型路線、數(shù)據(jù)范式以及最佳機(jī)器人形態(tài)仍未定型,大規(guī)模落地仍處于早期階段,其未來方向仍在持續(xù)競爭與快速演化中。
許志遠(yuǎn)介紹,一方面,機(jī)器人的“認(rèn)知智能”實(shí)現(xiàn)明顯躍升(即“大腦”能力),大模型使機(jī)器人能夠完成復(fù)雜任務(wù),具備“可感知、可思考、可交互”的智能特征。另一方面,“物理智能”加速突破。基于強(qiáng)化學(xué)習(xí),人形機(jī)器人在復(fù)雜地形行走、高難度舞蹈等動(dòng)態(tài)任務(wù)上表現(xiàn)顯著提升,基于模仿學(xué)習(xí)與大模型范式,上肢操作能力快速增強(qiáng),已能執(zhí)行切黃瓜、倒水、疊衣服等精細(xì)操作。
“機(jī)器人的真機(jī)數(shù)據(jù)雖然質(zhì)量最高,但人工采集的成本極高,高質(zhì)量樣本更是稀缺,遠(yuǎn)遠(yuǎn)無法滿足模型的訓(xùn)練需求。因此,業(yè)界開始越來越重視合成數(shù)據(jù)和視頻數(shù)據(jù)的利用。”許志遠(yuǎn)說。
具體而言,業(yè)界開始采用混合數(shù)據(jù)訓(xùn)練模式:先利用合成數(shù)據(jù)或視頻數(shù)據(jù)進(jìn)行模型預(yù)訓(xùn)練,再用真機(jī)數(shù)據(jù)進(jìn)行微調(diào)。今年以來,使用人類第一視角拍攝的視頻數(shù)據(jù)成為破解數(shù)據(jù)瓶頸的一類重要方案。具體做法是讓操作員佩戴頭戴式攝像設(shè)備,在不影響日常工作的前提下記錄其操作過程,為模型訓(xùn)練提供高質(zhì)量的人類示范數(shù)據(jù)。
目前,利用大模型提升機(jī)器人的泛化能力已成為業(yè)界共識(shí),但如何有效地將大模型應(yīng)用于機(jī)器人系統(tǒng),仍存在多條技術(shù)路徑,行業(yè)也在持續(xù)探索中。
第一條路徑是采用大語言模型(LLM)對(duì)人類指令進(jìn)行語義理解與任務(wù)分解,這是賦予機(jī)器人高層智能的關(guān)鍵能力。第二條路徑是在LLM的基礎(chǔ)上引入視覺,使模型具備語言與視覺跨模態(tài)融合能力,通過視覺語言模型(VLM)進(jìn)行機(jī)器人控制。借助視覺信息,模型不僅能分析環(huán)境的空間關(guān)系和物體屬性,也能更好支撐高層任務(wù)規(guī)劃。
第三條路徑是在VLM的基礎(chǔ)上進(jìn)一步加入動(dòng)作生成能力,形成視覺—語言—?jiǎng)幼髂P停╒LA)。這類模型以視覺圖像和語言指令為輸入,直接輸出機(jī)器人控制指令。
展望未來,在VLA的基礎(chǔ)上引入世界模型,借助其對(duì)物理世界的理解、預(yù)測(cè)與推演能力,有望成為進(jìn)一步提升機(jī)器人大模型能力的重要發(fā)展路徑。
【未經(jīng)授權(quán),嚴(yán)禁轉(zhuǎn)載!聯(lián)系電話028-86968276】
