全球首款生成式人形機(jī)器人運(yùn)動大模型“龍躍”發(fā)布

?? 由 文心大模型 生成的文章摘要

5月29日上午,在上海張江科學(xué)會堂舉辦的2025張江具身智能開發(fā)者大會暨2025國際人形機(jī)器人技能大賽上,國家地方共建人形機(jī)器人創(chuàng)新中心聯(lián)合復(fù)旦大學(xué)未來信息創(chuàng)新學(xué)院,正式發(fā)布全球首款生成式人形機(jī)器人運(yùn)動大模型——“龍躍”(MindLoongGPT)。這一突破性成果,標(biāo)志著我國在智能體運(yùn)動控制領(lǐng)域邁入全球領(lǐng)先行列。?

此次大會以“具身智能,未來已來”為主題,采用“峰會+大賽+展覽”三位一體的模式,吸引了200余家人形機(jī)器人、具身智能和產(chǎn)業(yè)鏈頭部企業(yè),以及1000余位知名院士、專家、企業(yè)領(lǐng)袖及開發(fā)者參與,共同探討人形機(jī)器人產(chǎn)業(yè)的技術(shù)突破與商業(yè)落地路徑。?

“龍躍”模型以“自然語言驅(qū)動”為核心亮點(diǎn),徹底改變了傳統(tǒng)人形機(jī)器人復(fù)雜的編程控制方式。以往,操作人員需要具備專業(yè)的編程知識,通過編寫大量代碼來控制人形機(jī)器人的動作,這不僅門檻高,而且效率低下。而現(xiàn)在,借助“龍躍”模型,使用者只需通過自然語言下達(dá)指令,如“向前走5步,然后舉起右手”,人形機(jī)器人便能迅速理解并執(zhí)行相應(yīng)動作。這種自然語言交互方式,極大地降低了人與機(jī)器人之間的溝通成本,讓普通人也能輕松駕馭人形機(jī)器人,為人形機(jī)器人的普及應(yīng)用開辟了廣闊前景。?

在多模態(tài)交互方面,“龍躍”模型展現(xiàn)出卓越的性能。它能夠融合視覺、聽覺、觸覺等多種傳感器數(shù)據(jù),對周圍環(huán)境進(jìn)行全方位感知。例如,在視覺上,它可以識別復(fù)雜場景中的物體形狀、顏色、位置等信息;聽覺上,準(zhǔn)確識別語音指令,并能理解語義;觸覺方面,當(dāng)與人或物體接觸時,能感知壓力、力度等信息。通過對這些多模態(tài)信息的深度融合與分析,人形機(jī)器人能夠更精準(zhǔn)地理解環(huán)境和任務(wù)需求,做出更加智能、合理的決策。比如在家庭服務(wù)場景中,機(jī)器人可以通過視覺識別餐桌上的餐具,聽到主人“收拾餐具”的指令后,利用觸覺信息,準(zhǔn)確地拿起餐具并放置到合適位置,實(shí)現(xiàn)高效的人機(jī)協(xié)作。?

“龍躍”模型的低門檻驅(qū)動特性,使得開發(fā)者和使用者無需深入了解機(jī)器人的底層控制原理和復(fù)雜的動力學(xué)模型,就能快速開發(fā)出各種應(yīng)用。這為廣大中小企業(yè)和個人開發(fā)者提供了便捷的開發(fā)途徑,激發(fā)了市場的創(chuàng)新活力。以教育領(lǐng)域?yàn)槔?,教師可以利用“龍躍”模型輕松開發(fā)出適合教學(xué)場景的機(jī)器人應(yīng)用,讓學(xué)生通過與機(jī)器人互動,更好地理解科學(xué)知識,培養(yǎng)創(chuàng)新思維和實(shí)踐能力。這種低門檻驅(qū)動模式,將加速人形機(jī)器人在各個行業(yè)的普及應(yīng)用,推動產(chǎn)業(yè)生態(tài)的繁榮發(fā)展。?

在人形機(jī)器人運(yùn)動控制中,擬真度和時序一致性一直是兩大關(guān)鍵難題?!褒堒S”模型通過創(chuàng)新的算法架構(gòu)和海量數(shù)據(jù)訓(xùn)練,實(shí)現(xiàn)了擬真度與時序一致性的雙突破。在擬真度方面,機(jī)器人的動作更加接近人類的自然動作,如行走時的步伐姿態(tài)、手臂擺動的幅度和節(jié)奏等,都顯得非常自然流暢,不會出現(xiàn)以往機(jī)器人動作生硬、機(jī)械的問題。在時序一致性上,“龍躍”模型能夠精確控制機(jī)器人各個關(guān)節(jié)的運(yùn)動順序和時間間隔,確保在執(zhí)行復(fù)雜動作序列時,每個動作都能按照正確的時間順序依次完成,避免了動作沖突和不協(xié)調(diào)的情況。例如在舞蹈表演場景中,機(jī)器人能夠跟隨音樂節(jié)奏,完美地完成一系列復(fù)雜的舞蹈動作,動作的流暢性和協(xié)調(diào)性讓人驚嘆,為用戶帶來更加逼真、自然的交互體驗(yàn)。

「93913原創(chuàng)內(nèi)容,轉(zhuǎn)載請注明出處」