您好!歡迎登錄水木春錦資本管理有限公司官方網(wǎng)站!
已投資訊 | 達闥聯(lián)手中山大學打造具身智能模擬器和新基準,讓機器人更智能
發(fā)布時間:
2023-06-20 18:00
來源:
去年年底,ChatGPT橫空出世,在全球科技浪潮中掀起了驚濤駭浪,隨后,各個科技公司都開始著手打造自己的大模型,帶來各行各業(yè)效率的革命和體驗的升級。盡管大規(guī)模語言模型(LLMs,Large Language Models)可以進行復雜的語言生成和對話交流,但ChatGPT多模態(tài)感知、長期的運動規(guī)劃和行為交互能力有限,還不是人類理想的智能體。“具身智能”+“機器人”有望成為AI的下一個潮水涌動的方向。
近年來,達闥在具身智能領域持續(xù)加大研發(fā)投入,發(fā)布了海睿AGI平臺和首個機器人智能領域的多模態(tài)認知大模型——RobotGPT。達闥還與中山大學智能工程學院副教授、博士生導師梁小丹(國家萬人青拔人才)展開緊密合作,共同探索具身智能前沿科技:為機器人開發(fā)非常真實的模擬環(huán)境,創(chuàng)建兩個基準測試,助力機器人在自主推理和導航方面的研究更快地取得進展。
“具身智能”(Embodied Intelligence)意指有身體并支持物理交互的智能體,標桿產(chǎn)品是人形機器人。實現(xiàn)具身智能是指讓機器能夠像人一樣擁有身體感知、交互和行動的能力,這種能力使機器能夠更加自然地與物理世界進行交互。但是,實現(xiàn)具身智能面臨著以下困難和挑戰(zhàn):
為了有效應對上述挑戰(zhàn),我們需要追求更為真實的仿真環(huán)境,開發(fā)更為有效的數(shù)據(jù)收集和標注策略,制定更為全面的評估指標。因此,達闥積極與中山大學展開了深度合作,在以下三方面取得了階段性成果:
1.研發(fā)并開放工業(yè)級真實感的機器人具身智能訓練工具(HARIX RDK)
為了方便、公正地比較機器人在不同基線模型下理解和執(zhí)行人類自然語言指令的成功率,我們構(gòu)建了高度逼真的場景模擬與機器人具身智能訓練工具(HARIX RDK),用于機器人具身智能的研究,特點有:①有真實光照,能夠高擬真產(chǎn)生照明陰影、鏡面反射、亮斑等。②仿真環(huán)境中加入了人類,這些人類或處于通道中阻擋路徑或走入機器人行進路線。③環(huán)境可以通過讀取底層數(shù)據(jù)實現(xiàn)對各類物體進行細致的語義分割標注,便于后續(xù)構(gòu)建基準。④HARIX RDK可支持達闥公司研發(fā)的多種類型的機器人。
2.構(gòu)建了機器人操作相關的漸進式推理任務基準測試,促進機器人漸進式推理研究的快速發(fā)展
為方便分析和評估大語言模型在機器人操作中的應用,我們創(chuàng)建了一個通用的框架,如下圖所示,主要由三部分組成:自動場景生成、指令生成和機器人操縱。自動場景生成負責生成豐富多樣的場景供agent進行訓練和測試。由于獲取大規(guī)模復雜且高質(zhì)量的人類自然語言指令既昂貴又困難,為此我們還設計了一個使用ChatGPT模擬人類自然語言指令生成的模塊,為機器人操作提供自然語言指令。最后,通過向機器人輸入生成的視覺場景和自然語言指令,控制機器人進行相應的操作。
Level 1任務用于評估機器人的抓取能力。Level 2任務用于評估機器人在多目標環(huán)境中的識別和抓取能力。Level 3任務側(cè)重于評估機器人理解簡單的人類自然語言的能力。Level 4任務主要用于評估機器人理解復雜、模糊的人類自然語言指令和推理人類意圖的能力。
3.構(gòu)建了面向開放域零樣本視覺語言導航的多任務基準測試,促進機器人視覺語言導航研究的快速發(fā)展
為了促進開放式視覺語言導航的研究,我們在HARIX RDK中構(gòu)建了MO-VLN,一個面向開放域零樣本視覺語言導航的多任務基準測試。MO-VLN專注于零樣本視覺與語言導航,涉及根據(jù)語言指令導航到特定的目標對象、抽象對象和特定位置。具體來說,MO-VLN分為四個任務,如下圖所示,即給定類別的對象導航、給定簡單指令的目標導向?qū)Ш?、完全抽象指令和按步驟跟隨指令。
在HARIX RDK的仿真場景中讓智能體自主探索、結(jié)合其視覺自動構(gòu)建拓撲語義地圖,將開放詞匯模型和大語言模型結(jié)合進行指令和場景理解,預測目標位置并逐步移動至目標位置,如下圖所示:
這里,我們利用預訓練的視覺-語言模型如GLIP/ Grounding DINO進行物體定位。在檢測到可能的物體位置后,我們將它們投影到語義地圖上。在環(huán)境探索上,我們只考慮zero-shot策略,如基于常識知識的探索。運用GLIP檢測觀察并獲取關于周圍環(huán)境的信息,能力較強的LLM可以根據(jù)其常識知識和檢測結(jié)果更準確地預測下一個可能的位置。我們還讓GPT-4在給定檢測到的周圍物體和區(qū)域的情況下完成常識推理。
項目網(wǎng)站:
https://necolizer.github.io/RM-PRT
https://mligg23.github.io/MO-VLN-Site
此次研究所用到的機器人產(chǎn)品是達闥自主研發(fā)的Cloud Ginger 1.0——柔美人形智能服務機器人,具有精準的視覺抓取能力、全方位的聽、說、看、動等融合智能能力;開發(fā)平臺使用的是達闥HARIX RDK機器人開發(fā)套件,可以實現(xiàn)機器人在智能語音、行為控制、動作編輯、移動導航等方面的能力開發(fā),并完成數(shù)字孿生環(huán)境和真實機器人的虛實同步驗證。
校企合作是促進創(chuàng)新和培養(yǎng)人才的有效機制,一直以來,達闥都很重視和高校的深度合作,近年來相繼與復旦大學、同濟大學、上海交大、上海大學、東北大學、安徽大學、西安理工大學、山東大學等多所高校,在人工智能課程設置、技術(shù)研發(fā)、人才培養(yǎng)等方面聯(lián)合開展了多項合作,促進了學術(shù)研究與市場前沿的無縫結(jié)合,全方位發(fā)掘了云端機器人背后的價值及潛能。在達闥和中山大學的合作下,具身智能正以強勁的勢頭邁向新的里程碑。相信隨著更多科學家和工程師的不懈努力,我們將迎來通用人工智能的嶄新時代,智能體與人類在互動和合作中共同創(chuàng)造美好未來。