![]()
機器人前瞻(公眾號:robot_pro)
作者 許麗思
編輯 漠影
一直以來,機器人最容易出圈的時刻,往往發生在舞臺上。但是一進入真實場景干活,機器人就磕磕絆絆,最根本的問題就在于“大腦”能力不夠用。
而數據正是決定機器人 “大腦” 進化速度的核心變量,但目前高質量、多模態、可復用的真機數據依然嚴重匱乏,難以支撐具身智能模型持續迭代優化。
雖然合成數據和UMI數據在預訓練階段有明顯的規模化優勢,但真正決定機器人能否跨越Sim2Real鴻溝、進入真實場景執行任務的,仍然是不可替代的真機數據。
針對行業真機數據稀缺等核心瓶頸,近日,首個具身智能開源數據集社區成立,正通過打通“采集—開源—交易”鏈路,嘗試為具身智能搭建一套可持續運轉的數據基礎設施。
一、國內首個具身智能開源數據集社區成立,打造行業發展的公共底座
國內首個具身智能開源數據集社區成立由樂聚機器人牽頭建設,集結了上海交通大學、哈爾濱工業大學、同濟大學、螞蟻靈波、宇樹、具識智能、具腦磐石、庫帕思、無問智行等,形成了產學研協同共建的初步版圖。
該社區三大建設目標包括:開源高質量數據和工具鏈、打造開放共治的社區生態以及加速技術與產業深度融合。
![]()
過去具身智能行業在數據層面的推進,更多還是企業各自采集、各自訓練,而國內首個具身智能開源數據集社區的出現,意味著這一賽道加快從零散探索走向體系化建設。
具身智能所依賴的數據基礎設施,正從少數企業的內部能力,轉變為支撐整個行業發展的公共底座。
二、數據集全平臺下載量超百萬次,定義高質量真機數據樣本
如果說開源社區回答的是“高質量真機數據如何協同供給”,那么OpenLET數據集回答的則是“高質量的具身數據應該是什么樣”。
樂聚此次還全球首發OpenLET“觸覺靈巧操作+全身運動”數據集,這是一套全球首個融合觸覺靈巧操作與全身高動態運動的數據集。
在靈巧操作層面,OpenLET引入6×12×10的指尖壓力矩陣觸覺陣列數據,還通過腕部三維力與三維力矩構成的六維力數據,實現精度±0.5%。在全身運動層面,這套數據集覆蓋41個關節的精細控制信號。
![]()
據了解,樂聚LET數據集系列全平臺總下載量突破100萬次。LET數據集系列覆蓋工業、商業、家庭三大領域,包含117種原子技能,累計開源超60000分鐘數據。
對一個還處于早期的產業來說,超百萬的下載量本身就是一種投票,開發者用實際行動表明:真機數據正是當下極為稀缺、剛需的核心資源。
結語:數據基礎設施,正在重塑具身智能競爭 具身智能賽道的競爭邏輯正在改變,誰能更快獲得高質量真機數據、訓練出真正會干活的“大腦”,才更可能在下一階段占據主動。
而數據基礎設施的成熟程度,正在成為影響具身智能產業化速度和上限的關鍵變量。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.