具身智能奇點已至!極佳視界自我進化VLA大模型拿下世界第一

具身智能奇點已至!極佳視界自我進化VLA大模型拿下世界第一

文章圖片

具身智能奇點已至!極佳視界自我進化VLA大模型拿下世界第一

文章圖片

具身智能奇點已至!極佳視界自我進化VLA大模型拿下世界第一

文章圖片

具身智能奇點已至!極佳視界自我進化VLA大模型拿下世界第一

文章圖片

具身智能奇點已至!極佳視界自我進化VLA大模型拿下世界第一
編輯:艾倫
【新智元導讀】極佳視界具身大模型 GigaBrain-0.5M* , 以世界模型預測未來狀態驅動機器人決策 , 并實現了持續自我進化 , 超越π*0.6實現 SOTA!該模型在疊衣、沖咖啡、折紙盒等真實任務中實現接近 100% 成功率;相比主流基線方法任務成功率提升近 30%;基于超萬小時數據訓練 , 其中六成由自研世界模型高保真合成 。
具身世界模型新一代原生范式重磅登?。 ?
繼具身基礎模型 GigaBrain-0.1 斬獲 RoboChallenge 全球第一后 , 性能更強大的 GigaBrain-0.5M* 又來了 。

作為依托世界模型實現自我進化的 VLA 大模型 , GigaBrain-0.5M* 在家庭疊衣、服務沖煮咖啡、工業折紙盒等多個真實機器人任務中 , 均實現零失誤、可持續穩定運轉 。
GigaBrain-0.5M* 作為一款基于世界模型條件驅動(World Model-Conditioned)的 VLA 大模型 , 以世界模型對未來狀態與價值的預測結果作為條件輸入 , 可顯著提升模型在長時程任務中的魯棒性 。
在此基礎上 , GigaBrain-0.5M* 創新引入人在回路(Human-in-the-Loop)持續學習機制 , 系統依托經人工篩選與校正的模型推演軌跡開展迭代訓練 , 基于真實環境交互反饋持續優化決策策略 , 最終實現「行動 — 反思 — 進化」的閉環式持續學習與自主迭代升級 。

論文鏈接:https://arxiv.org/pdf/2602.12099
項目鏈接:https://gigabrain05m.github.io/

基于世界模型的強化學習的訓練范式
在 GigaBrain-0.5M* 的研發中 , 極佳視界提出基于世界模型的強化學習范式 , 并采用迭代式四階段閉環訓練流程:

  • 基于大規模機器人操作數據完成世界模型預訓練 , 實現對未來狀態及對應價值的精準預測;
  • 以世界模型輸出的未來狀態預測與價值評估為條件 , 對策略網絡進行微調 , 以指引動作決策;
  • 將條件化策略部署至真實物理環境 , 依托人在環干預機制 , 采集模型自主推演軌跡數據;
  • 利用經篩選后的有效軌跡數據集 , 聯合優化世界模型與決策策略 , 實現模型持續學習與自主進化 。


連續零失誤執行
在與 AWR、RECAP 等主流模仿學習與強化學習基線方法的系統對比中 , GigaBrain-0.5M* 展現出顯著優勢 , 在相同任務設定下 , 相較于由 π*0.6 所提出的 RECAP 基線 , 任務成功率提升近 30% , 并實現了穩定可靠的模型效果 。
尤其在高難度長時程任務中 , 面對折紙盒、咖啡制備、衣物折疊等包含多階段操作、精細感知與持續決策的復雜場景 , GigaBrain?0.5M* 均實現接近 100% 的任務成功率 , 并可穩定復現成功執行軌跡 , 充分彰顯出卓越的策略魯棒性 。

高效且準確的價值預測
實驗結果表明 , 基于世界模型的價值預測方案在執行效率與預測精度上 , 均優于 π*0.6 提出的 VLM 方案 。
該方案的核心優勢源自對未來狀態的顯式建模與世界模型單步降噪機制 , 可為價值函數提供關鍵的時序上下文支撐 , 讓價值估計實現更高效、更精準、更穩定的輸出 。
以疊衣服任務為例:
任務初期 , 機械臂反復調整衣物姿態時 , 預測價值呈現合理波動;
當衣物擺正、進入穩定疊放階段 , 價值曲線穩步上升;
若中途出現干擾物 , 價值驟降以反映任務受阻;
待干擾物被移除后 , 價值迅速恢復增長趨勢 。
這種與任務物理進程高度對齊的價值演化 , 正是世界模型提供「認知先驗」的直接體現 。

上萬小時的訓練數據
GigaBrain-0.5M* 的基座模型 GigaBrain-0.5 基于總計 10931 小時的多樣化機器人操作數據進行預訓練 , 其中 61%(6653 小時)由自研具身世界模型 GigaWorld 高保真合成 , 覆蓋紋理遷移、視角變換、人手到機械臂映射等豐富場景;
剩余 39%(4278 小時)源自真實機器人采集 , 確保策略在物理世界中的可執行性 。
海量數據的引入顯著拓展了模型的任務覆蓋廣度與策略魯棒性 , 使其在面對復雜、長時程操作任務時具備更強的泛化能力;
而 GigaWorld 生成的合成數據則有效突破了真實采集的長尾瓶頸 。
通過可控地生成新紋理、新物體位姿與新觀測視角下的訓練樣本 , 增強了模型在分布外場景中的適應性 , 為具身智能走向開放世界奠定了數據基石 。


關于極佳視界
極佳視界是一家具身智能和通用機器人公司 , 圍繞「基模 — 本體 — 場景」三位一體 , 為工業、商業、家庭等場景提供軟硬一體的具身智能機器人解決方案 , 推動通用機器人服務千行百業、走進千家萬戶 。
公司核心團隊包括清華、北大、中科院、中科大、WashU、CMU 等全球知名院校頂尖研究人員 , 以及來自微軟、三星、地平線、百度、博世等全球知名企業高管 , 核心團隊在物理 AI 方向兼具業內領先的研究能力和大規模的產業落地經驗 。
極佳視界是國內第一家布局世界模型的科技公司 , 以世界模型平臺 GigaWorld、通用具身大腦 GigaBrain、原生本體 Maker 構建閉環生態 , 致力實現 10-100 倍以上的數據、訓練、測試全鏈路效率提升 , 推動通用具身智能機器人、通用自動駕駛等物理 AGI 大規模爆發 。
參考資料:斬獲全球第一后 , 更強大的GigaBrain-0.5M*來了 , 世界模型原生的新一代范式登?。 ?
論文鏈接:https://arxiv.org/pdf/2602.12099
【具身智能奇點已至!極佳視界自我進化VLA大模型拿下世界第一】項目鏈接:https://gigabrain05m.github.io/

    推薦閱讀