螞蟻靈波開源LingBot-Depth模型 讓機器人精準抓取透明反光物

螞蟻靈波開源LingBot-Depth模型 讓機器人精準抓取透明反光物

【TechWeb】1月27日消息 , 螞蟻集團旗下具身智能公司靈波科技宣布開源高精度空間感知模型 LingBot-Depth 。
該模型基于奧比中光Gemini 330系列雙目3D相機提供的芯片級原始數據 , 專注于提升環境深度感知與三維空間理解能力 , 旨在為機器人、自動駕駛汽車等智能終端賦予更精準、更可靠的三維視覺 。
據介紹 , 在NYUv2、ETH3D等權威基準評測中 , LingBot-Depth展現出代際級優勢:相比業界主流的 PromptDA與PriorDA , 其在室內場景的相對誤差(REL)降低超過70% , 在挑戰性的稀疏SfM 任務中RMSE誤差降低約47%。
在家庭和工業環境中 , 玻璃器皿、鏡面、不銹鋼設備等透明和反光物體物體十分常見 , 但卻是機器空間感知的難點 。 傳統深度相機受制于光學物理特性 , 在面對透明或高反光材質時 , 往往無法接收有效回波 , 導致深度圖出現數據丟失或產生噪聲 。
針對這一行業共性難題 , 螞蟻靈波科技研發了“掩碼深度建?!保∕asked Depth Modeling , MDM)技術 , 并依托奧比中光 Gemini 330 系列雙目 3D 相機進行 RGB-Depth 數據采集與效果驗證 。 當深度數據出現缺失或異常時 , LingBot-Depth 模型能夠融合彩色圖像(RGB)中的紋理、輪廓及環境上下文信息 , 對缺失區域進行推斷與補全 , 輸出完整、致密、邊緣更清晰的三維深度圖 。
值得一提的是 , LingBot-Depth 模型已通過奧比中光深度視覺實驗室的專業認證 。 實驗中 , 奧比中光 Gemini 330 系列在應用LingBot-Depth 后 , 面對透明玻璃、高反光鏡面、強逆光及復雜曲面等極具挑戰的光學場景時 , 輸出的深度圖依然平滑、完整 , 且物體的輪廓邊緣非常銳利 , 其效果顯著優于業內領先的3D 視覺公司 Stereolabs 推出的 ZED Stereo Depth 深度相機 。
【螞蟻靈波開源LingBot-Depth模型 讓機器人精準抓取透明反光物】LingBot-Depth 的優異性來源于海量真實場景數據 。 靈波科技采集約 1000 萬份原始樣本 , 提煉出 200 萬組高價值深度配對數據用于訓練 , 支撐模型在極端環境下的泛化能力 。 這一核心數據資產(包括 2M 真實世界深度數據和 1M 仿真數據)將于近期開源 , 推動社區更快攻克復雜場景空間感知難題 。
據了解 , 螞蟻靈波科技已與奧比中光達成戰略合作意向 。 奧比中光計劃基于 LingBot-Depth 的能力推出新一代深度相機 。 本周螞蟻靈波將陸續開源多款具身智能方向模型 。

    推薦閱讀