91精品国产成人久久-777米奇色狠狠俺去啦-91亚洲欧美强伦三区-成年午夜av在线免费观看-欧美性视频欧美欧一欧美-午夜剧场在线观看高清-国产自拍视频在线观看网址-亚洲日韩精品无码专区97-麻豆国产成人免费视频

智快網 - 新科技與新能源行業(yè)網絡媒體

螞蟻靈波開源LingBot系列模型,具身智能研發(fā)迎來新范式與新助力

   發(fā)布時間:2026-02-10 02:51 作者:柳晴雪

隨著具身智能技術的快速發(fā)展,傳統(tǒng)視覺-語言-動作(VLA)模型正面臨數據瓶頸與復雜場景適應性挑戰(zhàn)。物理世界動態(tài)數據的稀缺性,成為制約機器人智能化水平提升的關鍵因素。在此背景下,螞蟻靈波宣布開源LingBot系列模型,通過構建覆蓋感知、理解、模擬、行動的完整技術棧,為行業(yè)提供了一套可復用的具身智能基礎設施。

作為系列模型的核心突破,LingBot-VA首創(chuàng)"自回歸視頻-動作范式",通過融合視頻生成與運動控制技術,使機器人具備"先思后行"的決策能力。該模型采用Mixture-of-Transformers架構,將視覺推演(視頻流)與運動控制(動作流)解耦設計,既共享注意力機制又保持獨立計算。在執(zhí)行任務前,系統(tǒng)會先模擬未來3-5秒的世界狀態(tài)變化,結合實時傳感器反饋形成閉環(huán)修正,最終輸出最優(yōu)動作序列。這種設計使機器人在制作早餐、雙臂協(xié)作等長時序任務中的成功率提升20%,在RoboTwin 2.0基準測試中突破90%成功率。

支撐LingBot-VA的是三大技術創(chuàng)新機制:閉環(huán)推演系統(tǒng)通過持續(xù)校準模擬與現實的偏差,防止"幻覺漂移";異步推理管線實現動作預測與電機執(zhí)行的并行處理,將響應延遲降低40%;自回歸訓練框架使模型能夠從有限的真實數據中學習復雜場景的時空關聯。這些特性使該模型在LIBERO終身學習基準上達到98.5%的平均成功率,顯著優(yōu)于傳統(tǒng)VLA模型。

同步開源的LingBot-Depth空間感知模型,通過多光譜融合技術解決了透明/反光物體的識別難題。該模型采用神經輻射場(NeRF)與幾何約束相結合的方法,使透明物體抓取成功率從0提升至50%,在醫(yī)療試管插拔等精細操作中表現出色。其輸出的高精度深度信息可與LingBot-VLA無縫對接,形成"視覺-認知-執(zhí)行"的增強回路。

作為機器人的"數字演練場",LingBot-World通過多階段訓練架構實現了近10分鐘的連續(xù)視頻生成能力。該模型采用時空注意力機制與動態(tài)物體建模技術,有效解決了長時生成中的物體變形、場景崩潰等問題。在模擬環(huán)境中,機器人可進行數萬次低成本試錯學習,將真實世界訓練效率提升3倍以上。這種"數字孿生"訓練方式,為具身智能的規(guī)模化部署提供了關鍵支撐。

LingBot-VLA作為認知中樞,基于2萬小時真實機器人操作數據訓練,支持9種主流雙臂機器人構型的零樣本遷移。該模型采用分層決策架構,將復雜任務分解為可執(zhí)行的子動作序列,在GM-100基準測試中超越基線模型Pi0.5。其獨特的跨構型適應能力,使同一"大腦"可無縫切換至不同硬件平臺,顯著降低機器人系統(tǒng)的開發(fā)成本。

行業(yè)專家指出,螞蟻靈波的全棧開源策略打破了傳統(tǒng)具身智能研發(fā)的"煙囪式"局限。開發(fā)者既可單獨使用某個模塊解決特定問題,也能組合構建完整系統(tǒng)。這種開放生態(tài)有望加速技術迭代,推動具身智能從實驗室走向工業(yè)制造、醫(yī)療護理、家庭服務等真實場景。據測試數據顯示,采用LingBot系列模型的研發(fā)周期可縮短60%,工程化成本降低45%,為機器人大規(guī)模部署掃清了關鍵障礙。

 
 
更多>同類內容
全站最新
熱門內容
 
智快科技微信賬號
微信群

微信掃一掃
加微信拉群
電動汽車群
科技數碼群