谷歌 DeepMind 今日發(fā)布博客文章,宣布推出一種全新的 Gemini Robotics On-Device 本地化機器人 AI 模型。
該模型基于視覺-語言-動作(VLA)架構(gòu),無需云端支持即可實現(xiàn)實體機器人控制。核心特性包括:
技術(shù)能力:
獨立運行于機器人設(shè)備,支持低延遲響應(yīng)(IT之家注:適用于網(wǎng)絡(luò)不穩(wěn)定場景,如醫(yī)療環(huán)境)
完成高精度操作任務(wù)(如打開包袋拉鏈、疊衣服、系鞋帶)
雙機械臂設(shè)計,適配 ALOHA、Franka FR3 及 Apollo 人形機器人
開發(fā)適配:
提供 Gemini Robotics SDK 工具包
開發(fā)者通過 50-100 次任務(wù)演示即可定制新功能
支持 MuJoCo 物理模擬器測試
安全保障:
通過 Live API 實施語義安全檢測
底層安全控制器管理動作力度與速度
開放語義安全基準測試框架
項目負責人 Carolina Parada 表示:“該系統(tǒng)借鑒 Gemini 多模態(tài)世界理解能力,如同 Gemini 生成文本 / 代碼 / 圖像那樣生成機器人動作”。
谷歌表示,該模型現(xiàn)在只面向可信測試計劃開發(fā)者開放,基于 Gemini 2.0 架構(gòu)開發(fā)(落后于 Gemini 2.5 最新版本)。