小米近期宣布正式开源其视觉-语言-动作(VLA)大模型 Xiaomi-Robotics-0的真机后训练全流程。这一举措标志着小米在具身智能领域迈出重要一步,旨在让机器人能够更快速地通过少量数据掌握复杂的操作技能。
二十小时练就“穿针引线”
基于预训练基座,研发团队仅利用约20小时的任务数据进行真机后训练,便让机器人掌握了将耳机精准收纳进盒的高难度动作。该过程不仅要求极高的空间感知精度,还需克服极低表面粗糙度带来的位移干扰。
模型必须在亚毫米级的公差范围内完成对位,并能实时修正动作偏差。这种“连续丝滑”的执行能力,证明了 Xiaomi-Robotics-0在处理高精度装配任务时的卓越潜力。
开源生态推动生产力进化
为了让该模型真正成为“开箱即用”的工具,小米此次不仅开放了模型权重,还公布了技术报告与源代码。这种全链条的开源模式,极大降低了开发者进入具身智能领域的门槛。
此前,该模型在国际权威平台上已表现出色,位列全球下载榜前列。随着后训练流程的公开,全球开发者将能共同优化机器人的感知与执行逻辑,加速 AI 机器人走进现实生产生活的进程。
● 项目网站:https://robotics.xiaomi.com/xiaomi-robotics-0.html
● 开源代码:https://github.com/XiaomiRobotics/Xiaomi-Robotics-0
via AI新闻资讯 (author: AI Base)