重磅!千寻智能开源模型Spiritv1.5登顶RoboChallenge
创始人
2026-01-12 14:46:11
0

投资家网获悉,1月12日,千寻智能自研的具身智能模型Spirit v1.5在RoboChallenge评测中取得综合排名第一,在任务得分与成功率两个维度均超越Pi0.5。

为验证榜单成绩来源于自研模型且真实有效,千寻智能同步开源了Spirit v1.5的基模权重、推理代码以及使用样例,接受公众与研究社区的独立检验。通过这一方式,研究者不仅可以复现榜单评测结果,也可以将Spirit v1.5作为具身智能基础模型,在此基础上开展进一步研究与创新。

RoboChallenge是2025年新成立的标准化评测体系,由Dexmal、Hugging Face等机构联合发起,聚焦具身智能模型的跨平台能力验证。作为当前具身智能领域强调真实机器人执行能力的重要benchmark,其评测任务覆盖复杂指令理解、多步骤操作规划以及跨场景执行稳定性等多个维度。Spirit v1.5在该平台取得第一名,显示出其在通用机器人任务与真实执行场景中的综合能力。

RoboChallenge评测表现概览

从评测结果来看,Spirit v1.5在多项任务中保持较高成功率,尤其在多任务连续执行、复杂指令拆解以及跨构型迁移等维度中表现稳定。截至最新评测周期,其综合得分超过Pi 0.5等此前领先模型,位列榜单首位。

RoboChallenge的评分体系不仅关注任务是否完成,还对模型的执行过程进行评估,包括空间定位、遮挡处理、长时序稳定性以及面对新任务时的迁移效率。这种评测方式对模型的泛化性、稳定性与执行准确性提出了更高要求,也更贴近真实机器人应用场景。

技术架构与关键方法

在模型架构上,Spirit v1.5采用Vision-Language-Action(VLA)统一建模框架,将视觉感知、语言理解与动作生成整合在同一决策流程中,减少多模块串联带来的信息损耗,并提升长程任务中的整体稳定性。

在训练方法上,Spirit v1.5的一个核心特点是不依赖高度精选的“干净”演示数据。千寻智能在技术博客中提出,过度脚本化、受控环境下采集的数据,虽然有利于模型快速收敛,但会限制其在真实世界中的泛化能力。

因此,Spirit v1.5在预训练阶段引入了开放式、多样化的数据采集范式。数据采集不再严格限定任务脚本,而是以“完成有意义目标”为导向,允许操作过程中自然串联多个子任务与原子技能。这种方式使模型在训练阶段接触到更接近真实世界的复杂性,包括遮挡、失败恢复以及任务之间的自然过渡。

相关消融实验显示,在相同数据规模下,基于多样化数据预训练的模型,在新任务上的迁移效率明显高于基于传统演示数据训练的模型,达到相同性能所需的计算资源显著减少。这一结果也解释了Spirit v1.5在RoboChallenge多构型、未见任务评测中的稳定表现。

开源路线与社区意义

在取得评测成绩的同时,千寻智能选择同步开源Spirit v1.5模型权重、训练代码以及榜单评测相关实现。通过这一方式,社区不仅可以验证模型性能,也可以将其作为具身智能研究的基础模型进行扩展。

在当前具身智能研究仍高度依赖少数技术路线的背景下,Spirit v1.5为学界和产业界提供了一条不同的数据范式与训练思路,有助于推动更具泛化能力的通用机器人模型探索。

相关内容