继空间感知与具身大模型之后,蚂蚁灵波团队正式开源了其交互式世界模型LingBot-World。该模型旨在为具身智能、自动驾驶等领域提供一个高保真、逻辑一致且可实时操控的“数字演练场”。

LingBot-World 解决了具身智能训练中“真机数据稀缺、成本高昂”的核心痛点。通过在虚拟环境中模拟物理规律,智能体可以进行低成本的“试错”,并将习得的行为因果关系迁移至现实世界。长时序一致性:实现了近10分钟的连续稳定生成。即使镜头移开60秒后返回,场景中的物体结构与外观依然保持一致,有效解决了视频生成中的“细节塌陷”问题。高保真实时交互:支持动作驱动生成(Action-conditioned generation),生成吞吐量约 16FPS,端到端交互延迟控制在 1秒以内。用户可通过键盘、鼠标或文本指令实时改变环境,如调整天气或视角。Zero-shot 泛化能力:采用混合数据策略,结合网络视频与虚幻引擎(UE)合成管线进行训练。用户仅需输入一张真实的城市照片或游戏截图,模型即可生成对应的可交互视频流,无需针对特定场景额外训练。目前,蚂蚁灵波团队已将LingBot-World的模型权重及推理代码全面开源。
来源:网络