Meta 公司于本周四宣布推出了一款名为 Meta Motivo 的人工智能模型,旨在增强元宇宙中的类人数字智能体的动作控制,从而提升用户体验。此外,Meta 还发布了大型概念模型 LCM 和视频水印工具 Video Seal 等其他 AI 工具,并重申了对 AI、AR 和元宇宙技术的持续投入。
Meta Motivo 是一款基于行为的基础模型,它在 Mujoco 模拟器中进行了训练,采用了 AMASS 动作捕捉数据集的一部分以及 3000 万个在线交互样本。通过一种创新的无监督强化学习算法,Meta Motivo 被预训练来控制复杂的虚拟人形智能体的动作。
这款模型采用了一种新颖的 FB-CPR 算法,能够利用未标记的动作数据集,同时保留零样本推理能力,并引导无监督强化学习向学习类似人类的行为发展。
尽管 Meta Motivo 没有经过任何特定任务的显式训练,但它在预训练过程中展示了出色的性能,如动作轨迹跟踪(例如侧手翻)、姿势到达(例如阿拉贝斯克舞姿)和奖励优化(例如跑步)等任务,表现出更接近人类的行为。
该算法的核心技术创新在于学习表示(representation),这种表示能够将状态、动作和奖励嵌入到同一个潜在空间中。因此,Meta Motivo 能够解决多种全身控制任务,包括运动跟踪、目标姿态到达和奖励优化,而无需额外的训练或规划。