来自加州大学洛杉矶分校的六人团队(全是华人)今天他们公开了他们的机器人学习跳舞和动作的演示,还公开了论文,论文中介绍了一种名为Expressive Whole-Body Control(ExBody)的方法,它旨在让类人机器人(humanoid robots)在现实世界中执行丰富、多样和富有表现力的动作。研究者们通过结合大规模的人类动作捕捉数据和深度强化学习(Reinforcement Learning, RL)框架,训练了一个全身控制策略,使得机器人能够模仿人类的动作,同时保持稳定和适应性。ExBody为类人机器人提供了一种新的控制方法,使其能够执行更加自然和富有表现力的动作,这在机器人技术的发展中是一个重要的进步。
项目主页:https://expressive-humanoid.github.io
主要功能:
- 生成丰富的全身动作:ExBody能够控制机器人执行多种风格的动作,如跳舞、与人类握手,甚至在不同地形上行走时表现出不同的风格。
- 模拟人类动作:通过模仿人类的动作数据,机器人能够展现出类似人类的动态和表情。
主要特点:
- 上半身模仿:ExBody鼓励机器人的上半身模仿参考动作,以增加表现力,同时放松对腿部的动作模仿约束,只要求腿部能够稳健地跟随给定的速度。
- 模拟到现实(Sim2Real)转移:通过在模拟环境中训练,ExBody能够实现从模拟到现实世界的平滑过渡,使得策略在现实世界中同样有效。
工作原理:
- 数据准备:研究者们从图形学社区获取了大规模的人类动作捕捉数据,并将其重新定位到机器人的骨骼结构上。
- 强化学习训练:在模拟环境中,ExBody通过强化学习训练策略,使得机器人能够根据给定的速度和方向指令执行动作,同时保持平衡。
- 目标条件控制:ExBody将动作目标分为表达目标(如手臂位置)和根部运动目标(如速度和方向),并设计奖励函数以跟踪这些目标。
0条评论