OpenVLA

优惠 开源视觉-语言-动作模型OpenVLA:多才多艺的机器人大脑,它能够理解人类的语言指令

  • 开源视觉-语言-动作模型OpenVLA:多才多艺的机器人大脑,它能够理解人类的语言指令
    AI
  • 斯坦福大学、加州大学伯克利分校、丰田研究院、Google DeepMind和麻省理工学院推出OpenVLA,它是一个拥有7亿参数的视-语-行模型(Vision-Language-Action Model,简称VLA)。简单来说,OpenVLA就像是一个多才多艺的机器人大脑,它能够理解人类的语言指令,并通过自己的“眼睛”... 阅读全文