Self-MoE

优惠 新型大语言模型Self-MoE:将传统的单一大型模型转变为由多个自专业化专家组成的模块化系统

  • 新型大语言模型Self-MoE:将传统的单一大型模型转变为由多个自专业化专家组成的模块化系统
    AI
  • 佐治亚理工学院、MIT-IBM Watson AI 实验室、麻省理工学院、加州大学圣地亚哥分校和MBZUAI的研究人员发布新型大语言模型Self-MoE,它将传统的单一大型模型转变为由多个自专业化专家组成的模块化系统,这些专家被称为MiXSE(MiXture of Self-specialized Experts,即自... 阅读全文