元象XVERSE发布中国最大MoE开源模型:XVERSE-MoE-A36B

分类:大语言模型 | 热度:62 ℃

加速AI应用低成本部署,国产开源技术迈入国际领先行列。元象XVERSE最新发布的XVERSE-MoE-A36B模型,以其卓越的性能和效率,为AI领域带来革命性的变革。元象「高性能全家桶」系列模型全面开源,无条件免费商用,满足广大中小企业、研究者和开发者的需求。

模型亮点

  • 参数规模:总参数达255B,激活参数36B,实现100B模型性能的「跨级」跃升。
  • 训练效率:训练时间减少30%,推理性能提升100%,大幅降低每token成本。

元象XVERSE发布中国最大MoE开源模型:XVERSE-MoE-A36B

MoE架构

MoE(Mixture of Experts)作为业界最前沿的混合专家模型架构,通过组合多个细分领域的专家模型,形成一个超级模型。这种架构突破了传统扩展定律的局限,能够在扩大模型规模的同时,有效控制训练和推理的计算成本,确保模型性能的最大化。MoE架构已被多个行业前沿模型采用,包括谷歌的Gemini-1.5、OpenAI的GPT-4、以及马斯克旗下xAI公司的Grok等。在多个权威评测中,元象MoE效果显著超越多个同类模型,包括国内千亿MoE模型Skywork-MoE、传统MoE霸主Mixtral-8x22B,以及3140亿参数的MoE开源模型Grok-1-A86B等。

元象XVERSE发布中国最大MoE开源模型:XVERSE-MoE-A36B

免费下载大模型

  • Hugging Face:https://huggingface.co/xverse/XVERSE-MoE-A36B
  • 魔搭:https://modelscope.cn/models/xverse/XVERSE-MoE-A36B
  • Github:https://github.com/xverse-ai/XVERSE-MoE-A36B
  • 官网:chat.xverse.cn
声明: 猎游人 每天为你带来最新的游戏和硬件打折情报,帮你精心挑选值得玩的游戏,让您的钱花的更值!本站信息大部分来自于网友爆料,如果您发现了优质的游戏或好的价格,不妨爆料给我们吧(谢绝任何商业爆料)! 点此爆料

0条评论

Hi,您需要填写昵称和邮箱!
姓名 (必填)
邮箱 (必填)
网站

暂时木有评论