国内首个千亿级MoE架构大模型APUS-xDAN-4.0开源

分类:大语言模型 | 热度:220 ℃

APUS与新旦智能联合训练、研发的千亿MoE(Mixture of Experts)架构大模型APUS-xDAN-4.0,在GitHub上正式开源,该模型可以在低端算力芯片4090上运行,综合性能达到了GPT-4 的90%。APUS-xDAN大模型4.0(MoE)采用GPT4类似的MoE架构,特点是多专家模型组合,同时激活使用只有2个子模块,实际运行效率对比传统Dense同尺寸模型效率提升200%,推理成本下降400%。

GitHub:https://github.com/shootime2021/APUS-xDAN-4.0-moe/blob/main/README_zh-CN.md

模型:https://huggingface.co/xDAN-AI/APUS-xDAN-4.0-MOE/tree/main

国内首个千亿级MoE架构大模型APUS-xDAN-4.0开源

声明: 猎游人 每天为你带来最新的游戏和硬件打折情报,帮你精心挑选值得玩的游戏,让您的钱花的更值!本站信息大部分来自于网友爆料,如果您发现了优质的游戏或好的价格,不妨爆料给我们吧(谢绝任何商业爆料)! 点此爆料

0条评论

Hi,您需要填写昵称和邮箱!
姓名 (必填)
邮箱 (必填)
网站

暂时木有评论