大语言模型
优惠 浪潮信息推出开源MoE模型Yuan 2.0-M32:基于Yuan 2.0-2B的一个变体,采用了一种特殊的架构,其中包含32个专家网络,但每次只有2个专家被激活
6个月前 (06-01)AI
浪潮信息推出新型混合专家(Mixture of Experts,简称MoE)语言模型Yuan 2.0-M32,这个模型是基于Yuan 2.0-2B的一个变体,采用了一种特殊的架构,其中包含32个专家网络,但每次只有2个专家被激活。这种设计旨在提高模型的计算效率和准确性。实验结果表明,Yuan 2.0-M32在上述应用场... 阅读全文
优惠 Google DeepMind推出新型多塔解码器架构Zipper:将多个在不同模态上独立预训练的生成模型融合在一起,创造出比单独模型更强大的多模态生成能力
6个月前 (06-01)AI
Google DeepMind推出新型多塔解码器架构Zipper,它能够将多个在不同模态上独立预训练的生成模型融合在一起,创造出比单独模型更强大的多模态生成能力。简单来说,Zipper就像一个多才多艺的艺术家,能够把不同的艺术形式(比如语言、声音和图像)融合在一起,创作出新的艺术作品。论文还提到了Zipper的一些限制... 阅读全文
优惠 Google DeepMind推出新强化学习方法DRO:用于大语言模型(LLM)的对齐
6个月前 (06-01)AI
Google DeepMind推出一种新的强化学习方法DRO(Direct Reward Optimisation,直接奖励优化),用于大语言模型(LLM)的对齐。这种方法旨在改善大型语言模型的行为,使其更好地符合人类的偏好。这很重要,因为一个好的语言模型不仅需要智能,还需要能够生成对用户有帮助且安全的内容。 主要功能... 阅读全文