上海 AI 实验室与商汤科技联合香港中文大学和复旦大学正式发布新一代大语言模型书⽣·浦语 2.0(InternLM2)。InternLM2 是在 2.6 万亿 token 的高质量语料上训练得到的,沿袭第一代书生·浦语(InternLM)的设定,包含 7B 及 20B 两种参数规格及基座、对话等版本,提供免费商用授权。书生·浦源大模型挑战赛同日启动,首期赛事包含行业应用和创新创意两个赛道,即日起面向全球进行场景和赛队征集。
GitHub 地址:https://github.com/InternLM/InternLM
HuggingFace 地址:https://huggingface.co/internlm
魔搭地址:https://modelscope.cn/organization/Shanghai_AI_Laboratory
主要功能和特点:
- 长文本理解与生成: InternLM2特别擅长处理和生成长文本,这得益于其对长范围依赖关系的捕捉能力。
- 高效的训练框架: 论文详细介绍了InternLM2的训练过程,包括使用的数据类型(如文本、代码和长文本数据)以及预训练设置。
- 对齐策略: 为了更好地符合人类价值观和指令,InternLM2采用了监督式微调(SFT)和条件在线强化学习(COOL RLHF)策略。
- 开放源代码: 为了促进社区的发展和研究,InternLM2将其模型在不同训练阶段的版本开源。
工作原理: InternLM2的训练分为几个阶段,首先是使用4k词汇长度的文本进行训练,然后过渡到32k词汇长度的文本,以提高对长文本的处理能力。在预训练阶段,模型通过大量的文本数据学习语言规律和知识。随后,通过SFT和RLHF进一步优化模型,使其更好地遵循人类指令并符合人类价值观。COOL RLHF策略通过条件奖励模型来协调不同的人类偏好,并使用近端策略优化(PPO)来减少奖励黑客行为。
具体应用场景:
- 对话系统: InternLM2可以用于构建更加自然和流畅的对话系统,提供有用的信息同时避免不适当的内容。
- 编程辅助: 由于InternLM2在处理代码方面的能力,它可以作为编程辅助工具,帮助开发者编写和调试代码。
- 教育和学习: 模型可以用于创建个性化的学习体验,帮助学生理解复杂的概念或提供定制的学习材料。
- 数据分析和报告: InternLM2可以分析大量文本数据,生成摘要或报告,为决策提供支持。
总之,InternLM2是一个功能强大的语言模型,它通过长文本处理能力和对人类指令的良好对齐,为各种应用场景提供了新的可能性。
0条评论