英伟达联合 Hugging Face和云计算公司ServiceNow发布开源代码生成模型系列StarCoder 2,希望成为代码生成领域的新标准,释出的模型包括由ServiceNow训练的30亿参数模型、Hugging Face训练的70亿参数模型、英伟达训练的150亿参数模型,前两个模型可在大多数消费级GPU上运行。
项目官网:https://www.bigcode-project.org
模型及数据集:https://huggingface.co/bigcode
GitHub:https://github.com/bigcode-project/starcoder2
这是通过使用名为 Stack v2 的新代码数据集实现的,该数据集比 Stack v1 大七倍;新的训练技术也意味着该模型可以更好地理解 COBOL 等低资源编程语言、数学和程序源代码讨论。StarCoder2 经过 619 门编程语言培训,可以执行源代码生成、工作流生成、文本摘要等专业任务。英伟达表示,开发人员可以利用它进行代码补全、高级代码总结、代码片段检索等,从而提高工作效率。
英伟达表示相比较初版 StarCoder LLMs,新的 30 亿参数模型进一步精简和筛选了优质参数,其性能相当于 150 亿参数模型的初版 StarCoder。StarCoder2 采用 BigCode Open RAIL-M 许可证,允许免版税访问和使用。
0条评论