微软的研究人员发布论文介绍了一个名为Orca-Math的小型语言模型(SLM),它在解决小学数学问题方面表现出色。尽管数学问题解决一直被认为是小型语言模型的一个复杂任务,但Orca-Math在GSM8K基准测试上达到了约87%的准确率,而训练数据仅有20万个合成数学问题。
论文地址:https://arxiv.org/abs/2402.14830
主要功能和特点包括:
- 高准确率:Orca-Math在GSM8K测试中达到了86.81%的准确率,超过了一些更大的模型,如LLAMA-2-70B、WizardMath-70B等。
- 高效的训练数据:Orca-Math使用了一个由200,000个数学问题组成的高质量合成数据集进行训练,这个数据集是通过多代理设置生成的,代理们协作创建数据,提高了问题的多样性和难度。
- 迭代学习技术:Orca-Math采用了一种迭代学习技术,使模型能够在解决问题时接收反馈并从中学习,通过偏好对(包含模型解决方案和反馈)进行学习。
工作原理:
- 数据集构建:首先,研究者们收集了现有的开源数学问题数据集,并使用基于代理的方法(称为Agent-Instruct)生成新的数学问题。这个过程不仅改述现有问题,还旨在扩展问题集的多样性和难度。
- 迭代学习:在监督微调(Supervised Fine-Tuning)的基础上,Orca-Math通过迭代学习过程,生成多个解决方案,然后使用教师(GPT-4-Turbo)提供的反馈来评估这些解决方案。
- 偏好学习:通过构建偏好数据集,Orca-Math学习区分正确和错误的解决方案,从而提高其在数学问题解决上的准确性。
具体应用场景:
- 教育辅助:Orca-Math可以作为教育工具,帮助学生解决数学问题,提供个性化的学习支持。
- 自动评分系统:在在线教育平台或测试系统中,Orca-Math可以用来自动评估学生的数学答案,提供即时反馈。
- 数学问题生成:Orca-Math还可以用于生成新的数学问题,为教育内容创作者提供资源。
总的来说,Orca-Math展示了小型语言模型在数学问题解决方面的潜力,通过创新的训练方法和数据集构建,实现了在有限资源下的优秀性能。
0条评论