DevEval

优惠 代码生成基准测试DevEval:评估大语言模型(LLMs)在实际代码库中的编程能力。

  • 代码生成基准测试DevEval:评估大语言模型(LLMs)在实际代码库中的编程能力。
    AI
  • 北京大学和阿里巴巴的研究人员推出新的代码生成基准测试——DevEval,它旨在评估大语言模型(LLMs)在实际代码库中的编程能力。例如,如果你是一个软件开发团队的负责人,你可能会使用DevEval来测试和比较不同的LLMs,以决定哪一个最适合帮助你的团队自动编写或补全代码。这有助于提高开发效率,减少手动编码的工作量,并... 阅读全文