情报 开源软件安全报告的新挑战:AI 生成的低质量漏洞提交, 开源维护者呼吁不要用 AI 报告 Bug

随着生成式 AI 模型的普及,开源软件的安全报告领域正面临一个新的挑战:由大语言模型(LLM)生成的低质量、垃圾邮件式的漏洞报告。这种现象不仅增加了维护者的负担,还可能对整个开源社区的安全工作产生负面影响。 问题的现状 Python 软件基金会的安全开发者 Seth Larson 在最近的一篇博客文章中表达了对这一问题... 阅读全文