近年来,随着人工智能技术的飞速发展,大语言模型如ChatGPT逐渐普及。然而,这些技术的广泛应用也带来了意想不到的副作用。维基百科,这个全球最大的在线百科全书,目前正在经历一场由AI生成的虚假信息引发的编辑危机。
维基百科的AI编辑危机
问题的起源
维基百科的编辑和用户开始注意到,一些文章中出现了明显由聊天机器人编写的段落。这些段落的写作风格和内容特征与人类编辑的文章截然不同,引起了志愿者们的警觉。
WikiProject AI Cleanup
为应对这一危机,维基百科成立了一个名为WikiProject AI Cleanup的新倡议。这是一个由志愿者组成的任务小组,专门负责梳理维基百科的文章,编辑或删除由AI生成的不实信息。
清理小组的工作
清理小组的创始成员Ilyas Lebleu在接受404 Media采访时透露,团队通过使用ChatGPT重现了一些可疑段落,证实了这些内容确实是AI生成的。Lebleu表示:“我们中的一些人注意到了不自然写作的普遍性,这明显显示出是AI生成的,我们设法使用ChatGPT复制了类似的‘风格’。”
具体案例
虚构的奥斯曼堡垒“Amberlisihar”
一个典型的例子是一篇关于15世纪奥斯曼堡垒“Amberlisihar”的文章。这篇2000字的文章详细描述了这个地标的位置和建筑,但事实上,Amberlisihar并不存在。所有关于它的信息都是完全虚构的,但其中夹杂着足够的事实信息,使其具有一定的可信度。
插入虚假信息
除了新发布的虚假文章外,不法分子还在志愿者编辑已经审查过的现有文章中插入虚假的AI生成信息。例如,有人在一篇关于无关甲虫的文章中插入了一段关于特定螃蟹物种的正确引用部分。
为什么会发生这种情况?
维基百科模型的固有问题
维基百科的开放编辑模型是其最大的优势,也是最大的弱点。任何人都可以成为该平台的编辑,这导致了许多大学不接受学生提交引用维基百科的论文。这种开放性使得恶意用户有机可乘,利用AI生成虚假信息。
互联网的破坏性
互联网的匿名性和广泛性使得一小部分用户可以滥用任何公开平台。AI技术的普及进一步加剧了这一问题。从微软的Twitter机器人Tay在24小时内发布粗俗和种族主义推文被撤下,到现代AI应用生成的深度伪造和荒谬书籍,这些事件都表明,当公众被允许几乎不受限制地接触某样东西时,滥用几乎是不可避免的。
0条评论