随着越来越多的出版商与ChatGPT制造商OpenAI切断内容授权协议,Tow数字新闻中心发布的一项研究揭示了AI聊天机器人在处理新闻内容引用时存在的问题。这项研究不仅展示了AI技术在信息准确性和透明度上的局限性,也引发了关于版权、声誉和商业风险的重要讨论。
研究背景与方法
Tow数字新闻中心的研究人员Klaudia Jaźwińska和Aisvarya Chandrasekar从20家随机选定的出版商中各选取了10个故事的块引用,共计200个不同的引用。这些出版商包括《纽约时报》(正在以版权侵权为由起诉OpenAI)、《华盛顿邮报》(未与OpenAI签订协议)和《金融时报》(已签订授权协议),以及其他媒体机构。研究人员将这些引用输入ChatGPT,评估其是否能正确识别来源文章。
主要发现
- 不准确的引用:无论出版商是否与OpenAI有合作协议,ChatGPT在生成引用时都存在不准确的情况。即使对于那些允许OpenAI抓取内容的出版商,ChatGPT的引用也不总是可靠的。这表明,即使出版商同意内容被抓取,也无法确保其内容被忠实引用。
- 自信的错误:ChatGPT在生成错误答案时表现出高度自信,很少承认自己无法找到准确的答案。研究人员指出,ChatGPT在153次测试中返回了部分或完全错误的响应,但只有7次承认无法准确回答查询。这种自信缺乏透明度,使得用户难以评估答案的有效性。
- 抄袭与虚假来源:研究发现,ChatGPT有时会错误地将抄袭网站作为原始来源,甚至在无法抓取某些出版商的内容时,它可能会虚构来源。例如,ChatGPT曾错误地将一个抄袭《纽约时报》深度报道的网站作为NYT故事的来源。这不仅可能损害原出版商的声誉,还可能助长抄袭行为。
- 响应的不一致性:研究人员多次向ChatGPT提出相同的查询,发现它“每次通常返回不同的答案”。虽然这是生成式AI工具的常见特性,但在引用上下文中,这种不一致性显然不利于准确性。
- 对出版商的影响:无论出版商是否允许OpenAI抓取其内容,都无法保证其内容在ChatGPT中的引用是准确的。这不仅影响了出版商的声誉,还可能导致读者被引导到错误的来源,进而影响出版商的流量和商业利益。
出版商面临的困境
- 版权与法律风险:像《纽约时报》这样的出版商已经以版权侵权为由起诉OpenAI,而Tow的研究进一步表明,即使出版商试图阻止AI抓取其内容,ChatGPT仍然可能错误地引用或歪曲其文章。
- 声誉风险:错误的引用可能损害出版商的声誉,尤其是在涉及敏感或重要的新闻报道时。读者可能会因为不准确的信息而对出版商失去信任。
- 商业风险:如果ChatGPT错误地将出版商的内容归因于其他来源,出版商可能会错失流量和广告收入。此外,读者可能会转向其他平台获取信息,进一步削弱出版商的市场地位。
OpenAI的回应
OpenAI对Tow的研究结果提出了异议,认为研究人员进行了“对我们产品的非典型测试”。OpenAI表示,他们通过帮助用户发现高质量内容来支持出版商和创作者,并与合作伙伴合作提高内联引用的准确性。然而,Tow的研究人员指出,尽管OpenAI声称尊重出版商的偏好,但实际效果并不理想。
0条评论