苹果公司近日宣布暂时撤回其新推出的人工智能功能,该功能原本用于总结新闻通知。这一决定是在该技术多次向用户发送包含错误的标题后做出的,引发了新闻机构和新闻自由组织的强烈反对。
问题概述
苹果的“Apple Intelligence”功能在生成新闻标题摘要时出现了误导性或完全虚假的内容,这些摘要与常规推送通知几乎完全相同。例如,BBC 曾向苹果投诉,称该技术生成了虚假标题,错误地报道了被控谋杀联合健康集团 CEO 的 Luigi Mangione 开枪自杀的新闻。另一次,《纽约时报》的三篇文章被错误地总结为一条推送通知,称以色列总理本杰明·内塔尼亚胡已被逮捕。
苹果的回应
苹果在周四向开发者发布了一个测试版软件更新,禁用了新闻和娱乐标题的 AI 功能,并计划在改进该功能后向所有用户推出。公司表示,未来的更新将重新启用该功能,并且用户必须选择加入的“Apple Intelligence”摘要将更明确地强调信息是由 AI 生成的,并表明它有时可能会产生不准确的结果。
媒体反应
BBC 发言人去年 12 月对 CNN 表示:“苹果必须紧急解决这些问题,因为我们的新闻准确性对于维持信任至关重要。苹果的这些 AI 摘要并不反映——在某些情况下甚至完全违背了——BBC 的原始内容。”
《华盛顿邮报》科技专栏作家 Geoffrey Fowler 也批评了这一功能,称苹果在 AI 技术改进之前不关闭新闻应用的摘要功能是“极其不负责任的”。
新闻自由组织的担忧
新闻自由组织强调了这些摘要对寻求可靠信息的消费者构成的危险。无国界记者组织称其为“公众获取可靠时事信息的危险”,而全国记者联盟则强调“公众不应处于猜测所接收新闻准确性的境地”。两者都呼吁移除 AI 生成的摘要。
AI 技术的挑战
苹果的 AI 问题并非孤例,像 ChatGPT 这样的流行模型也经常产生自信的“幻觉”。布朗大学教授 Suresh Venkatasubramanian 曾告诉 CNN,AI 工具背后的大型语言模型被训练为使用“听起来合理的答案”来回应输入提示。他指出:“因此,从这个意义上说,任何听起来合理的答案,无论是否准确、真实或虚构,都是一个合理的答案,这就是它生成的内容。它并不了解真相。”
0条评论