苹果因iCloud存储儿童性虐待材料(CSAM)被提起集体诉讼

| 分类: 业界八卦 | 热度: 2 ℃

上周末,苹果公司被提起了一项集体诉讼,指控其明知故犯地允许iCloud存储服务被用于存储儿童性虐待材料(CSAM)。该诉讼代表数千名儿童性虐待受害者提起,指责苹果的不作为导致了受害者进一步的伤害。

诉讼的核心

27岁女性受害者的案例
一名27岁的女性受害者在遭受从婴儿时期开始的性虐待后提起了诉讼。她透露,一名亲属对她进行了性侵,并录制了虐待过程,将这些图像在网上分享。这名女性不断收到执法部门的通知,称在各种设备上发现了这些图像,其中包括存储在苹果iCloud上的一张。

苹果的CSAM检测计划
2021年8月,苹果宣布了一项名为“CSAM检测”的新功能,该功能将使用名为NeuralHash的技术来识别存储在iCloud上的已知CSAM。然而,由于活动家和安全研究人员担心潜在的滥用,苹果改变了方向,放弃了该计划。

诉讼的主要指控
诉讼认为,苹果决定放弃CSAM检测表明其对儿童安全的有意忽视。根据诉讼,“苹果没有使用其创建的工具来识别、移除和报告她的虐待图像,而是允许这些材料扩散,迫使儿童性虐待受害者重温塑造他们生活的创伤。”

诉讼的目标

该诉讼寻求迫使苹果实施强有力的措施,以防止其平台上存储和分发CSAM。此外,它还旨在为可能加入此案的2,680名潜在受害者提供赔偿。

苹果的回应

苹果尚未公开回应诉讼。然而,一位发言人表示,公司正在积极且紧急地创新,以打击儿童性虐待犯罪,同时不损害用户的安全和隐私。

隐私与安全的平衡

苹果一直以其对隐私和安全的承诺为荣。然而,这起诉讼直接挑战了这一声誉。苹果面临的一个关键问题是,如何在保护用户隐私的同时,有效应对CSAM的传播。NeuralHash技术的争议在于,虽然它可以用于识别已知的CSAM,但也可能被滥用,侵犯用户的隐私。

案件的影响

此案的结果可能对苹果的品牌形象和未来发展产生重大影响。如果苹果被认为在打击CSAM方面不够积极,可能会面临更多的法律挑战和公众压力。另一方面,如果苹果重新引入或加强CSAM检测功能,可能会引发隐私倡导者的反对,尤其是在技术和政策层面如何确保用户数据不被滥用的问题上。

未来的挑战

苹果需要在这场诉讼中找到一个平衡点,既要履行其打击CSAM的责任,又要维护其对用户隐私的承诺。与此同时,科技公司如何在全球范围内应对CSAM的传播,也将成为未来讨论的重要议题。随着技术的进步和社会对儿童保护的关注增加,如何在隐私与安全之间找到合适的平衡,将是所有科技公司面临的共同挑战。

声明: 猎游人 每天为你带来最新的游戏和硬件打折情报,帮你精心挑选值得玩的游戏,让您的钱花的更值!本站信息大部分来自于网友爆料,如果您发现了优质的游戏或好的价格,不妨爆料给我们吧(谢绝任何商业爆料)!

0条评论

Hi,您需要填写昵称和邮箱!
姓名 (必填)
邮箱 (必填)
网站

暂时木有评论