上周末,苹果公司被提起了一项集体诉讼,指控其明知故犯地允许iCloud存储服务被用于存储儿童性虐待材料(CSAM)。该诉讼代表数千名儿童性虐待受害者提起,指责苹果的不作为导致了受害者进一步的伤害。
诉讼的核心
27岁女性受害者的案例
一名27岁的女性受害者在遭受从婴儿时期开始的性虐待后提起了诉讼。她透露,一名亲属对她进行了性侵,并录制了虐待过程,将这些图像在网上分享。这名女性不断收到执法部门的通知,称在各种设备上发现了这些图像,其中包括存储在苹果iCloud上的一张。
苹果的CSAM检测计划
2021年8月,苹果宣布了一项名为“CSAM检测”的新功能,该功能将使用名为NeuralHash的技术来识别存储在iCloud上的已知CSAM。然而,由于活动家和安全研究人员担心潜在的滥用,苹果改变了方向,放弃了该计划。
诉讼的主要指控
诉讼认为,苹果决定放弃CSAM检测表明其对儿童安全的有意忽视。根据诉讼,“苹果没有使用其创建的工具来识别、移除和报告她的虐待图像,而是允许这些材料扩散,迫使儿童性虐待受害者重温塑造他们生活的创伤。”
诉讼的目标
该诉讼寻求迫使苹果实施强有力的措施,以防止其平台上存储和分发CSAM。此外,它还旨在为可能加入此案的2,680名潜在受害者提供赔偿。
苹果的回应
苹果尚未公开回应诉讼。然而,一位发言人表示,公司正在积极且紧急地创新,以打击儿童性虐待犯罪,同时不损害用户的安全和隐私。
隐私与安全的平衡
苹果一直以其对隐私和安全的承诺为荣。然而,这起诉讼直接挑战了这一声誉。苹果面临的一个关键问题是,如何在保护用户隐私的同时,有效应对CSAM的传播。NeuralHash技术的争议在于,虽然它可以用于识别已知的CSAM,但也可能被滥用,侵犯用户的隐私。
案件的影响
此案的结果可能对苹果的品牌形象和未来发展产生重大影响。如果苹果被认为在打击CSAM方面不够积极,可能会面临更多的法律挑战和公众压力。另一方面,如果苹果重新引入或加强CSAM检测功能,可能会引发隐私倡导者的反对,尤其是在技术和政策层面如何确保用户数据不被滥用的问题上。
未来的挑战
苹果需要在这场诉讼中找到一个平衡点,既要履行其打击CSAM的责任,又要维护其对用户隐私的承诺。与此同时,科技公司如何在全球范围内应对CSAM的传播,也将成为未来讨论的重要议题。随着技术的进步和社会对儿童保护的关注增加,如何在隐私与安全之间找到合适的平衡,将是所有科技公司面临的共同挑战。
0条评论