英国《卫报》报道,近日,英国一名48岁的性犯罪者Anthony Dover因制作超过1000张儿童不雅图像被法院定罪,并被禁止在未来五年内使用任何“AI创作工具”。这是首次对性犯罪者实施此类禁令,旨在防止其利用AI技术制作和传播不雅内容。
AI工具禁令与法律沿革
Dover不仅被处以社区服务令和罚款,不得“使用、访问或进入”任何AI生成工具,包括能够根据文本命令生成逼真图片的AI工具,以及用于制作不雅“深度伪造”内容的“去衣”网站。此外,他还被明令禁止使用Stable Diffusion软件,该软件曾被恋童癖者用于制作超逼真的儿童性虐待材料。
这起案件是一系列起诉中的最新一起,AI创作在此成为议题。此前,慈善机构已就AI生成的性虐待图像扩散发出数月警告。英国政府已宣布,未经同意制作18岁以上人士的明确性深度伪造图像将构成新罪行,违法者将面临起诉与无限额罚款,若进一步传播则可能招致监禁。自1990年代起,制作、持有和分享儿童性虐待材料即属非法,涵盖真实及“伪”照片。近年来,法律已应用于起诉利用Photoshop等工具制作逼真图像的犯罪行为。被定罪者将面临起诉和无限额罚款,如果图像被进一步传播,传播者可能会被监禁。
案件频发与趋势警示
近期,多起案件揭示了法律对复杂人造内容威胁的应对。一名被告承认制作和分发未成年人不雅“伪照片”,保释条件包括不得访问涉事平台;另一名17岁少年因制售数百张不雅“伪照片”获罪,其中包括极端A类图像。仅过去一年,至少有六人因涉及AI生成图像的非法行为受审。
互联网观察基金会(IWF)视此类起诉为“里程碑”,警示AI生成儿童性虐待图像如同“一人工厂”,产出极具震撼力的非法内容。目前尚不清楚涉及AI生成图像的案件确切有多少,因为它们在官方数据中没有单独计算,而且假图像可能难以与真实图像区分。慈善机构和专家呼吁科技公司从一开始就阻止图像生成器产生这种内容,以防止类似案件的发生。IWF强调,这些起诉旨在明确传达制作和分发此类内容属非法行为。
技术滥用与社会关切
IWF曾在暗网论坛发现大量难以分辨真实性的AI生成儿童虐待图像。此外,热线服务如Stop It Now和Childline报告接到多起关于AI图像的求助电话,反映出该问题的快速上升趋势,尤其是对“nudifying”工具制造深度伪造图像的忧虑。
科技公司被敦促从源头阻断图像生成器产生非法内容,而不仅仅是针对罪犯采取行动。LFF首席执行官Deborah Denis指出:“这不是明日问题。”性犯罪者长期面临互联网使用限制,但对AI工具施加禁令尚属罕见。Dover案中的禁令缘由尚不明晰,可能是基于其犯罪行为与AI技术的关联,或是对潜在风险的预防。
业界回应与未来监管
Stable Diffusion所属公司Stability AI表示,对儿童虐待材料的担忧源于模型早期版本,自取得独家授权后已投资增设防护措施,如过滤不安全提示和输出,并严禁任何非法使用。禁止成人性犯罪者使用AI生成工具的决定可能为未来被定罪的不雅图像犯罪者设定一个先例。此类禁令有助于加强对性犯罪者的监管,保护公众免受不雅内容的侵害。然而,这也引发了对如何平衡个人自由和技术监管的讨论。(来源)
0条评论