AI开发者的过失责任:从系统转向构建者

| 分类: AI情报 | 热度: 1 ℃

迄今为止,大多数流行的AI安全和问责方法主要关注AI系统的技术特性和风险,而忽略了幕后的工作人员,他们负责设计、实施、测试和维护这些系统。欧盟AI法案等努力体现了这种方法,即根据技术属性(如用于训练或调整AI模型的计算量)来设定监管监督的条件。同样,AI的产品责任框架将责任指向不安全的产品特性,并最小化人类决策者的行为。其他提议,如严格责任或“有感知”AI与儿童或野生动物的类比,同样避免涉及AI制造过程中的人类过程。这种技术焦点允许AI工程师将自己与他们施加给他人造成的伤害分开。

我之前曾主张需要基于过失的方法,因为它将法律审查指向实际负责创建和管理AI系统的人。加利福尼亚州的AI安全法案朝着这个方向迈出了一步,该法案规定AI开发者应制定并实施体现“开发者有合理责任避免产生具有不合理风险造成或实质性促成重大伤害的涵盖模型或涵盖模型衍生品”的协议(强调添加)。尽管科技领袖反对加利福尼亚州的法案,但法院不需要等待立法来允许对AI开发者提起过失索赔。但过失在AI背景下如何运作,AI开发者应预见哪些下游影响?

过失法的基本原理

过失是一种基于过错的侵权法理论,要求人们采取适当的谨慎行为。如果一个人未能履行应有的谨慎行为导致他人受到伤害,那么他可能被判定有过错,法院可以命令支付补偿性和惩罚性损害赔偿。原告-受害者需要通过证据的优势(即超过50%的可能性为真)来证明他们的主张。通常,法律学者将过失索赔解析为四个(或五个)要素:义务、违反、事实和近因以及伤害。因为过失是州普通法的产物,它在各州之间可能会有所不同,具体取决于这些要素在个别案件中的陈述、解释和应用方式。尽管如此,过失的基本要点仍然相同:过度的粗心大意。

在AI背景下,基于过失的责任制度将审查AI系统创建者是否在设计、测试、部署和维护这些系统时足够谨慎。由此延伸,对AI系统用户的过失理论将使他们在使用预训练系统时因粗心大意而承担责任。

违反应有的谨慎

多少谨慎才算“足够好”以避免责任?通常的默认期望是“合理谨慎”,即“合理谨慎的人”会做的事情。通常由同行组成的陪审团决定什么是合理的。或者,对于一些明确界定的情况——例如交通法规——立法机构或机构可以制定法定违规行为,作为不合理性的当然证明,即“当然过失”。在特殊情况下,可以完全替代不同的谨慎标准,如最高谨慎、习惯性谨慎或重大过失(未能使用甚至轻微的谨慎)。

合理性标准是一个客观标准,它要求所有处于类似情况的人达到相同的谨慎期望。它代表了从仅仅将应有的谨慎视为普通谨慎(人们通常的行为方式)到合理谨慎的规范性视角(人们应该的行为方式)的现代转变。例如,所有司机,无论是职业赛车手还是新获得驾照的青少年,都会被同等评判。同样,每个AI建模者——从无偿爱好者到付费专家——都应熟悉合理谨慎的AI建模者应知道的所有概念。以对常用技术的无知作为借口是无效的。仅仅遵守行业标准也不足够,如果整个行业落后于可接受的预防水平。同时,合理AI建模者不应被期望纳入前沿研究,特别是在实践中尚未得到充分验证的情况下。

合理性也是一个灵活的标准,它考虑了关于处于类似情况的人的知识和技能的背景信息。因此,AI建模者可能被期望具有相当于机器学习博士学位的水平,而清理训练数据的数据分析师可能仅被与高中或大学毕业生相比较。影响合理谨慎判断的其他背景因素可能包括AI模型或系统的类型、应用领域和市场条件。例如,自动驾驶车辆系统的合理谨慎可能与大型语言模型的合理谨慎大不相同,依此类推。

尽管合理性在有共同社区规范共识的情况下作为谨慎标准运作良好,但在意见严重分歧和争议的背景下,其作用较差。例如,长期以来定义“合理”软件开发实践的努力已被证明是难以捉摸的,各派系之间存在严重分歧,几乎没有证据表明任何一种方法显然比另一种更安全。

AI开发者是否会找到共同的方法论基础,还是会演变成行会式的派系,仍有待观察。最近,白宫命令联邦机构制定AI安全和安全的指南、标准和最佳实践。如果这些标准以有用的方式制定,它们可以帮助确定不合理性,甚至可以作为基于当然过失的主张的基础。相反,遵守这些标准可以提供有说服力的证据,尽管不是自动证明,证明合理性。

对共识标准持乐观态度的原因包括,商业上成功的机器学习技术相对同质化,AI开发者社区仍然相对较小,具有基于技能和资源的进入壁垒。所有商业AI系统都是使用数据驱动的机器学习方法构建的。最有能力的AI模型使用深度神经网络和一组狭窄的架构和超参数选择,这些选择是通过猜测和实证研究随着时间的推移锻造和重铸的。这些技术和市场约束表明,在该领域存在广泛的标准方法和实践的共识。

同时,早期创建AI标准的尝试是模糊和分散的,集中在容易受到争议且不太可能产生共识的社会技术价值观上。一个代表性的例子是国家标准与技术研究所发布的AI风险管理框架。该框架列举了许多广泛的原则——包括有效性、安全性、韧性、问责制、可解释性、隐私和公平性——但指出选择指标和阈值取决于“人类判断”。更糟糕的是,该框架指出“当前缺乏关于稳健和可验证测量方法的共识”,这意味着不确定性和分歧比单纯的风险容忍度更深。

法律在“专业”背景下替代不同谨慎标准的一个领域是医学和法律等领域,在这些领域中,关于最佳实践的强烈不同意见很常见。因此,医生和律师被要求遵守“习惯性谨慎”标准,只有在个人的行为偏离了既定的实践习惯时才承担责任。关键的教义差异在于,在存在多种思想流派的情况下,遵守少数传统(如替代医学)被接受为符合应有的谨慎,即使其他传统的从业者会强烈反对。习惯性谨慎标准根据该领域的实际实践确定合理性,而不是关于“应该”发生什么的规范性主张,正是因为该领域缺乏对合理实践的共识。

可以说,习惯性谨慎标准更适合AI责任,因为实践仍在迅速发展,单一的合理性标准在异质实体和应用领域中难以提炼。允许不同方法蓬勃发展可能比预先确定哪些方法是或不是合理的更为合适。重要的是,尽管习惯性谨慎标准尊重专业专家,但它仍然是一种过失行为,至少在两个方面与自我监管或监管宽容不同。首先,它促使AI专家在法庭上证明他们对行业习惯的理解,这促进了关于AI最佳实践的透明度。其次,它促进了对于明显不可接受的实践的责任,这些实践即使没有专家意见也是显而易见的。以此类推,在网络安全领域,联邦贸易委员会和互联网安全中心等实体已经开始编制最差网络安全实践的清单。类似的努力对于AI开发实践也是必要的。通过这些方式,习惯性谨慎标准尽管在技术专长的不可预测性和快速变化的情况下,仍能实现一定程度的法律监督。

另一个可能的标准是“受托谨慎”,一些著名学者主张大数据保管人——包括AI开发者——应作为信息受托人承担责任。在这里,通常的谨慎义务通过增加忠诚义务进行修改,这涉及将数据主体的利益置于数据保管人自身利益之前。其他评论者质疑,当存在对用户与公司股东等冲突利益相关者的忠诚分歧时,这种安排是否可行。此外,尚不清楚忠诚义务实际上会如何改变AI开发者的工作表现。他们是否需要收集更少的数据?比以前更严格或更道德地训练和测试AI模型?为个人用户定制安全功能?

或者,也许AI开发者应该被要求履行“最高谨慎”的义务,类似于旅馆经营者和公共承运人。这种更高的义务要求这些承运人特别高度的谨慎,以确保其客户的安全。类似的辩论询问互联网服务提供商和互联网平台是否应被视为非侵权目的的公共承运人。如果这种逻辑延伸到监管背景下的基于AI的平台,那么在侵权分析中也应适用公共承运人的指定。然而,尽管在原则上要求AI开发者采取尽可能最好的谨慎听起来很理想,但基准义务的具体边际变化仍然和以前一样模糊。许多法院和评论者不同意谨慎的程度可以有意义地区分。此外,如果合理性标准不容易概念化,那么合理性加更多的标准同样模糊。在没有明确范围限制的情况下,最高谨慎的修辞威胁会演变成纯粹的严格责任制度,这将引发过度且与基于人类过错的公平观念脱节的赔偿责任。

过失责任的限制

尽管过失责任是笼罩在社会行为之上的重要后盾,但它是一种有限的补救措施,并不旨在修复所有社会伤害。一系列教义和法定障碍标志着过失法停止并允许事故成本未得到补偿的边界。

伤害

要提出过失诉讼,必须有合格的伤害。风险行为本身是不可诉的,即使它是应受谴责的。例如,一个未造成伤害的红灯闯入者可能会收到交通罚单,但不会被判定为过失。必须有实际的、具体的伤害,法律才能承认侵权索赔。

典型的伤害是身体伤害或财产损失。经济损失,如工资损失或医疗费用,只要它们源于身体伤害,也是可以补偿的。狭窄的信息伤害类别,如诽谤和未能警告,也是有资格的伤害。一些学者观察到,法律对身体伤害的关注反映了历史上对男性提出的索赔比女性提出的索赔更有利的偏见。例如,情绪困扰或心理伤害通常不足以单独成立,除非与身体影响或伤害的身体表现相关——尽管这些限制在现代有所放宽。

相比之下,法院通常驳回仅声称纯经济损失(如利润损失或商誉损失)的案件。与身体伤害不同,纯经济伤害是分散和无形的,这使得美元成本更难量化,并威胁要打开无边界的责任闸门。因此,法院通常认为此类争议应通过合同法解决(如果有的话),其中各方的风险分配协议可以在文件中明确规定。然而,少数法院允许在可识别的方式下恢复纯经济损失。此外,经济损失规则不适用于专业过失案件。数据泄露案件也作为经济损失规则的一个显著例外出现。尽管如此,许多学者哀叹隐私伤害的索赔往往被驳回为过于分散和推测,无法被认定为实际的、现实世界的伤害。

因果关系

第二个限制是因果关系。过失法承认两种不同类型的因果关系:事实(或“但因”)因果关系和近因。前者更直接,而后者的分析更具不确定性。

但因因果关系要求受害者证明如果没有被告的行为,伤害就不会发生。这一限制在常识上是有意义的,因为一个人不应为未实际造成的伤害负责。它也被称为反事实因果关系,这一概念对AI可解释性研究人员来说是熟悉的。在许多情况下,仅使用基于AI的系统就足以证明事实因果关系。例如,当一辆完全自动驾驶的车辆撞上高速公路护栏时,几乎没有疑问,自动驾驶导致了事故。更困难的事实因果问题可能出现在AI开发者声称额外的安全措施无法防止伤害,或者存在多个并发原因引发责任分配问题时。

相比之下,近因调查排除了当行为与伤害之间的因果关系过于遥远或不可预见,以至于不值得让被告负责时。可以切断因果链的例子包括介入事件(如第三方行为或自然力量)、意外的风险类别,甚至是足够的时间或空间的流逝。

在AI背景下,AI开发者可能辩称下游用途是不可预见的,特别是当用户输入恶意提示劫持AI系统的预期目的时。但劫持者有时被认为是合理可预见的攻击向量。类似的问题和不确定性出现在例如治疗医生在使用基于AI的诊断工具时意外犯错的情况下。当AI模型被第三方重新训练并表现出与原始AI模型显著不同的行为时,存在更强的不可预见性论点。

不太有说服力的是AI模型本身是介入行为者,切断了近因的论点。即使AI系统的行为确实如此突现和不可预测,以至于AI开发者无法预见其造成的具体伤害,AI开发者可能仍然直接负责在没有适当控制的情况下发布一个不稳定的系统。只要应预见伤害的一般性质,伤害的具体方式并不重要。

谨慎义务

过失法仅在被告对原告负有谨慎义务时适用。现代司法趋势是将谨慎义务定义得非常广泛,作为不向他人创造不合理风险的一般义务。此外,基于法规、特殊关系、对伤害风险的贡献或其他承担积极谨慎义务的假设,可以创建特殊的积极义务。因此,谨慎义务要素通常在大多数过失案件中不被质疑,并且是一个非问题。

偶尔,法院会声明行为者对受害者“没有谨慎义务”,从而阻止过失的认定。例如,一些法院声明土地所有者对侵入者没有义务,或者路人没有积极义务救助陌生人。另一个棘手的例子是,行为者没有义务防止第三方造成伤害,除非在特定情况下,如监护关系或行为者主动增加了危险。一些法院还使用“风险承担”概念来缩小或消除被告对自愿同意风险活动并在受伤后受伤的人的义务。如果没有谨慎义务,就没有违反不存在的义务。无义务的认定反映了整个类别的主张超出了过失法的范围。

因为许多AI服务是免费向公众提供的,可能存在在发布时不可预见的下游用途,伤害了遥远的受害者。一些法院可能接受AI开发者对这些特定受害者没有谨慎义务的论点。或者,其他法院可能更倾向于通过近因的视角分析可预见性问题。

法定限制

除了普通法的限制外,国会和州立法机构可以制定法规,加强(或减轻)侵权恢复的障碍。例如,侵权改革努力建立了许多程序障碍,如时效法规、法定先占、盾牌法和证书要求,这些障碍缩小了可以在法院审理的侵权索赔范围。相反,立法也创造了或认可了新的法定侵权索赔类型,禁止不公平限制恢复的僵化辩护,并设计了无过错赔偿计划,以加快向合格索赔人支付。

对AI开发者特别重要的联邦法规是1996年《通信规范法》第230条,该条为在线服务提供商提供了重要豁免,使其免受基于第三方用户生成内容的过失诉讼。第230条禁止将“交互式计算机服务”视为此类第三方内容的“出版者”的侵权索赔。虽然至少一些AI系统符合“交互式计算机服务”的定义,但第230条是否适用存在重大疑问,因为AI输出是由AI系统本身生成的,而不是由第三方用户生成的。此外,越来越多的法院最近缩小了第230条的范围,允许基于内容中立的产品设计(如成瘾功能或算法功能)的侵权索赔。

因为法定法律取决于个别法规,国会和州立法机构可以自由制定、修改或废除推动AI政策向一个方向或另一个方向的AI特定法规。

其他侵权框架

基于过失的方法与其他重要的侵权框架(如严格责任和产品责任)形成对比,因为它关注将过错归咎于人类行为。有时,严格责任被吹捧为更有效的问责解决方案,因为它简化了向受害者的赔偿,同时也简化了信息不对称的“黑箱”问题。理论上,当一方有更好的信息来减少伤害时,严格责任制度迫使该方使用该信息,否则将承担不这样做的成本(或内部化)。但如果这种优越知识的假设失败,AI开发者实际上不知道如何以成本效益的方式避免造成伤害,那么严格责任仅作为没有信息强制利益的威慑惩罚。可以肯定的是,对于担心AI尚未准备好公开发布的批评者来说,严格责任应保持为首选政策选择。

然而,在实践中,法院已经回溯了严格责任原则,并恢复到基于过失的规则,部分原因是后者被视为产生更公平的结果。例如,产品责任最初旨在“严格”意义上加快向受害者赔偿,而不考虑制造商的过错。然而,今天,大多数产品责任法由合理性的概念所支配,这些概念与过失索赔的轮廓相呼应。一些遗留差异仍然存在,主要是因为法律虚构产品可以被发现有缺陷——即有故障——独立于制造和分销它的人。也许这种虚构在传统制造案件中仍然有用,因为产品一旦发布就是最终的,但在AI案件中的风险是,它鼓励AI制造商将其创作发布给生成用户社区,并否认对接下来发生的事情的所有权或责任。此外,当AI在幕后由团队实时管理和维护时,AI是否符合“产品”的资格仍存在疑问。

展望未来

在更强大的基于过失的AI责任制度下,AI开发者应期待看到什么?有两条可能的路径,两者都可能与保险政策问题高度交叉。

第一条路径将继续将AI开发者视为普通员工。雇主对雇员在其雇佣范围内犯下的过失行为承担责任。在这种情况下,雇主将有强烈的动机获得责任保险政策,并为其雇员辩护法律索赔。一个潜在的复杂问题是,AI公司是否可以通过将大量AI工作者(如编译和清理大型数据集的人员)分类为独立承包商而非雇员来否认责任。代码重用的既定实践以及专有代码和开源代码之间的流动边界,可能使其通过尽可能多地外包AI工作来进行责任套利变得有吸引力。如何在AI供应链中分配责任将反映现在关于软件供应链提出的类似问题。

第二条路径是将AI开发者视为医生和律师等专业人士。在这种制度下,每个AI专业人员可能需要获得自己的个人或团体过失保险政策——一种尚不存在且需要实验定价的保险产品。此外,许多评论者认为,执业许可障碍是获得专业地位的必要前提。我不一定同意这一观点,但我认识到,职业许可是筛选该领域中未获得资格证书工人的有效方式。如果由“脚本小子”随意创建的劣质或恶意AI模型在社会上不可取,一种可能的监管回应是限制AI实践于持牌专业人员。可以理解的是,限制劳动力池的执业许可要求引发了全球AI竞争的政策担忧。为了缓解这些担忧,可以使用某种形式的文凭特权来促进已经在工作岗位上的人的准入。

最终,AI问责制和AI安全性与监督其组成部分的劳动力质量密切相关。然而,AI领域可能独特地寻求掩盖其人类元素,以放大其技术魔力。基于过失的方法的优点是,它将法律审查重新集中在构建和炒作技术的人的行为上。可以肯定的是,过失在关键方面是有限的,不应被视为AI治理的完整答案。但过错应是默认的起点,所有关于AI问责制和AI安全性的对话都应从这里开始。(来源

声明: 猎游人 每天为你带来最新的游戏和硬件打折情报,帮你精心挑选值得玩的游戏,让您的钱花的更值!本站信息大部分来自于网友爆料,如果您发现了优质的游戏或好的价格,不妨爆料给我们吧(谢绝任何商业爆料)!

0条评论

Hi,您需要填写昵称和邮箱!
姓名 (必填)
邮箱 (必填)
网站

暂时木有评论