美国国家标准技术研究院(NIST)最近发布了Dioptra 1.0,这是一个用于评估人工智能(AI)安全性和可靠性的软件测试平台。该平台支持AI风险管理框架(AI RMF)的测量功能,能够帮助用户评估、分析和追踪AI相关的风险。Dioptra最初在2022年亮相,被定位为一种评估保护机器学习系统所需的安全技术和解决方案的方法。它允许研究人员比较不同攻击、数据集或各种情况下的防护方法。
Dioptra 1.0版本提供了多项功能:
- 模型测试:第一方开发者可以在开发周期中使用Dioptra来评估AI模型;第二方可以在采购之前或在实验室环境中利用Dioptra来评估AI模型;第三方审计员或合规官员可以用Dioptra来评估模型是否符合法规和道德标准。
- 研究支持:Dioptra帮助学术界和业界的研究人员系统性地追踪和记录AI实验。
- 标准化平台:该平台为参加AI竞赛或评估挑战的参与者提供了一个标准化的测试环境。
- 红队测试:Dioptra也可以供红队使用,通过模拟攻击或对抗条件来测试AI模型的韧性和安全性。
NIST希望Dioptra能够成为一个多功能平台,用于在不同的开发阶段测试、评估和确保AI模型的可靠性。
0条评论