英国和美国同意合作开发人工智能模型的安全测试

阅读量33237

发布时间 : 2024-04-08 10:59:52

英国政府已正式同意与美国合作开发先进人工智能模型的测试。英国技术大臣米歇尔·多尼兰 (Michelle Donelan) 和美国商务部长吉娜·雷蒙多 (Gina Raimondo) 于 2024 年 4 月 1 日签署了谅解备忘录,这是一份不具有法律约束力的协议。

两国现在将“调整各自的科学方法”,并共同努力“加速并快速迭代针对人工智能模型、系统和代理的可靠评估套件”。采取这一行动是为了兑现去年 11 月首届全球人工智能安全峰会上做出的承诺,世界各国政府在会上接受了他们在下一代人工智能模型安全测试中的作用。

英国和美国就哪些人工智能倡议达成了一致?
通过谅解备忘录,英国和美国就如何建立人工智能安全测试的通用方法并相互分享进展达成一致。具体来说,这将涉及:

开发一个共享流程来评估人工智能模型的安全性。
对可公开访问的模型进行至少一项联合测试。
就人工智能安全技术研究进行合作,既可以增进人工智能模型的集体知识,又可以确保任何新政策保持一致。
各机构之间进行人员交流。
共享各机构开展的所有活动的信息。
与其他政府合作制定人工智能标准,包括安全标准。
雷蒙多部长在一份声明中表示:“通过我们的合作,我们的研究所将更好地了解人工智能系统,进行更稳健的评估,并发布更严格的指导。”

该谅解备忘录主要涉及推进英国和美国人工智能安全研究所制定的计划。英国的研究机构是在人工智能安全峰会上启动的,其三个主要目标是评估现有人工智能系统、进行基础人工智能安全研究和共享信息与其他国家和国际参与者。 OpenAI、Meta 和微软等公司已同意英国 AISI 对其最新的生成式 AI 模型进行独立审查。

同样,美国 AISI由 NIST 于 2024 年 2 月正式成立,旨在致力于执行 2023 年 10 月发布的AI 行政命令中概述的优先行动;这些行动包括制定人工智能系统的安全标准。美国的 AISI 由人工智能安全研究所联盟支持,其成员包括 Meta、OpenAI、NVIDIA、谷歌、亚马逊和微软。

这是否会导致对AI公司的监管?
尽管英国和美国 AISI 都不是监管机构,但他们的综合研究结果可能会为未来的政策变化提供信息。英国政府表示,其 AISI “将为我们的治理制度提供基础见解”,而美国机构将“制定供监管机构使用的技术指南”。

欧盟可以说仍然领先一步,其具有里程碑意义的《人工智能法案》已于 2024 年 3 月 13 日被投票成为法律。该法案概述了旨在确保人工智能安全、合乎道德地使用的措施,以及有关人工智能面部识别和透明度的其他规则。

大多数大型科技公司,包括 OpenAI、谷歌、微软和 Anthropic,都位于美国,目前美国没有严格的法规来限制他们的人工智能活动。 10月份的EO确实对人工智能的使用和监管提供了指导,并且自签署以来已经采取了积极的步骤;然而,这项立法不是法律。NIST 于 2023 年 1 月最终确定的人工智能风险管理框架也是自愿的。

事实上,这些主要科技公司大多负责自我监管,去年还推出了前沿模型论坛,建立自己的“护栏”,以降低人工智能的风险。

人工智能和法律专家对安全测试有何看法?
人工智能监管应成为优先事项
英国 AISI 的成立并不是一种普遍流行的控制该国人工智能的方式。今年 2 月,Faculty AI(一家与该研究所相关的公司)的首席执行官表示,制定强有力的标准可能是更谨慎地使用政府资源,而不是试图审查每个人工智能模型。

“我认为重要的是它为更广阔的世界制定标准,而不是试图自己做所有事情,”马克·华纳告诉卫报。

本文转载自:

如若转载,请注明出处: https://www.techrepublic.com/article/uk-us-agreement-ai-safety-testing/

安全客 - 有思想的安全新媒体

分享到:微信
+13赞
收藏
安全客
分享到:微信

发表评论

内容需知
  • 投稿须知
  • 转载须知
  • 官网QQ群8:819797106
  • 官网QQ群3:830462644(已满)
  • 官网QQ群2:814450983(已满)
  • 官网QQ群1:702511263(已满)
合作单位
  • 安全客
  • 安全客
Copyright © 北京奇虎科技有限公司 360网络攻防实验室 安全客 All Rights Reserved 京ICP备08010314号-66