ITI发布人工智能系统透明度建议

阅读量30918

发布时间 : 2022-10-11 11:00:34

 

自2017年发布14条人工智能政策准则后,今年9月,美国信息技术产业委员会(ITI)又发布了“实现人工智能系统透明度的政策原则”。这一文件旨在为政策制定者服务,并告知他们“透明度是发展负责任和值得信赖的(人工智能)的关键部分”。ITI将人工智能的透明度定义为“明确”特定系统如何“构建,操作和实现功能”。认为人工智能系统中的透明度可以采取多种形式,包括可理解、可解释和信息披露。
“人工智能系统的透明度理所当然地是美国和全球政策制定者的首要关注点,”ITI总裁兼首席执行官Jason Oxman表示。“法规必须有效降低用户的风险,同时保留人工智能技术的创新并鼓励其采用。ITI的《实现人工智能系统透明度的政策原则》为政策制定者提供了明确的指导,以了解和促进人工智能系统的更大透明度。这些对政策原则的建议包括:
✔ 考虑透明度要求的最终目标是什么。
✔ 考虑任何透明度要求的目标受众,以及它们将在AI系统生命周期的哪个阶段应用。
✔ 在考虑需求时,采取基于风险的透明度方法。 
✔ 在法规或政策提案的背景下,包括透明度含义的明确定义。
✔ 考虑到有不同的方法来达到透明度和提高信任,而可理解只是一个组成部分。
✔ 考虑在立法中纳入一些条款,旨在为用户提供足够的信息,以了解可能对他们的基本权利产生负面影响的人工智能系统的决定,并为用户提供审查和/或质疑此类决定的能力。
✔ 确保透明度不要求公司泄露敏感的IP或源代码或以其他方式泄露敏感的个人数据。
✔ 考虑当人工智能系统直接与用户交互时,(使用AI)这一事实应该很容易被发现,并且披露要求可以帮助促进这一点。 
✔ 只有AI系统的实际部署者才应该负责披露。
✔ 与公开有关的条例应具有灵活性,避免规定要列入的具体信息或技术细节。
人工智能系统由算法集组成,这些算法能够学习和进化,而单独的算法通常更简单,通常执行一组有限的指令。ITI的《实现人工智能系统透明度的政策原则》表明,围绕透明度制定政策的最有效方法是将透明度要求应用于人工智能系统的特定高风险用途——那些可能对健康、安全和自由等产生重大负面影响的环节。这些原则建立在ITI于2021年发布的全球人工智能政策建议的基础上,建议为全球政策制定者提供了一套全面的政策建议,以寻求促进人工智能创新,同时解决具体危害。

 

信息来源 / Source of Information

  1. https://www.itic.org/news-events/news-releases/iti-publishes-global-policy-principles-for-enabling-transparency-of-ai-systems

  2. https://www.itic.org/documents/artificial-intelligence/ITIsPolicyPrinciplesforEnablingTransparencyofAISystems2022.pdf

本文转载自: 苏州信息安全法学所

如若转载,请注明出处: https://mp.weixin.qq.com/s/mXAvU7FQf8G5ZW6vOkZJPg

安全客 - 有思想的安全新媒体

分享到:微信
+10赞
收藏
安全客
分享到:微信

发表评论

内容需知
  • 投稿须知
  • 转载须知
  • 官网QQ群8:819797106
  • 官网QQ群3:830462644(已满)
  • 官网QQ群2:814450983(已满)
  • 官网QQ群1:702511263(已满)
合作单位
  • 安全客
  • 安全客
Copyright © 北京奇虎科技有限公司 360网络攻防实验室 安全客 All Rights Reserved 京ICP备08010314号-66