当AI失控时会发生什么,以及如何阻止它

阅读量67188

发布时间 : 2024-07-09 19:34:40

x
译文声明

本文是翻译文章,文章原作者 卡梅伦·坎普,文章来源:welivesecurity

原文地址: https://www.welivesecurity.com/en/cybersecurity/what-happens-ai-goes-rogue-how-stop-it/

译文仅供参考,具体内容表达以及含义原文为准。

随着人工智能越来越接近造成物理伤害和影响现实世界的能力,“它很复杂”已不再是一个令人满意的回答。

我们已经看到人工智能从回答学校家庭作业的简单聊天问题转变为试图检测纽约地铁中的武器,现在又被发现参与了一名利用人工智能创建 使用真实照片和视频深度伪造儿童性虐待材料 (CSAM) ,让那些 (穿着整齐的) 原版观众感到震惊。

在人工智能持续迅猛发展的同时,一些人试图提供更有意义的护栏,以防止其出错。

多年来,我们一直在安全领域使用人工智能,但我们警告称,人工智能并非万灵药,部分原因是它会在关键问题上出错。然而,“偶尔”出错的安全软件仍将产生相当负面的影响,要么产生大量误报,导致安全团队不必要地手忙脚乱,要么错过与人工智能已知的恶意软件“略有不同”的恶意攻击。

这就是为什么我们一直在将其与许多其他技术叠加以提供制衡。这样一来,如果人工智能的答案类似于数字幻觉,我们就可以将其与其他技术结合起来。

虽然对手还没有发动过很多纯人工智能攻击,但更正确的想法是,对抗性人工智能自动化攻击链中的环节会更有效,尤其是在网络钓鱼以及现在从网络钓鱼到超大规模社会工程工作的语音和图像克隆方面。如果坏人能够从数字上获得信心,并欺骗系统使用人工智能生成的数据进行身份验证,那么这就足以成为进入你的组织并开始手动启动自定义漏洞利用工具的滩头阵地。为了阻止这种情况,供应商可以分层多因素身份验证,因此攻击者需要多种(希望是时间敏感的)身份验证方法,而不仅仅是语音密码。虽然这项技术现在被广泛部署,但用户也普遍未充分利用它。这是一种简单的方法,用户可以保护自己,而无需付出沉重的代价或大量预算。

人工智能有错吗?当人们被问及人工智能出错的原因时,他们只是打趣说“这很复杂”。但随着人工智能越来越接近造成物理伤害和影响现实世界的能力,这不再是一个令人满意且充分的回应。例如,如果一辆人工智能驱动的自动驾驶汽车发生事,是“司机”收到罚单,还是制造商收到罚单?这个解释可能非常复杂且不透明,不太可能让法庭满意。

那隐私呢?从隐私的角度来看,我们已经看到 GDPR 规则对技术失控进行了严厉打击。当然,人工智能衍生、分割和切割原创作品并产生衍生作品以牟利的行为违背了隐私精神——因此会触发保护法——但人工智能到底要复制多少才算是衍生作品,如果它复制的量刚好足以规避立法呢?

此外,在缺乏判例法、需要多年时间才能得到更好的法律检验的情况下,人们如何在法庭上证明这一点?我们看到报纸出版商起诉微软和 OpenAI,因为他们认为这些文章未经应有的认可就被高科技复述;诉讼结果将会很有趣,或许是未来法律行动的预兆。

与此同时,人工智能是一种工具——通常是一种很好的工具——但能力越大,责任越大。如果我们新发现的力量失控,人工智能提供商目前的责任远远落后于可能承担的责任。

本文翻译自welivesecurity 原文链接。如若转载请注明出处。
分享到:微信
+10赞
收藏
安全客
分享到:微信

发表评论

Copyright © 北京奇虎科技有限公司 三六零数字安全科技集团有限公司 安全KER All Rights Reserved 京ICP备08010314号-66