研究人员黑掉了谷歌人工智能:获得了 50,000 美元的赏金

阅读量53346

发布时间 : 2024-03-13 10:49:29

在谷歌于拉斯维加斯举行的 LLM bugSWAT 活动中,研究人员发现并报告了该公司Bard AI(以前称为 Gemini)中的错误,并获得了 50,000 美元的奖励。

Roni Carta、Justin Gardner 和 Joseph Thacker 共同破解了 Bard 和 Google Cloud Console。

特别是,研究人员发现的安全漏洞可能会导致DoS 攻击、用户数据泄露以及对属于特定用户的上传图像的访问。

“视觉功能旨在处理和描述任何上传的图像。

然而,我们观察到一个重大缺陷。当我们利用这个缺陷时,它允许我们在没有任何权限或验证过程的情况下访问其他用户的图像”,Roni Carta 在他的博客中写道。

研究人员表示,通过欺骗巴德描述其他用户发布的照片,攻击者可以有效地获得对目标上传的任何图像的未经授权的视觉访问。

此外,考虑到 Bard 的光学字符识别 (OCR) 技术,这还可能导致受害者照片中的机密文本信息(例如电子邮件、笔记和收入)意外泄露。

Bard 可以在用户对话期间呈现 Markdown。

研究人员的想法很简单:

如果我们可以让 Bard 汇总磁盘上的文件、电子邮件和其他数据,然后使用 Markdown 来提取它们,会怎么样?研究人员考虑通过照片进行渗透。

使用命令以实现成功的渗透

内容安全策略 (CSP) 的设计目的是通过允许后端服务器指定浏览器应接受哪些域作为可执行脚本、图片、样式等的合法来源,从而防止跨站脚本 (XSS)和数据注入威胁。

总而言之,任何导致源发送 HTTP 请求的事情。

研究人员成功获取了受害者的电子邮件帐户。在迅速向 Google 通报此漏洞后,Justin 和 Roni 获得了 20,000 美元的赏金,并因该活动中第三酷的错误而获得了 1,337 美元的额外奖励!

破解 Google Cloud Console

在该活动的框架内,研究人员还可以访问 Google Cloud Console 上最近发布的 AI 功能,并可以对其进行攻击。

Roni Carta 立即启动了他的代理并检查了前端和后端之间发生的每一次联系。GraphQL 是 API 端点之一,可在 cloudconsole-pa.clients6.google.com 上运行。

当研究人员发现他们正在使用 GraphQL 时,他们立即检查是否存在拒绝服务 (DoS)。

当故意使用过多的指令来设计查询时,就会发生指令重载。

这样做可以利用服务器对每个指令的处理,从而导致计算负载增加。

当研究人员添加更多指令时,后端将需要更长的时间来回复请求。

当利用 DoS 情况时,可能会影响目标的可用性。

使用 1000000 条指令进行测试

研究人员表示:“恶意行为者可以轻松地计算出包含数百万条指令的请求,并每分钟发送数千个请求来挂起谷歌后端的某些部分。”

Bug 赏金团队向研究人员奖励了 1,000 美元,并额外奖励 5,000 美元作为“活动中最酷的 Bug”奖励。

随着人工智能在其产品中的应用,谷歌希望创建一个有效的安全红队程序;为此,他们的 Bug Bounty 团队组织了这次活动。

在世界范围内,研究人员面临着寻找他们尚未发现的缺陷的挑战。

本文转载自:

如若转载,请注明出处: https://cybersecuritynews.com/researchers-hacked-google/

安全客 - 有思想的安全新媒体

分享到:微信
+13赞
收藏
安全客
分享到:微信

发表评论

内容需知
合作单位
  • 安全客
  • 安全客
Copyright © 北京奇虎科技有限公司 三六零数字安全科技集团有限公司 安全客 All Rights Reserved 京ICP备08010314号-66