一种名为Shadow Escape的新型安全漏洞引发重大担忧,研究公司Operant AI的报告揭示了其对消费者隐私构成的未知风险。
这种新型攻击可从使用主流AI助手的企业中窃取大量私人信息,如社会安全号码(SSN)、医疗记录和财务详情,而用户无需点击可疑链接或操作失误。
隐藏在日常中的危险
问题根源在于名为模型上下文协议(MCP) 的技术标准——企业通过该协议将ChatGPT、Claude、Gemini等大型语言模型(LLM)连接到内部数据库和工具。Shadow Escape攻击正是利用了这一连接漏洞。
需要说明的是,以往攻击通常需要用户被诱骗(例如通过钓鱼邮件),而这种零点击攻击的危险性在于:恶意指令隐藏在看似无害的文档中(如员工入职手册或从互联网下载的PDF)。当员工为方便将文件上传至工作AI助手时,隐藏指令会指示AI秘密开始收集并发送私人客户数据。
“由于Shadow Escape可通过标准MCP配置和默认权限轻松实施,目前通过该漏洞外渗至暗网的私人消费者和用户记录规模可能已达数万亿条,”研究人员在与Hackread.com 分享的博客文章中指出。
AI系统的设计初衷是提供帮助,它会自动跨多个数据库交叉引用信息,从而暴露从全名、地址到信用卡号和医疗标识符的所有敏感数据。
Operant AI发布的视频演示显示,一个关于客户详情的简单聊天提示会迅速升级为AI将全部敏感记录秘密发送至恶意服务器,且整个过程未被发现。
为何标准安全措施无法阻止
Operant AI研究估计,该漏洞已使数万亿条私人记录面临风险。必须强调的是,这并非单一AI提供商的问题——任何使用MCP的系统均可被同一技术利用。
“共同点并非特定AI代理,而是授予这些代理对组织系统前所未有的访问权限的MCP协议。任何通过MCP连接数据库、文件系统或外部API的AI助手,都可能被Shadow Escape攻击利用,”Operant AI联合创始人兼CTO Priyanka Tembey写道。
核心问题在于,数据窃取发生在公司安全网络和防火墙内部。AI助手对数据拥有合法访问权限,因此当其开始发送记录时,流量看起来完全正常,使传统安全工具无法察觉。
进一步调查显示,AI会将恶意数据传输至外部服务器,并将该活动伪装成常规性能跟踪。员工和IT部门完全无法察觉这一过程。
研究团队强烈敦促所有依赖AI代理的组织立即审计系统,因为下一次重大数据泄露可能并非来自黑客,而是受信任的AI助手。







发表评论
您还未登录,请先登录。
登录