新型工具“Whisper Leak”可窃取加密流量中用户向主流AI智能体发送的提示词

阅读量11713

发布时间 : 2025-11-10 17:19:17

x
译文声明

本文是翻译文章,文章原作者 Guru Baran,文章来源:cybersecuritynews

原文地址:https://cybersecuritynews.com/whisper-leak-toolkit/

译文仅供参考,具体内容表达以及含义原文为准。

复杂的边信道攻击可泄露与 AI 聊天机器人对话的主题,即便流量受端到端加密保护。

这种名为 “Whisper Leak” 的漏洞使窃听者(如国家行为体、互联网服务提供商或 Wi-Fi 窥探者)能通过网络数据包大小和时间推断敏感提示词细节。该发现凸显出 AI 工具在日常生活中深度集成所带来的隐私风险——从医疗咨询到法律咨询均可能受影响。

微软研究人员在近期博客文章中详细介绍了该攻击,强调其对用户信任 AI 系统的潜在影响。通过分析大型语言模型(LLMs)的流式响应,攻击者无需解密数据即可对特定主题的提示词进行分类。

这在存在压迫性政权的地区尤为令人担忧,涉及抗议、选举或违禁内容的讨论可能导致用户被针对性监控。

Whisper Leak 攻击工具包

OpenAI、微软等公司的 AI 聊天机器人通过逐令牌(token)生成回复并流式输出以提供快速反馈。这种自回归过程结合 HTTPS 等协议的 TLS 加密,通常能保护内容安全。

然而,Whisper Leak 针对元数据发起攻击:数据包大小的变化(与令牌长度相关)和到达间隔时间暴露出特定主题的独特模式。

研究方法包括在加密流量上训练分类器。在概念验证中,研究人员聚焦“洗钱合法性”主题,生成 100 种提示词变体,并与 11,716 条无关的 Quora 问题对比。

他们使用 tcpdump 等工具捕获数据,测试了 LightGBMBi-LSTM 和基于 BERT 的分类器。结果显示:许多模型在精确率-召回率曲线下面积(AUPRC)上达到 98% 以上的准确率,能从无关信息中区分目标主题。

在模拟真实场景中,监控 10,000 次对话的攻击者可标记敏感对话,实现 100% 精确率和 5-50% 召回率——意味着极少误报,且能可靠识别非法查询。

该攻击基于既往研究(如 Weiss 等人的令牌长度推断、Carlini 和 Nasr 的时间漏洞利用),但进一步扩展到主题分类。

缓解措施

微软已与 OpenAI、Mistral、xAI 及自家 Azure 平台等供应商合作部署修复方案。OpenAI 新增“混淆字段”,通过随机文本块掩盖令牌长度,大幅降低攻击可行性。

Mistral 引入“p 参数”实现类似随机化,Azure 也同步实施了这些变更。测试显示,这些更新将风险降至可忽略水平。

专家建议用户:避免在公共网络讨论敏感话题、使用 VPN、选择非流式输出模式,并优先使用已修复的服务提供商。GitHub 上的开源 Whisper Leak 仓库包含相关代码,供安全意识提升和进一步研究使用。

此事件凸显 AI 普及背景下强化隐私保护的必要性。尽管缓解措施已应对当前威胁,但不断演变的攻击手段要求行业保持持续警惕。

本文翻译自cybersecuritynews 原文链接。如若转载请注明出处。
分享到:微信
+10赞
收藏
安全客
分享到:微信

发表评论

安全客

这个人太懒了,签名都懒得写一个

  • 文章
  • 673
  • 粉丝
  • 6

热门推荐

文章目录
Copyright © 北京奇虎科技有限公司 三六零数字安全科技集团有限公司 安全KER All Rights Reserved 京ICP备08010314号-66