vLLM(增长最快的开源大语言模型推理引擎之一)中最新披露的一个 高严重性漏洞 允许攻击者仅通过提交恶意提示嵌入就可导致服务器崩溃,甚至可能执行任意代码。该漏洞编号为 CVE-2025-62164,CVSS 评分为 8.8,影响 vLLM 0.10.2 及更高版本,使众多 AI 部署和 LLM 驱动的应用面临重大风险。
根据安全公告,“vLLM 0.10.2 及更高版本的 Completions API 端点中存在一个内存损坏漏洞,可导致崩溃(拒绝服务)并可能实现远程代码执行(RCE)。”
该漏洞源于在 Completions API 中反序列化用户提供的嵌入时 验证不足。受影响代码使用 torch.load(tensor, weights_only=True) 加载张量。
但公告警告:“由于 PyTorch 2.8.0 中引入的一项变更,稀疏张量完整性检查默认被禁用……恶意构造的张量可绕过内部边界检查,并在调用 to_dense() 期间触发 越界内存写入。”
正是这种越界写入使漏洞极具危险性——不仅导致服务器崩溃,还可能实现任意代码执行。
该补丁已通过 #27204 合并。
随着 AI 基础设施持续扩展,供应链弱点和底层张量操作缺陷将成为越来越具吸引力的目标。运行 vLLM 的组织应 立即升级,并审计所有面向外部的模型服务接口。








发表评论
您还未登录,请先登录。
登录