vLLM框架存在漏洞(CVE-2025-62164),通过恶意提示嵌入可导致远程代码执行

阅读量4105

发布时间 : 2025-11-25 17:43:02

x
译文声明

本文是翻译文章,文章原作者 Ddos,文章来源:securityonline

原文地址:https://securityonline.info/vllm-flaw-cve-2025-62164-risks-remote-code-execution-via-malicious-prompt-embeddings/

译文仅供参考,具体内容表达以及含义原文为准。

vLLM(增长最快的开源大语言模型推理引擎之一)中最新披露的一个 高严重性漏洞 允许攻击者仅通过提交恶意提示嵌入就可导致服务器崩溃,甚至可能执行任意代码。该漏洞编号为 CVE-2025-62164,CVSS 评分为 8.8,影响 vLLM 0.10.2 及更高版本,使众多 AI 部署和 LLM 驱动的应用面临重大风险。

根据安全公告,“vLLM 0.10.2 及更高版本的 Completions API 端点中存在一个内存损坏漏洞,可导致崩溃(拒绝服务)并可能实现远程代码执行(RCE)。”

该漏洞源于在 Completions API 中反序列化用户提供的嵌入时 验证不足。受影响代码使用 torch.load(tensor, weights_only=True) 加载张量。

但公告警告:“由于 PyTorch 2.8.0 中引入的一项变更,稀疏张量完整性检查默认被禁用……恶意构造的张量可绕过内部边界检查,并在调用 to_dense() 期间触发 越界内存写入。”

正是这种越界写入使漏洞极具危险性——不仅导致服务器崩溃,还可能实现任意代码执行。

该补丁已通过 #27204 合并。

随着 AI 基础设施持续扩展,供应链弱点和底层张量操作缺陷将成为越来越具吸引力的目标。运行 vLLM 的组织应 立即升级,并审计所有面向外部的模型服务接口。

本文翻译自securityonline 原文链接。如若转载请注明出处。
分享到:微信
+10赞
收藏
安全客
分享到:微信

发表评论

安全客

这个人太懒了,签名都懒得写一个

  • 文章
  • 728
  • 粉丝
  • 6

热门推荐

文章目录
Copyright © 北京奇虎科技有限公司 三六零数字安全科技集团有限公司 安全KER All Rights Reserved 京ICP备08010314号-66