vLLM中的关键CVSS9.8 RCE缺陷使AI收件箱面临远程攻击

阅读量13363

发布时间 : 2025-05-21 15:34:45

x
译文声明

本文是翻译文章,文章原作者 Ddos,文章来源:securityonline

原文地址:https://securityonline.info/critical-cvss-9-8-rce-flaw-in-vllm-exposes-ai-hosts-to-remote-attacks/

译文仅供参考,具体内容表达以及含义原文为准。

CVE-2025-29783 CVE-2025-32444 vLLM 漏洞 vLLM,远程执行代码

关键漏洞(CVE-2025-47277)已在vLM中披露,vLM是大型语言模型(LLM)的高性能推理和服务引擎。该漏洞通过PyNcclPipe通信服务中不安全的反序列化错误实现远程代码执行(RCE),并且已分配了9.8的CVSS分数。

vLLM最初由加州大学伯克利分校的天空计算实验室开发,现在是一个社区驱动的项目,为LLM推理和服务提供了一个快速且易于使用的库。它支持分布式部署、先进的KV缓存管理,并与行业规模的LLM基础设施集成。

该漏洞存在于 PyncclPipe 类中,它有助于使用点对点消息在分布式节点之间传输 KV 缓存。CPU侧消息传递机制使用Python的泡菜模块来序列化和反序列化数据。

“PynclPipe实现包含一个关键的安全漏洞,它使用pickle.loads直接处理客户端提供的数据,从而创建一个不安全的去序列化漏洞,可能导致远程代码执行,”该咨询解释说。

通过向正在运行的PyNcclPipe服务发送恶意制作的对象,攻击者可以利用此漏洞在主机上执行任意系统命令,从而有效地完全控制服务器。

根本问题也可以追溯到PyTorch的TCPStore绑定行为:“PyTorch的默认行为是TCPStore接口将监听所有接口,无论提供什么IP地址。

vLLM 已实施一项变通办法,以确保它与指定的私有接口绑定,从而降低暴露风险。建议用户立即更新到vLM v0.8.5。

本文翻译自securityonline 原文链接。如若转载请注明出处。
分享到:微信
+10赞
收藏
安全客
分享到:微信

发表评论

Copyright © 北京奇虎科技有限公司 三六零数字安全科技集团有限公司 安全KER All Rights Reserved 京ICP备08010314号-66