关键漏洞(CVE-2025-47277)已在vLM中披露,vLM是大型语言模型(LLM)的高性能推理和服务引擎。该漏洞通过PyNcclPipe通信服务中不安全的反序列化错误实现远程代码执行(RCE),并且已分配了9.8的CVSS分数。
vLLM最初由加州大学伯克利分校的天空计算实验室开发,现在是一个社区驱动的项目,为LLM推理和服务提供了一个快速且易于使用的库。它支持分布式部署、先进的KV缓存管理,并与行业规模的LLM基础设施集成。
该漏洞存在于 PyncclPipe 类中,它有助于使用点对点消息在分布式节点之间传输 KV 缓存。CPU侧消息传递机制使用Python的泡菜模块来序列化和反序列化数据。
“PynclPipe实现包含一个关键的安全漏洞,它使用pickle.loads直接处理客户端提供的数据,从而创建一个不安全的去序列化漏洞,可能导致远程代码执行,”该咨询解释说。
通过向正在运行的PyNcclPipe服务发送恶意制作的对象,攻击者可以利用此漏洞在主机上执行任意系统命令,从而有效地完全控制服务器。
根本问题也可以追溯到PyTorch的TCPStore绑定行为:“PyTorch的默认行为是TCPStore接口将监听所有接口,无论提供什么IP地址。
vLLM 已实施一项变通办法,以确保它与指定的私有接口绑定,从而降低暴露风险。建议用户立即更新到vLM v0.8.5。
发表评论
您还未登录,请先登录。
登录