安全, 新闻 vLLM高危远程代码执行漏洞分析(CVE-2025-62164) 2026年1月23日 / 漏洞来源漏洞描述vLLM 是一个用于大型语言模型 (LLM) 的推理和服务引擎。在 0.10.2 到 0.11.1 版本之前,其补全 API 端点存在一个内存损坏漏洞,可能导致程序崩溃(拒绝服务攻击)甚至远程代码执行 (RCE)。该漏洞在处理用户提供的提示嵌入时,使用 `torch.load()` 加载序列化张量,但缺乏充分的验证。由于 PyTorch 2.8.0 引入的一项变更,稀疏张量完整性检