安全, 新闻 GateBreaker:针对混合专家大语言模型的门控引导攻击 2026年1月8日 / 作者:Lichao Wu, Sasha Behrouzi, Mohamadreza Rostami等 译者:知道创宇404实验室翻译组 原文链接:https://arxiv.org/html/2512.21008v2 摘要 混合专家(Mixture-of-Experts, MoE)架构通过对每个输入仅激活参数的稀疏子集,在降低计算成本的同时实现了最先进的性能,推动了大语言模型(Large L...