安全,  新闻

GateBreaker:针对混合专家大语言模型的门控引导攻击

作者:Lichao Wu, Sasha Behrouzi, Mohamadreza Rostami等
译者:知道创宇404实验室翻译组
原文链接:https://arxiv.org/html/2512.21008v2
摘要
混合专家(Mixture-of-Experts, MoE)架构通过对每个输入仅激活参数的稀疏子集,在降低计算成本的同时实现了最先进的性能,推动了大语言模型(Large L...

留言

您的邮箱地址不会被公开。 必填项已用 * 标注