谷歌Gemini遭大规模蒸馏攻击 单次超10万次提示涉核心风险 当地时间2月12日,谷歌官方披露旗下AI聊天机器人Gemini正遭遇针对核心逻辑的大规模“蒸馏攻击”——攻击者通过单次超10万次的重复提问试探模型输出模式,试图克隆或强化自身AI系统。此次攻击由带有商业竞争动机的机构发起,遍布全球多地,不仅敲响Gemini的安全警钟,更引发整个AI行业对大模型防御机制的深度审视。 所谓“蒸馏攻击”,本质上是一种针对大模型的“逆向工程”:攻击者通过设计大量针对性提问,反复试探模型的输出边界、逻辑偏好,一点点“萃取”其训练过程中内化的核心机制——就像通过无数次品尝倒推一款饮料的配方。此次针对Gemini的攻击中,单次行动的提示量突破10万次,如此密集的试探力度在行业内尚属罕见,足以见得攻击者获取核心技术的迫切程度。 谷歌方面在声明中明确指出,发起攻击的行为者带有强烈商业动机,幕后多为寻求竞争优势的AI私营企业或研究机构,攻击源分布在全球多个地区。出于安全和隐私考量,谷歌并未披露具体嫌疑方信息,但强调已启动专项防御机制监控攻击动态。谷歌威胁情报小组首席分析师约翰·霍特奎斯特将此次事件比作“煤矿里...