微软近期发布重要安全警示,指出黑客正利用伪装成AI岗位求职机会的开源代码仓库,针对AI领域开发者实施多阶段后门攻击。此类诱饵仓库会模仿真实的AI项目招聘需求,诱使开发者克隆或运行代码,进而植入恶意程序以窃取核心代码、模型训练数据等资产,目前已有多家企业的AI开发团队上报相关账号异常事件。
随着大语言模型、AI原生应用的商业化进程加快,AI开发者群体掌握的核心资产价值呈指数级增长——从训练千亿级模型的数据集,到未开源的轻量化算法代码,再到连接企业内部AI平台的权限账号,每一项都是黑客眼中的“香饽饽”。微软安全团队分析,这类开发者日常高频访问GitHub等代码仓库,既会下载开源AI项目进行二次开发,也会主动搜索与AI岗位相关的资源,这让他们成为攻击的高危群体。
黑客的攻击套路经过精心设计,极具迷惑性:他们创建的代码仓库通常会标注“AI算法工程师内推”“大模型开发岗位笔试项目”等醒目标题,仓库内还会嵌入逼真的招聘JD、岗位要求,甚至附上一段看似合理的AI项目演示代码。一旦AI开发者克隆仓库并运行其中的环境初始化脚本,多阶段后门程序就会被触发:首先通过轻量级恶意代码获取本地设备的基础权限,随后自动从境外服务器加载更复杂的恶意模块,最终实现对开发者设备、代码仓库账号的完全控制,进而窃取AI模型训练数据、企业未公开的算法代码等核心资产。
针对这类新型攻击,微软安全团队为AI开发者提出了针对性防护建议:首先,对陌生代码仓库中的求职相关信息保持高度警惕,切勿随意运行未知来源的脚本或安装包;其次,为代码仓库账号开启双重认证,同时限制第三方应用的权限范围;最后,定期使用专业安全工具扫描本地开发环境,排查异常进程与可疑文件,及时更新防护软件至最新版本。