少找工具,多做创作

工信部就121项AI行业标准征求意见 重点规范上下文协议安全

2026年3月26日,工信部正式发布通知,就《人工智能 安全治理 模型上下文协议应用安全要求》等121项行业标准计划项目公开征求意见。本次征集重点针对模型上下文协议(Model Context Protocol)的应用安全,旨在解决大模型多模态交互、跨平台调用等场景的协议兼容与数据安全问题,标志着我国AI底层协议标准化与安全监管体系建设迈出关键一步。

最近两年,大语言模型的上下文窗口从几千Token快速扩容到百万甚至千万Token级别,跨生态调用、多模态长文本交互已经成为AI应用的主流形态,但不同厂商接口不统一、上下文传输无明确安全规范的问题,正在成为产业发展的明显阻碍。

随着OpenAI GPT系列、Anthropic Claude、国内DeepSeek等大模型产品的能力边界不断拓展,越来越多的应用选择同时调用多个大模型的能力完成复杂任务,但不同厂商的上下文传输协议差异巨大,开发者往往需要针对不同模型做多次适配,仅接口适配成本就能占到AI应用开发总成本的30%以上。

除此之外,上下文数据泄露的风险也在持续攀升:多轮对话中的用户隐私数据、企业上传的内部文档内容,在跨平台调用的过程中,往往因为没有统一的加密和权限校验规则,出现未授权访问、数据泄露等安全事故。仅2025年,国内就有超过20起AI应用上下文泄露的安全事件被公开通报。

本次公开征求意见的121项行业标准中,《人工智能 安全治理 模型上下文协议应用安全要求》是关注度最高的核心标准之一。该标准针对模型上下文协议(MCP)的全流程应用给出了明确规范,既包括了跨平台调用的统一接口标准,也覆盖了上下文数据加密、权限校验、长文本分片传输等安全要求。

按照标准的征求意见稿,未来所有在国内落地的大模型产品,都需要兼容统一的上下文协议,同时对用户的上下文数据进行全链路加密,仅在获得用户明确授权的前提下才能向第三方接口传输相关数据。这一规则落地后,开发者的跨模型适配成本预计能降低70%以上,上下文传输的安全风险也将得到系统性控制。

值得注意的是,本次标准征求意见的时间点,恰好和近期多项AI技术突破重合:谷歌日前发布的TurboQuant技术通过压缩KV缓存,可在不损失精度的前提下将大模型内存占用降低六倍,大幅降低了长上下文处理的硬件门槛;哈佛大学研究团队也在近日公布成果,仅用两周的导师制训练就将Claude大模型的物理专业能力提升到了研二学生水平。

技术迭代速度不断加快的背景下,统一的行业标准将为AI产业的创新提供清晰的合规框架,避免出现“先发展后治理”的风险。据工信部相关人士透露,本次公开征求意见将持续到2026年4月25日,经过修订后的相关标准最快将于2026年下半年正式落地,后续还将有更多覆盖大模型训练、推理、应用全流程的技术标准陆续出台。

!
本文内容来源于公开互联网信息,并包含平台新增内容及用户发布内容,旨在进行知识整理与分享。文中所有信息与观点均仅供参考,不代表任何官方或特定立场,亦不构成任何操作或决策建议,请读者谨慎甄别,详情请见完整免责声明
相关资讯
AI小创