欧洲议会禁用办公设备内置AI功能 警惕数据安全风险

2 天前 AI快讯 5

欧洲议会禁用办公设备内置AI功能 警惕数据安全风险

当地时间2月16日,欧洲议会通过内部邮件通知议员及工作人员,已全面禁用办公平板电脑上的内置人工智能功能,涵盖写作助手、内容摘要等工具。这一举措源于议会信息技术部门的安全评估——部分AI功能未采用本地处理,而是通过云服务传输数据,存在数据泄露风险。议会同时建议工作人员在私人设备上采取类似防护,凸显欧盟对数据安全与技术自主的高度重视。

据POLITICO获得的内部邮件内容显示,欧洲议会电子议员技术支持部门在通知中明确,此次禁用的AI功能包括但不限于文本生成、智能摘要、语法纠错等内置工具。评估结果指出,令人担忧的并非AI功能本身,而是其数据处理方式:部分本可通过设备本地算力完成的任务,却被默认导向第三方云服务,导致议员及工作人员的工作数据被传输至服务提供商的远程服务器。邮件特别强调,随着AI功能的持续更新和设备覆盖范围扩大,与第三方共享的数据边界仍不清晰,目前无法完全排除数据被截留、不当分析甚至泄露的风险。

这一禁令并非孤立事件,而是欧盟长期以来坚守数据安全与技术自主立场的缩影。作为全球数据监管最严格的地区,欧盟《通用数据保护条例》(GDPR)早已确立“设计隐私”“默认隐私”等核心原则,此次禁用云AI功能正是对这些原则的落地。此前欧盟在推动《人工智能法案》的过程中,就将涉及敏感数据处理的AI系统列为“高风险”范畴,要求最严格的合规审查,而议会办公场景中的AI应用,恰恰涉及未公开的立法草案、政治协商细节等最高优先级敏感数据。

欧盟数据安全咨询委员会成员马克·霍夫曼在接受采访时表示,欧洲议会的举措传递了明确信号:AI应用的前提永远是数据安全。“议员的工作数据若被第三方服务商获取,不仅侵犯隐私,更可能威胁欧洲政治决策的独立性。”霍夫曼指出,当前多数商用AI工具依赖云端处理,而欧盟本土AI企业在终端本地部署大模型的能力尚在发展阶段,这也是议会不得不采取临时禁用措施的关键原因之一。

禁令的影响正在向产业端传导。一方面,这凸显了市场对安全可控的本地AI工具的迫切需求,将直接推动欧盟加大对本土AI企业的扶持——近期法国初创企业Mistral AI推出的可本地部署大模型,已获得欧盟多家机构的关注与合作意向。另一方面,禁令也对国际AI巨头在欧盟的业务形成限制,微软、谷歌等企业需进一步调整服务模式,满足欧盟对数据本地化处理的要求,否则可能失去公共领域的市场空间。

值得注意的是,欧洲议会还要求工作人员在私人设备处理工作事务时禁用AI辅助功能,直指“混合办公数据漏洞”:当前职场人士普遍使用私人设备处理工作,而私人设备上的AI工具往往缺乏数据防护机制,极易导致敏感信息暴露。

从AI法案的立法到此次禁用办公AI功能,欧洲正在构建“安全优先”的AI应用生态。未来,随着监管框架的完善,欧洲机构与企业将在AI应用上形成更清晰的合规标准,既兼顾技术创新,又牢牢守住数据安全与技术自主的底线,这一趋势也将为全球AI产业的可持续发展提供重要参考。

所属分类
×

微信二维码

请选择您要添加的方式

AI小创