登录体验完整功能(收藏、点赞、评论等) —

OpenAI开源隐私脱敏模型Privacy Filter 支持12.8万超长上下文

2026年4月,OpenAI推出全新个人身份信息(PII)脱敏模型Privacy Filter,该模型基于Apache2.0协议在Hugging Face与GitHub同步开源,总参数规模15亿,采用轻量化混合专家MoE架构,单次推理仅激活5000万参数,可识别8类隐私信息,支持12.8万超长上下文处理,能本地部署运行,为开发者提供可高度定制的非结构化文本隐私保护方案。

在大模型落地各行各业的过程中,用户数据的隐私脱敏一直是绕不开的合规门槛。传统隐私脱敏工具大多依赖固定规则匹配,不仅容易误判漏判,还常常在遮盖敏感信息的同时破坏了文本原本的语义价值,对于长文本非结构化数据的处理更是效率低下。OpenAI此次推出的Privacy Filter,正好瞄准了这一行业痛点。

不同于传统工具靠预设关键词匹配的逻辑,Privacy Filter依托大模型的深度语义理解能力,可以结合上下文语境判断信息属性。它能精准区分“用户身份证号110xxxx”和“商品编号110xxxx”这类易混淆场景,在非结构化文本如聊天记录、用户调研报告中准确锁定8类常见敏感隐私信息,在完成脱敏遮盖的同时,最大程度保留文本中可公开使用的有效信息,解决了传统脱敏“一遮全错、一放全漏”的核心问题。

技术架构上,Privacy Filter采用了混合专家(MoE)轻量化设计,虽然总参数规模达到15亿,但单次推理仅激活约5000万参数,大幅降低了运行的算力要求。这意味着开发者不需要高端GPU集群,就能在普通笔记本电脑甚至浏览器端流畅运行该模型,完全适配本地部署需求。

免责声明:本网站AI资讯内容仅供学习参考,不构成任何建议,不对信息准确性与完整性负责。
相关资讯
AI小创