登录体验完整功能(收藏、点赞、评论等) —

让AI触手可及,让应用激发潜能

OpenAI开源PII脱敏模型Privacy Filter,采用混合专家架构

2026年4月,OpenAI推出面向个人身份信息(PII)脱敏的开源大模型Privacy Filter。该模型参数规模1.5亿,采用混合专家(MoE)架构,支持最高12.8万Token上下文窗口,以Apache 2.0协议上架Hugging Face与GitHub,允许开发者免费商用与二次定制。模型依托深度语义理解识别非结构化文本敏感信息,性能超越传统规则类脱敏工具。

当下大模型商业化落地过程中,数据隐私合规已经成为全行业共同面对的核心问题。无论是训练大模型所用的公开爬取语料,还是产品上线后产生的用户交互日志、业务存档数据,都暗藏大量需要脱敏处理的个人身份信息。传统脱敏方案高度依赖预设规则匹配,只能识别固定格式的敏感信息,面对嵌入长上下文的非结构化PII,漏识别率始终居高不下,行业迫切需要更智能的脱敏工具。

此次OpenAI推出的Privacy Filter,参数规模仅1.5亿,属于轻量化专用模型,采用混合专家(MoE)架构设计,适配多数开发者的本地部署需求。

与传统规则类脱敏工具不同,Privacy Filter主打基于大模型的深度上下文理解能力,能够结合语境判断文本内容是否属于敏感PII,既不会过度遮盖可公开使用的文本信息,也能精准识别隐藏在非结构化内容中的个人数据。该模型支持最高12.8万Token的超长上下文窗口,可以一次性完成整份长文档、全量交互日志的脱敏处理,还通过受限维特比算法保证脱敏后文本的语义连贯性。

免责声明:本网站AI资讯内容仅供学习参考,不构成任何建议,不对信息准确性与完整性负责。
相关资讯
AI小创