登录体验完整功能(收藏、点赞、评论等) — 立即登录

少找工具,多做创作

全球19款新型大语言模型集中亮相 重构AI安全边界与风险标准

全球科技行业媒体InfoWorld最新发布的技术观测报告显示,目前已有19款不同定位的大语言模型(LLM)正式对外亮相,其中既包含搭载多层级安全护栏、风险输出拦截率超过92%的合规导向产品,也涵盖完全取消内容限制的开源模型,这类产品分化正在重新定义全球AI安全的评价维度与风险防控标准。

生成式AI落地潮进入第三年,不同群体对大模型的需求分歧正在从隐性转向显性:面向普通用户的消费级产品需要尽可能拦截所有违规内容,避免法律风险和舆论争议,而网络安全研究人员、垂直行业开发者却常常吐槽通用大模型的“过度护栏”限制了正常功能的使用,比如生成用于漏洞测试的恶意代码、涉及小众专业领域的敏感内容等。

过去两年,全球主流大模型厂商普遍采用“一刀切”的安全防护策略,无论用户身份和使用场景,都采用统一的内容拦截规则,这也导致大量定制化需求无法被满足,开源社区和垂直厂商开始推出定位差异化的LLM产品,此次进入观测名单的19款模型,正是这种分化趋势的集中体现。

据统计,目前国内市场对定制化安全规则LLM的需求年增速已经超过200%,金融、政务、工业等垂直领域的客户,普遍需要适配自身行业合规要求的专属安全防护逻辑,通用大模型的统一护栏已经无法满足这类场景的需求。

此次披露的19款模型中,两类产品的技术迭代方向格外值得关注。合规导向的大模型不再采用统一拦截逻辑,而是转向分级权限管理,企业客户可以根据自身场景自定义安全规则,相比传统通用大模型,其误拦截率下降了37%,针对违规内容的精准拦截率则提升至92%以上,目前已有3款该类模型通过了欧盟AI法案的通用AI系统合规测试。

!
本文内容来源于公开互联网信息,并包含平台新增内容及用户发布内容,旨在进行知识整理与分享。文中所有信息与观点均仅供参考,不代表任何官方或特定立场,亦不构成任何操作或决策建议,请读者谨慎甄别,详情请见完整免责声明
相关资讯
AI小创