登录体验完整功能(收藏、点赞、评论等) — 立即登录

少找工具,多做创作

19款大语言模型研究显示:安全护栏是护盾也是阻碍

科技媒体InfoWorld近日发布针对19款主流大语言模型的专项调研,聚焦当前AI安全领域最核心的争议点——大语言模型安全护栏机制的实际价值。调研指出,当前AI行业对安全护栏的态度呈现明显分裂:合规端要求筑牢安全防线避免有害输出,而不少开发者与行业用户则提出,过度严格的护栏反而会限制模型在专业场景的正常能力发挥。

这次调研覆盖了从闭源到开源的19款当前市面主流大语言模型,涵盖消费级应用、专业研发、工业落地等多个使用场景,调研数据清晰呈现了行业的分歧。

在面向公众的消费级场景和金融、医疗等敏感领域,超过60%的受访企业合规团队将安全护栏列为AI落地的必备要求。在多起AI生成有害内容引发社会争议后,监管和企业都将统一的安全护栏视作降低合规风险的最直接手段。

而在科研、网络安全攻防、代码开发等专业领域,近40%受访开发者反馈,过度僵化的粗粒度安全护栏反而会成为工作阻碍:比如网络安全研究员研究恶意代码特征、开发者调试漏洞防御方案时,经常被护栏误判为恶意请求,直接拒绝输出,拖慢了正常研发进度。

当前大语言模型商业化落地已经进入深水区,AI安全的优先级不断提升,全球多个主要经济体都出台了生成式AI监管规则,明确要求AI产品必须配备内容安全防护机制,安全护栏因此成为行业标配。

不过,随着大模型在垂直专业领域的落地加速,一刀切的安全规则越来越不适应细分需求:开源大模型的微调开发者需要模型适配特定场景的专业输出,企业的内部研发场景也不需要面向公众的严格管控,统一护栏反而会折损模型的实用价值。不少开发者为了保证业务正常运行,会手动削弱甚至移除部分护栏规则,这又反而带来了新的安全隐患。

!
本文内容来源于公开互联网信息,并包含平台新增内容及用户发布内容,旨在进行知识整理与分享。文中所有信息与观点均仅供参考,不代表任何官方或特定立场,亦不构成任何操作或决策建议,请读者谨慎甄别,详情请见完整免责声明
相关资讯
AI小创