登录体验完整功能(收藏、点赞、评论等) —

让AI触手可及,让应用激发潜能

大模型成本规模双遇瓶颈 小语言模型成企业AI部署新选择

随着千亿参数级通用大语言模型(LLM)在企业落地过程中逐步触达规模与成本的双重瓶颈,面向垂直场景定制优化的小语言模型(SLM)正成为市场新热点。据行业测算,同等推理任务下SLM的运行成本仅为通用大模型的1/10到1/5,推理速度提升3至8倍,同时可实现本地化部署规避数据泄露风险,正在推动企业AI架构的全面重构。

过去三年,全球企业在生成式AI领域的投入增速连续保持在40%以上,但超过6成的落地项目都卡在了规模化商用环节。核心痛点集中在三个层面:一是成本过高,千亿参数级大模型单月推理成本往往超过百万级别,对大多数业务场景单一的企业来说投入产出比极低;二是数据合规风险,调用公网通用大模型需要将企业内部的业务数据、客户信息等上传至第三方服务器,金融、制造、政务等敏感领域的合规要求完全无法满足;三是响应效率不足,通用大模型参数冗余,针对简单的场景化任务往往会出现不必要的推理过程,延迟远高于企业业务系统的要求。
此前行业调研显示,62%的中大型企业因数据隐私问题暂停了公网大模型的深度业务集成,仅将其用于非核心的文案生成、公开信息查询等低风险场景,核心业务的AI改造迟迟无法推进。

和千亿参数级的通用大模型不同,当前主流的商用SLM参数规模大多集中在10亿到100亿之间,不需要覆盖全领域的通识知识,仅需针对企业特定的业务数据集做小批量微调,就能达到甚至超过通用大模型在对应场景下的表现。
某头部制造企业的落地案例显示,其针对设备运维场景微调的70亿参数SLM,故障预判准确率比调用的通用大模型高出12个百分点,单次推理速度提升6倍,单月运行成本仅为过去的1/8,且完全部署在企业内部私有云,没有任何数据外流的风险。
针对企业普遍担心的“幻觉”问题,由于SLM的训练数据全部来自经过校验的企业内部业务资料,输出结果的准确率普遍能达到95%以上,远高于通用大模型在垂直场景不到80%的准确率水平。

免责声明:本网站AI资讯内容仅供学习参考,不构成任何建议,不对信息准确性与完整性负责。
相关资讯
AI小创