登录体验完整功能(收藏、点赞、评论等) —

Meta推出Muse Spark轻量模型 瞄准全场景AI应用部署

Meta超智能实验室近日发布团队重组后的首款AI模型Muse Spark,该模型主打轻量化、低延迟特性,参数规模仅为同级别通用生成式大模型的30%,推理速度提升超200%,可适配移动端、云侧等多端部署需求,为企业平衡AI落地的成本、性能与易用性提供了新的技术选项。

从官方披露的测试数据来看,Muse Spark在代码生成、内容创作、多轮对话等核心任务上的表现,已经达到了通用7B参数模型的92%水平,但运行所需的算力成本仅为后者的27%,延迟降低近70%,完全可以满足绝大多数消费级应用和企业内部系统的AI功能需求。

过去两年,生成式AI的技术迭代始终围绕“参数规模扩张”展开,从百亿级到万亿级参数的大模型层出不穷,但在实际落地过程中,高昂的算力成本、过高的响应延迟、端侧适配难度大等问题,已经成为阻碍AI功能普及的核心障碍。

不少企业开发者反馈,调用通用大模型API开发功能时,单次响应时间往往超过3秒,难以满足实时交互需求,而私有化部署大模型的前期投入动辄超过百万,中小团队根本无力承担。市场对“够用、好用、成本可控”的轻量化AI模型的需求正在快速攀升。

今年早些时候,Meta对旗下AI业务进行了大刀阔斧的重组,整合了原有的FAIR基础研究实验室和生成式AI产品开发团队,成立了**Meta超智能实验室**,由Meta首席AI科学家杨立昆牵头负责,核心目标就是加速AI技术的产品化落地。

!
本文内容来源于公开互联网信息,并包含平台新增内容及用户发布内容,旨在进行知识整理与分享。文中所有信息与观点均仅供参考,不代表任何官方或特定立场,亦不构成任何操作或决策建议,请读者谨慎甄别,详情请见完整免责声明
相关资讯
AI小创