登录体验完整功能(收藏、点赞、评论等) — 立即登录

少找工具,多做创作

靠量子压缩术将大模型体积减半,Multiverse挑战OpenAI等AI巨头

西班牙AI初创公司Multiverse Computing近日推出受量子计算启发的CompactifAI压缩技术,可将大语言模型体积缩减一半且性能几乎无损。依托该技术打造的HyperNova60B模型仅占32GB存储空间,能显著降低企业部署与运行成本,公司借此瞄准高潜力的企业级AI市场,试图与OpenAI等行业巨头展开正面竞争。

对于众多试图落地大语言模型的企业而言,高企的硬件成本、庞大的内存占用一直是难以逾越的门槛——一台能稳定运行60B参数级大模型的服务器,往往需要动辄上百GB的显存投入,这让不少追求数据本地化的中小企业望而却步。而西班牙AI初创公司Multiverse Computing,正试图用一项独特的技术打破这一僵局。

Multiverse的核心竞争力来自其自主研发的CompactifAI压缩技术,这项技术的灵感源于量子计算中的叠加态与纠缠原理,通过对模型参数进行更高效的编码与存储优化,实现了“体积减半、性能无损”的突破。
依托该技术,公司将基于OpenAI gpt-oss-120b原型开发的HyperNova60B模型压缩至仅32GB存储空间,相较于同参数级的传统大模型,内存占用直接缩减50%。更关键的是,压缩后的模型在基准测试中的表现几乎与原版持平,同时针对“工具调用”“智能体编码”这类推理成本较高的场景进行了专项优化,进一步降低了企业的运行成本。目前,最新版本的HyperNova60B2602已在Hugging Face平台开放免费获取。

在当前的AI市场中,OpenAI等巨头凭借成熟的大模型生态占据了主导地位,但它们的模型往往需要依赖高昂的云端算力支持,部署成本让众多中小企业难以承受。Multiverse正是瞄准了这一市场空白,试图用轻量化、低成本的大模型解决方案抢占企业级AI赛道。
对于注重数据安全、希望实现本地部署的企业而言,HyperNova60B的32GB轻量化特质极具吸引力——企业无需投入巨额成本升级硬件,就能在现有服务器上运行高参数大模型,这无疑为大语言模型的落地普及打开了新的大门。Multiverse方面表示,公司的目标是成为企业级AI市场的核心玩家,打破巨头的技术垄断。

!
本文内容来源于公开互联网信息,并包含平台新增内容及用户发布内容,旨在进行知识整理与分享。文中所有信息与观点均仅供参考,不代表任何官方或特定立场,亦不构成任何操作或决策建议,请读者谨慎甄别,详情请见完整免责声明
相关资讯
AI小创