靠量子压缩术将大模型体积减半,Multiverse挑战OpenAI等AI巨头

1 天前 AI快讯 3

西班牙AI初创公司Multiverse Computing近日推出受量子计算启发的CompactifAI压缩技术,可将大语言模型体积缩减一半且性能几乎无损。依托该技术打造的HyperNova60B模型仅占32GB存储空间,能显著降低企业部署与运行成本,公司借此瞄准高潜力的企业级AI市场,试图与OpenAI等行业巨头展开正面竞争。

对于众多试图落地大语言模型的企业而言,高企的硬件成本、庞大的内存占用一直是难以逾越的门槛——一台能稳定运行60B参数级大模型的服务器,往往需要动辄上百GB的显存投入,这让不少追求数据本地化的中小企业望而却步。而西班牙AI初创公司Multiverse Computing,正试图用一项独特的技术打破这一僵局。

Multiverse的核心竞争力来自其自主研发的CompactifAI压缩技术,这项技术的灵感源于量子计算中的叠加态与纠缠原理,通过对模型参数进行更高效的编码与存储优化,实现了“体积减半、性能无损”的突破。
依托该技术,公司将基于OpenAI gpt-oss-120b原型开发的HyperNova60B模型压缩至仅32GB存储空间,相较于同参数级的传统大模型,内存占用直接缩减50%。更关键的是,压缩后的模型在基准测试中的表现几乎与原版持平,同时针对“工具调用”“智能体编码”这类推理成本较高的场景进行了专项优化,进一步降低了企业的运行成本。目前,最新版本的HyperNova60B2602已在Hugging Face平台开放免费获取。

在当前的AI市场中,OpenAI等巨头凭借成熟的大模型生态占据了主导地位,但它们的模型往往需要依赖高昂的云端算力支持,部署成本让众多中小企业难以承受。Multiverse正是瞄准了这一市场空白,试图用轻量化、低成本的大模型解决方案抢占企业级AI赛道。
对于注重数据安全、希望实现本地部署的企业而言,HyperNova60B的32GB轻量化特质极具吸引力——企业无需投入巨额成本升级硬件,就能在现有服务器上运行高参数大模型,这无疑为大语言模型的落地普及打开了新的大门。Multiverse方面表示,公司的目标是成为企业级AI市场的核心玩家,打破巨头的技术垄断。

随着大语言模型的应用场景不断拓展,轻量化已成为行业公认的发展方向。此前行业内已有量化、剪枝等压缩手段,但往往伴随一定的性能损耗。而Multiverse的CompactifAI技术凭借量子计算启发的创新思路,实现了体积减半却性能几乎无损的突破,为大模型轻量化提供了新的路径。
这一技术的出现,也为中小AI创业公司提供了差异化竞争的可能——无需比拼海量算力与训练数据,通过技术创新解决行业痛点,就能在巨头林立的AI市场中找到生存空间。未来,这类轻量化技术或许会成为企业级AI市场的核心竞争力之一。

目前,HyperNova60B的落地效果仍需更多企业案例验证,但Multiverse的CompactifAI技术无疑为大模型的轻量化发展注入了新的活力。在企业级AI需求持续攀升的背景下,这场由初创公司发起的挑战,或许会推动整个行业向着更高效、更普惠的方向发展。

所属分类
×

微信二维码

请选择您要添加的方式

AI小创