登录体验完整功能(收藏、点赞、评论等)

西班牙Multiverse将大模型体积减半,剑指AI独角兽宝座

西班牙AI初创公司Multiverse Computing近期凭借自主研发的CompactifAI压缩技术,将基于OpenAI原型的HyperNova60B大模型体积压缩至原来的50%,最新2602版本仅32GB,在Hugging Face免费开放,内存占用与延迟显著降低的同时保持高准确度,性能超越Mistral Large3。目前该公司正洽谈5亿欧元融资,有望成为西班牙首家AI独角兽,向OpenAI等行业巨头发起挑战。

当行业主流还在陷入大模型参数规模的竞赛时,西班牙Multiverse Computing却选择了一条逆向突围的路径——用技术压缩让大模型“减负”。其最新推出的HyperNova60B 2602版本,将原本需要64GB存储空间的模型体量直接砍半,仅32GB的占用量,让普通开发者也能在常规硬件上部署运行大模型。

Multiverse Computing的核心武器是自主研发的CompactifAI压缩技术,这一技术的灵感源自量子计算领域的优化思路。不同于传统的模型剪枝或量化方法,CompactifAI能在完整保留模型核心推理能力的前提下,对模型的参数结构进行深度重组与高效压缩,最终实现体积减半的突破。更关键的是,压缩后的HyperNova60B并未牺牲精度,在多项自然语言处理任务中,其表现甚至超越了Mistral Large3,同时还降低了内存占用与推理延迟,真正做到了效率与性能的平衡。

为了让更多开发者受益于轻量化大模型,Multiverse Computing选择将HyperNova60B 2602版本在Hugging Face平台免费开放。这一举措直接打破了大模型部署的硬件门槛:此前,类似规模的大模型通常需要高端GPU集群才能运行,而32GB的体量让单卡GPU甚至部分消费级硬件都能承载,极大降低了AI技术落地的成本,尤其适合中小企业与开发者在垂直场景中快速测试与部署。

!
本文内容来源于公开互联网信息,并包含平台新增内容及用户发布内容,旨在进行知识整理与分享。文中所有信息与观点均仅供参考,不代表任何官方或特定立场,亦不构成任何操作或决策建议,请读者谨慎甄别,详情请见完整免责声明
相关资讯
AI小创