西班牙Multiverse用CompactifAI压缩大模型体积减半,剑指AI独角兽

1 天前 AI快讯 2

西班牙AI初创公司Multiverse Computing近期推出基于CompactifAI压缩技术的HyperNova60B 2602版本,将原模型体积减半至32GB,性能超越Mistral Large3且保持高准确度,已在Hugging Face免费开放。该公司正洽谈5亿欧元融资,有望2026年成为西班牙首家AI独角兽,凭借技术优势挑战OpenAI等巨头。

对于大语言模型的开发者而言,“体积与性能的平衡”是长期以来的核心难题——参数规模决定性能上限,但更大的参数往往意味着翻倍的内存占用和部署成本。西班牙AI初创公司Multiverse Computing近日交出了一份新答卷:凭借自主研发的CompactifAI压缩技术,他们将基于OpenAI原型的HyperNova60B模型体积直接减半。

Multiverse Computing的CompactifAI技术并非简单的参数裁剪,而是一种受量子计算启发的智能压缩算法。通过该技术处理后的HyperNova60B 2602版本,体积从原有的64GB压缩至32GB,仅需单台消费级高端GPU即可流畅运行。更关键的是,压缩并未牺牲模型性能:测试数据显示,HyperNova60B 2602的综合表现超越Mistral Large3,同时内存占用降低50%,推理延迟显著减少,核心任务的准确度与原模型保持一致。目前,该版本已在Hugging Face平台免费开放,为全球开发者和中小企业提供了低成本的大模型应用方案。

凭借CompactifAI技术和HyperNova60B模型的独特优势,Multiverse Computing正推进一轮规模达5亿欧元的融资谈判。若融资顺利完成,该公司计划在2026年成为西班牙首家AI独角兽企业。在当前大模型市场由OpenAI等巨头主导的格局下,Multiverse Computing选择以压缩技术为突破口,瞄准大模型落地的“最后一公里”痛点,这种差异化策略为其赢得了资本和行业的关注,也让其具备了挑战行业巨头的底气。

随着大语言模型从实验室走向产业端,部署成本高、硬件要求苛刻的问题日益凸显。Multiverse Computing的尝试,为大模型的轻量化落地提供了可复制的技术路径。CompactifAI技术不仅让高参数大模型能在更轻量化的硬件上运行,还能优化实时推理场景的延迟表现,更适配金融、医疗等对响应速度要求较高的行业需求。此外,免费开放的HyperNova60B 2602模型,也降低了大模型技术的门槛,将推动更多中小开发者参与到大模型的创新应用中。

所属分类
×

微信二维码

请选择您要添加的方式

AI小创