登录体验完整功能(收藏、点赞、评论等)

少找工具,多做创作

Multiverse推出跨厂适配压缩大模型方案 正式切入主流商用市场

量子计算厂商Multiverse Computing近日面向主流市场推出AI大模型压缩商用方案,已完成对OpenAI、Meta、DeepSeek、Mistral AI等头部厂商主流大模型的轻量化改造,同步上线的演示应用与开放API可让各类开发者低成本调用高压缩比、低算力需求的大模型能力,大幅降低大模型落地门槛。

此次Multiverse推出的压缩方案可将原有大模型的体积压缩至原有的1/10至1/20,推理过程中的算力需求下降80%以上,而输出质量的损失控制在5%以内,这一参数表现已经达到当前大模型压缩领域的第一梯队水平。

过去两年大模型技术迭代速度不断加快,但商用落地的成本门槛始终居高不下。对于中小开发者而言,调用头部厂商的大模型API每年的成本可达数万至数十万元,而如果选择本地化部署70B参数级别的大模型,仅前期硬件投入就需要超过30万元,且后续的运维、算力成本也持续高企,大部分下沉场景的需求难以被满足。

此前市面上的大模型压缩方案大多存在两大短板:要么压缩比提升的同时性能损失过大,无法满足实际商用需求;要么仅适配单一厂商的模型底座,开发者需要针对不同模型重复做适配工作,反而增加了开发成本。

Multiverse原本是一家聚焦量子算法研发的科技公司,此前已经在金融、工业等领域的复杂优化问题上积累了大量算法经验,此次推出的大模型压缩方案正是其量子启发算法在AI领域的落地应用。

!
本文内容来源于公开互联网信息,并包含平台新增内容及用户发布内容,旨在进行知识整理与分享。文中所有信息与观点均仅供参考,不代表任何官方或特定立场,亦不构成任何操作或决策建议,请读者谨慎甄别,详情请见完整免责声明
相关资讯
AI小创