登录体验完整功能(收藏、点赞、评论等)

GLM-5全球需求暴增超预期 智谱启动算力合伙人计划

GLM-5全球需求暴增超预期 智谱启动算力合伙人计划

近期全球AI大模型市场热度持续攀升,智谱旗下旗舰大模型GLM-5因全球范围内需求激增,并发访问量突破预设规划上限,引发服务排队、响应延迟及卡顿等问题。为快速破解算力瓶颈、保障用户体验,智谱于2月16日正式对外发布“算力合伙人”招募计划,面向芯片厂商、算力服务商等产业链核心伙伴开放合作通道,试图通过协同布局夯实GLM-5的服务能力。

作为智谱继GLM-4之后推出的下一代旗舰大模型,GLM-5自曝光以来便凭借其在多模态理解、超长上下文处理、复杂逻辑推理等领域的技术突破,吸引了全球企业客户、开发者及AI爱好者的广泛关注。此次需求暴增的背后,既有全球企业加速AI转型、将大模型嵌入业务流程的行业趋势推动,也有GLM-5在预发布阶段展现出的性能优势带来的市场吸引力。据智谱内部人士透露,近期企业用户的API调用量较上月增长超300%,个人用户的对话请求峰值也突破百万量级,远超此前的规划预期,直接导致现有算力集群难以承载,部分场景下用户等待响应时间超过5分钟,严重影响了研发、内容创作、智能客服等多个场景的使用体验。

为快速扭转这一局面,智谱推出的“算力合伙人”计划针对性地瞄准了产业链的两个核心环节。一方面,面向芯片厂商,智谱将开放GLM-5的核心技术接口,邀请合作伙伴共同开展底层优化工作。这意味着芯片厂商可以深度适配GLM-5的推理框架,针对模型的计算逻辑、数据流转路径等进行定制化芯片设计优化,最终打造出软硬一体化的性能标杆。业内人士指出,这种深度合作不仅能提升GLM-5的推理速度、降低单位算力成本,也能为芯片厂商提供旗舰级大模型的真实运行数据,反向推动芯片技术迭代。

另一方面,针对算力伙伴与推理服务商,智谱的合作重点则聚焦于算力资源整合与分发能力提升。拥有大规模、高稳定性算力池的合作伙伴,可将闲置或储备算力接入GLM-5的服务网络,共同承担峰值访问压力;而具备卓越推理分发能力的服务商,则能通过智能调度算法,将用户请求分配至最优算力节点,实现全球范围内的低延迟响应。这种模式打破了传统大模型厂商自建算力集群的单一模式,通过共享算力资源降低了双方的成本投入,同时能更灵活地应对需求波动。

!
本文内容来源于公开互联网信息,并包含平台新增内容及用户发布内容,旨在进行知识整理与分享。文中所有信息与观点均仅供参考,不代表任何官方或特定立场,亦不构成任何操作或决策建议,请读者谨慎甄别,详情请见完整免责声明
相关资讯
AI小创