京东开源48亿参数JoyAI-LLM-Flash,轻量化大模型赛道再迎新玩家

2 小时前 AI快讯 0

京东开源48亿参数JoyAI-LLM-Flash,轻量化大模型赛道再迎新玩家

2月14日,京东在全球知名AI开源平台Hugging Face正式推出其最新研发的大模型JoyAI-LLM-Flash。这款总参数达48亿、激活参数仅3亿的轻量化模型,历经20万亿文本Token预训练,凭借独创的FiberPO优化框架等技术突破,为大模型在中小场景的落地提供了新的可行路径,也为全球开源AI生态注入了来自电商场景的实践经验。

不同于多数企业对大模型采取闭门研发或定向授权的策略,京东此次直接将JoyAI-LLM-Flash推向开源社区,这一动作在AI商业化与技术普惠的平衡中显得颇为亮眼。从参数配置来看,48亿总参数的规模虽不及百亿、千亿级的超大型模型,但3亿激活参数的设计,是其核心竞争力之一——这意味着模型在保持通用能力的同时,大幅降低了部署和运行的资源门槛,无需依赖顶级算力集群,甚至能在边缘设备或中小服务器上流畅运行,为中小企业和垂直场景的AI应用落地铺平了道路。

20万亿文本Token的预训练量,为JoyAI-LLM-Flash筑牢了扎实的性能基础。覆盖互联网文本、专业文档、电商语料等多领域的大规模输入,让模型具备了更广泛的知识储备和语言理解能力:既能应对日常对话、信息查询等通用场景,也能快速适配电商客服、商品推荐、供应链预测等垂直领域的定制化需求,这一点与京东自身的业务场景形成了天然的协同性。

真正让这款模型脱颖而出的,是其底层技术架构的创新突破。京东自研的FiberPO优化框架首次将数学领域的纤维丛理论引入强化学习环节,通过构建高维空间的映射关系,有效解决了传统大模型在规模扩展时易出现的训练不稳定、精度波动等行业共性问题。搭配专属的Muon优化器和稠密多Token预测(MTP)技术,模型的推理效率得到质的提升——官方测试数据显示,与非MTP版本相比,JoyAI-LLM-Flash的吞吐量提升超过100%,这意味着在相同算力投入下,它能处理更多并发请求,响应速度更快,进一步压缩了AI应用的落地成本。

当前,大模型市场正呈现“两极分化”的发展态势:一边是GPT-4o、文心一言4.0等超大型模型在复杂任务上不断突破性能天花板,另一边则是轻量化模型凭借低成本、易部署的优势,成为中小企业和边缘场景的首选。京东作为国内电商行业的龙头,此次开源JoyAI-LLM-Flash,不仅是其AI技术积累的一次公开亮相,更将自身在电商场景中沉淀的AI实践经验开放给全球开发者。未来,开发者可基于该模型进行二次开发,快速打造适配自身业务的AI应用,无需从零开始训练模型,大幅降低了AI技术的使用门槛。

选择在Hugging Face平台开源,也体现了京东对接全球AI生态的意图。作为全球最大的AI模型开源社区之一,Hugging Face聚集了数百万开发者,模型上传后可快速获得全球用户的测试、反馈和优化建议,这无疑将加速JoyAI-LLM-Flash的迭代完善。

从技术突破到开源生态,JoyAI-LLM-Flash的推出,不仅丰富了轻量化大模型的阵营,也让外界看到了电商巨头在AI领域的布局深度。随着更多具备行业场景经验的企业加入开源行列,大模型的技术红利将更快向各行业渗透,推动AI应用从“实验室的展品”走向更接地气的生产生活场景。

所属分类
×

微信二维码

请选择您要添加的方式

AI小创