登录体验完整功能(收藏、点赞、评论等)

京东开源48亿参数JoyAI-LLM-Flash,轻量化大模型赛道再迎新玩家

京东开源48亿参数JoyAI-LLM-Flash,轻量化大模型赛道再迎新玩家

2月14日,京东在全球知名AI开源平台Hugging Face正式推出其最新研发的大模型JoyAI-LLM-Flash。这款总参数达48亿、激活参数仅3亿的轻量化模型,历经20万亿文本Token预训练,凭借独创的FiberPO优化框架等技术突破,为大模型在中小场景的落地提供了新的可行路径,也为全球开源AI生态注入了来自电商场景的实践经验。

不同于多数企业对大模型采取闭门研发或定向授权的策略,京东此次直接将JoyAI-LLM-Flash推向开源社区,这一动作在AI商业化与技术普惠的平衡中显得颇为亮眼。从参数配置来看,48亿总参数的规模虽不及百亿、千亿级的超大型模型,但3亿激活参数的设计,是其核心竞争力之一——这意味着模型在保持通用能力的同时,大幅降低了部署和运行的资源门槛,无需依赖顶级算力集群,甚至能在边缘设备或中小服务器上流畅运行,为中小企业和垂直场景的AI应用落地铺平了道路。

20万亿文本Token的预训练量,为JoyAI-LLM-Flash筑牢了扎实的性能基础。覆盖互联网文本、专业文档、电商语料等多领域的大规模输入,让模型具备了更广泛的知识储备和语言理解能力:既能应对日常对话、信息查询等通用场景,也能快速适配电商客服、商品推荐、供应链预测等垂直领域的定制化需求,这一点与京东自身的业务场景形成了天然的协同性。

真正让这款模型脱颖而出的,是其底层技术架构的创新突破。京东自研的FiberPO优化框架首次将数学领域的纤维丛理论引入强化学习环节,通过构建高维空间的映射关系,有效解决了传统大模型在规模扩展时易出现的训练不稳定、精度波动等行业共性问题。搭配专属的Muon优化器和稠密多Token预测(MTP)技术,模型的推理效率得到质的提升——官方测试数据显示,与非MTP版本相比,JoyAI-LLM-Flash的吞吐量提升超过100%,这意味着在相同算力投入下,它能处理更多并发请求,响应速度更快,进一步压缩了AI应用的落地成本。

!
本文内容来源于公开互联网信息,并包含平台新增内容及用户发布内容,旨在进行知识整理与分享。文中所有信息与观点均仅供参考,不代表任何官方或特定立场,亦不构成任何操作或决策建议,请读者谨慎甄别,详情请见完整免责声明
相关资讯
AI小创