登录体验完整功能(收藏、点赞、评论等) — 立即登录

少找工具,多做创作

京东开源48亿参数JoyAI-LLM-Flash,突破大模型规模化瓶颈

京东开源48亿参数JoyAI-LLM-Flash,突破大模型规模化瓶颈

2月14日,京东在全球知名AI开发者社区Hugging Face正式开源最新大语言模型JoyAI-LLM-Flash。这款模型以48亿总参数搭配3亿激活参数的轻量化设计,历经20万亿文本Token预训练,在知识理解、逻辑推理及编程能力上表现突出,更凭借自研FiberPO优化框架突破混合专家模型(MoE)规模扩展不稳定的行业痛点,实现吞吐量1.3-1.7倍的显著提升。

2月14日的开源动作,是京东在大模型高效能落地赛道上的一次重磅输出。不同于行业中单纯追求参数规模或极致轻量化的路径,JoyAI-LLM-Flash选择了“大总参储备+小激活参运行”的平衡策略:48亿总参数让模型得以通过20万亿文本Token的预训练沉淀海量前沿知识,覆盖科技、金融、编程等多个领域;而仅3亿的激活参数,又极大降低了推理阶段的算力消耗,为中小开发者和企业级场景的快速部署扫清了成本障碍。

在核心技术层面,JoyAI-LLM-Flash最引人关注的是全新FiberPO优化框架的应用——这是业内首次将数学领域的纤维丛理论引入大模型强化学习训练。传统MoE模型在规模扩展时,常因不同专家模块的协作失衡出现训练震荡、性能波动的问题,而纤维丛理论为模型的专家分配机制搭建了一套严谨的数学约束体系,让每个输入Token都能更精准地匹配对应专家模块,从底层逻辑上解决了规模化不稳定的顽疾。

!
本文内容来源于公开互联网信息,并包含平台新增内容及用户发布内容,旨在进行知识整理与分享。文中所有信息与观点均仅供参考,不代表任何官方或特定立场,亦不构成任何操作或决策建议,请读者谨慎甄别,详情请见完整免责声明
相关资讯
AI小创