京东开源48亿参数JoyAI-LLM-Flash,突破大模型规模化瓶颈 2月14日,京东在全球知名AI开发者社区Hugging Face正式开源最新大语言模型JoyAI-LLM-Flash。这款模型以48亿总参数搭配3亿激活参数的轻量化设计,历经20万亿文本Token预训练,在知识理解、逻辑推理及编程能力上表现突出,更凭借自研FiberPO优化框架突破混合专家模型(MoE)规模扩展不稳定的行业痛点,实现吞吐量1.3-1.7倍的显著提升。 2月14日的开源动作,是京东在大模型高效能落地赛道上的一次重磅输出。不同于行业中单纯追求参数规模或极致轻量化的路径,JoyAI-LLM-Flash选择了“大总参储备+小激活参运行”的平衡策略:48亿总参数让模型得以通过20万亿文本Token的预训练沉淀海量前沿知识,覆盖科技、金融、编程等多个领域;而仅3亿的激活参数,又极大降低了推理阶段的算力消耗,为中小开发者和企业级场景的快速部署扫清了成本障碍。 在核心技术层面,JoyAI-LLM-Flash最引人关注的是全新FiberPO优化框架的应用——这是业内首次将数学领域的纤维丛理论引入大模型强化学习训练。传...