登录体验完整功能(收藏、点赞、评论等) —

让AI触手可及,让应用激发潜能

小米推出MIT许可MiMo模型 支持百万token长运行AI智能体

中国科技公司小米近日面向开发者社区开放了MiMo-V2.5系列大模型,该模型采用MIT宽松开源许可协议发布,主打长周期运行AI智能体开发场景,配备100万token的上下文窗口,采用稀疏混合专家(MoE)架构设计,主要服务开发自主编码、工作流智能体的开发者群体,填补了开源领域长运行智能体基座模型的细分空白,引发全球AI开发社区广泛讨论。

随着自主AI智能体从概念验证逐步落地到实际开发、办公场景,开发者对长上下文、可自由定制的开源基座模型需求正在快速攀升。目前主流开源大模型的上下文窗口多数集中在128k到512k区间,能稳定支持百万级别上下文、专为长周期运行智能体设计的开源模型并不多,不少开发团队只能基于通用大模型做二次适配,不仅成本高,最终效果也难以满足需求,细分赛道存在明显的供给缺口。

本次发布的MiMo-V2.5,核心设计直接瞄准长运行AI智能体的核心痛点。首先是100万token的超长上下文窗口,这一容量足以容纳一整个中型软件开发项目的全部代码,或是数十万词的连续工作流文档,开发者不需要对长文本做切分处理,就能让智能体全局理解任务上下文,减少信息丢失的概率。

其次,模型采用稀疏混合专家(MoE)架构设计,推理过程中仅激活部分参数参与计算,在保证长上下文处理能力的同时,控制了推理成本,更适合中小开发团队低成本部署测试。更关键的是,小米选择了最宽松的MIT许可协议开放模型,允许开发者自由将其用于商业与非商业项目,没有强制开源衍生作品的限制,大大降低了行业的开发门槛。

免责声明:本网站AI资讯内容仅供学习参考,不构成任何建议,不对信息准确性与完整性负责。
相关资讯
AI小创