登录体验完整功能(收藏、点赞、评论等) —

让AI触手可及,让应用激发潜能

腾讯混元开源超轻量翻译模型 移动端离线运行仅需440MB内存

2026年4月29日,腾讯混元团队正式开源极限量化压缩翻译模型Hy-MT1.5-1.8B-1.25bit。该模型基于专业翻译大模型Hy-MT1.5研发,支持33种主流语言互译,经1.25bit极致量化压缩后体积仅440MB,可在移动端完全离线运行,较原1.8B版本内存占用降低近87%,为离线翻译场景提供了全新轻量化解决方案。

对于经常跨境出行、需要在无网络环境下处理涉外内容的用户来说,离线翻译的体验长期差强人意:精度高的翻译工具体积动辄数GB挤占存储空间,轻量工具又经常出现语义偏差,联网翻译则面临信号差、隐私泄露的双重风险。此次腾讯混元推出的开源模型,恰好击中了这一行业长期存在的痛点。

此前行业内的端侧翻译方案主要分为两类:一类是基于小参数模型的轻量化工具,词汇量少、专业内容翻译偏差大,只能满足日常简单交流需求;另一类是基于大模型的翻译方案,原始1.8B参数的大语言模型如果用常规16-bit精度存储,内存占用可达3.3GB,大部分中低端移动设备根本无法流畅运行,更不用提实时翻译的延迟问题。
如何在不损失翻译精度的前提下压缩模型体积,成为端侧翻译落地的核心瓶颈。

免责声明:本网站AI资讯内容仅供学习参考,不构成任何建议,不对信息准确性与完整性负责。
相关资讯
AI小创