登录体验完整功能(收藏、点赞、评论等) — 已累计有 8671 人加入

让AI触手可及,让应用激发潜能

iPhone 17 Pro突破硬件限制 成功本地运行4000亿参数大模型

2026年3月,苹果iPhone 17 Pro成功实现4000亿参数大语言模型本地运行,该机型仅配备12GB LPDDR5X内存,远低于此类模型常规运行所需的200GB内存门槛。本次突破依托Flash-MoE闪存流转技术与混合专家模型架构实现,目前模型生成速度为0.6 token,为端侧超大模型落地提供了全新技术参考路径。

3月23日海外数码开发者社区流出的测试截图显示,一款未开源的4000亿参数稠密大语言模型,在无云端算力支持的前提下,完全依托iPhone 17 Pro本地硬件完成了多轮对话生成,这一结果很快在AI算力圈引发热议。要知道在本次测试之前,消费级电子设备本地可运行的大模型参数上限普遍停留在百亿级,千亿参数模型始终是云端算力专属的技术品类。

按照行业通用的模型运行标准,即便经过4bit量化压缩,4000亿参数级别的大语言模型,运行时也需要至少200GB的内存空间支撑,而iPhone 17 Pro作为消费级旗舰手机,仅配备了12GB LPDDR5X运行内存,硬件配置和模型需求的差距超过16倍。

目前测试版本的模型生成速度仅为0.6 token/s,远低于日常流畅使用所需的10-15 token/s门槛,暂时不具备落地到消费级场景的可能,但本次验证的核心价值,在于首次打破了“千亿参数模型无法脱离云端运行”的行业共识。

本次技术突破主要依托两项底层技术的组合实现,几乎挖尽了消费级硬件的性能潜力:

免责声明:本网站AI资讯内容仅供学习参考,不构成任何建议,不对信息准确性与完整性负责。
相关资讯
AI小创