由前谷歌TPU核心团队创立的AI芯片公司MatX近期完成5亿美元B轮融资,由量化巨头Jane Street与前OpenAI研究员Leopold Aschenbrenner创立的Situational Awareness领投。公司CEO Reiner Pope曾主导谷歌TPU软件开发及PaLM模型效率优化,CTO Mike Gunter为TPU硬件首席设计师,团队誓言打造专为大语言模型优化的芯片,实现AI性能10倍跃升。
当不少科技人才从创业公司涌入巨头,前谷歌TPU的核心团队却选择了一条相反的路——“反向创业”。MatX的两位核心创始人,CEO Reiner Pope与CTO Mike Gunter,都曾是谷歌AI算力体系的关键构建者:Reiner Pope主导了谷歌TPU的AI软件开发,还在PaLM大模型的效率优化中扮演核心角色,深刻理解大模型训练对算力的底层需求;Mike Gunter则是谷歌TPU硬件的首席设计师,拥有近30年芯片架构设计经验,见证了TPU从1代到多代的迭代演进。
在谷歌期间,他们意识到通用GPU在大语言模型训练场景下的局限性:为兼顾游戏、图形计算等多元化需求,通用GPU的算力无法100%聚焦于LLM的核心计算任务,这成为大模型训练效率提升的瓶颈。于是,二人选择离开谷歌,创立MatX,专注于打造专为大语言模型(LLM)优化的专用AI芯片,希望从硬件底层突破算力效率的天花板。
MatX此次完成的5亿美元B轮融资,在全球AI芯片领域堪称重量级。领投方的组合也释放出强烈的信号:量化交易巨头Jane Street本身就是算力的重度需求者,其投资不仅是资本注入,更意味着对MatX技术在高算力场景下可行性的认可;而由前OpenAI研究员Leopold Aschenbrenner创立的Situational Awareness,更能精准把握大模型产业的实际痛点,为MatX提供贴近市场的战略支持。
对于AI芯片公司而言,B轮融资就能达到5亿美元规模,说明MatX已经在技术研发或原型验证阶段取得了关键突破,让资本愿意为其“10倍性能提升”的目标买单。这也反映出当前资本对AI芯片垂直赛道的看好:在通用GPU市场被英伟达占据主导的情况下,针对特定场景优化的专用芯片正在成为新的投资风口。
MatX的核心竞争策略,与英伟达的“全能型”GPU路线形成鲜明对比。英伟达的GPU产品覆盖游戏、图形渲染、科学计算、AI训练与推理等多个场景,通用性强但也意味着算力分散。而MatX选择走极致专一化路线:从芯片架构、指令集设计到内存带宽分配,所有环节都围绕大语言模型的训练和推理需求量身打造,砍掉了所有与LLM无关的算力模块,将每一分算力都集中在核心任务上。
团队誓言实现的“AI性能10倍提升”,并非泛泛的算力数值增长,而是指在大语言模型训练场景下的效率跃升——比如相同训练任务的完成时间缩短至原来的1/10,或者相同算力投入下能训练更大规模、更高性能的大模型。这一目标如果达成,将大幅降低大模型厂商的训练成本,加速AI技术的落地与普及。
MatX的崛起,标志着AI芯片赛道正在从“通用化”向“垂直化”演进。此前,英伟达凭借通用GPU的优势几乎垄断了AI训练市场,但随着大模型、计算机视觉、语音识别等不同AI场景对算力的需求差异越来越大,专用芯片的价值开始凸显。
未来,AI芯片市场可能会出现更多像MatX这样的垂直玩家:有的专注于大语言模型训练,有的聚焦于边缘AI推理,有的针对计算机视觉优化。这种垂直化竞争不仅会打破单一巨头的垄断,还会推动整个AI算力体系的效率提升,为不同场景的AI应用提供更精准、更经济的算力支持。