由谷歌前TPU核心研发团队创立的AI芯片公司MatX,近日完成5亿美元(约34亿人民币)B轮融资,OpenAI前技术高管安德烈·卡帕西参与投资。该公司跳出当前AI芯片的单一技术路线,融合高带宽内存HBM与片上SRAM优势打造新型芯片,预计2027年实现批量出货,旨在打破英伟达主导的AI芯片市场格局。
当安德烈·卡帕西用“当今最有趣、回报也最高的智力难题”来形容一家创业公司时,行业很难不给予关注。这位曾在谷歌参与TPU研发、后加入OpenAI的技术大佬,不仅为MatX的B轮融资站台,更是亲自下场成为投资人——而MatX的核心团队,恰恰是一群和卡帕西有着相似履历的谷歌前TPU员工。
MatX的核心竞争力,首先来自其团队的技术底色。核心成员均曾主导谷歌TPU芯片的研发迭代,而TPU作为谷歌训练PaLM、Gemini等旗舰大模型的核心硬件,其技术积累早已得到全球AI行业的验证。此次5亿美元的B轮融资,除了卡帕西的个人背书,更折射出资本对AI芯片新路线的期待。卡帕西在公开声明中特意提及英伟达4.6万亿美元的市值,直白地暗示MatX瞄准的正是AI芯片市场的顶级蛋糕。
当前全球AI芯片市场已形成两大清晰阵营:一边是以英伟达H100、谷歌TPU v5为代表的高带宽内存(HBM)路线,这类芯片通过堆叠HBM解决大模型训练时的海量数据吞吐需求,是当前大模型预训练阶段的绝对主流;另一边是以Cerebras为代表的片上SRAM路线,依靠超大容量的片上静态随机存储器减少数据搬运延迟,主打推理场景的实时响应,今年初AMD还刚对Cerebras完成战略投资。
MatX的思路则完全跳出了这种“二选一”的框架。团队认为,随着大模型应用场景的多元化,很多落地场景需要芯片同时兼顾训练的高效性和推理的实时性——比如动态生成内容的交互式AI应用、需要边推理边微调的个性化模型服务。因此,MatX的新型芯片将同时融合HBM的高带宽优势与SRAM的低延迟特性,打造一款能适配多场景需求的通用型AI芯片。
MatX已明确表态,首款新型AI芯片预计2027年实现批量出货。这一时间点恰好踩在大模型技术迭代的关键期:届时大模型可能会进入更普及的落地阶段,对硬件的需求也将从单一训练转向“训推一体”的综合性能。
但挑战同样明显:英伟达在AI芯片市场的垄断地位已形成多年,从硬件到CUDA软件生态的壁垒极高;而融合两种技术路线也意味着要解决诸多工程难题,比如不同内存架构的兼容、功耗控制等。不过,资本的持续加码和明星团队的技术积累,让MatX具备了冲击现有格局的潜力——至少,行业已经看到了一种跳出既有框架的新可能。