专注大语言模型(LLM)工作负载的AI芯片初创企业MatX,由两位前谷歌TPU工程师创立,于当地时间2月24日完成5亿美元B轮融资,投资方包括世芯AIchip、美满Marvell等企业及多家投资机构。其正在研发的MatX One芯片据称可实现业界领先的LLM吞吐量,延迟表现媲美SRAM优先芯片,为AI算力部署提供新的优化路径。
当大语言模型向万亿参数级迭代,企业部署AI算力时的核心矛盾愈发凸显:如何在保障实时交互低延迟的同时,支撑起海量并发请求的高吞吐?这一长期困扰云服务商、AI应用厂商的难题,正被MatX以技术创新的方式尝试破解。
当地时间2月24日,MatX对外披露完成5亿美元规模的B轮融资,按当前汇率折算约合34.45亿元人民币。此次融资吸引了世芯AIchip、美满Marvell等产业链玩家,以及多家专业投资机构联合参与,资金量级在全球LLM芯片初创企业的B轮融资中位居前列。
作为由两位前谷歌TPU工程师创立的技术型公司,MatX从成立之初就锚定LLM专属算力芯片的研发方向,其团队在AI加速芯片架构设计上的深厚积累,是资本愿意重金押注的核心原因之一。在当前AI芯片市场由巨头主导的格局下,垂直聚焦LLM工作负载的差异化定位,让MatX具备了独特的竞争优势。
MatX此次融资的核心目标,是推进其首款产品MatX One芯片的研发与量产。这款芯片采用了创新性的可分割脉动阵列结构——这一设计打破了传统脉动阵列“要么大要么小”的局限,既能保留大型阵列在能效、面积效率上的优势,又能拥有小型阵列的灵活性与高硬件利用率。
据官方披露的信息,MatX One可实现业界领先的LLM吞吐量,同时延迟表现可与SRAM优先芯片相当。对于AI服务提供商而言,这意味着在相同硬件投入下,能支持数倍于传统芯片的并发请求,同时保证用户交互时的低延迟体验,直接降低单位算力的运营成本。
当前,英伟达等巨头在通用AI芯片市场占据绝对份额,但随着生成式AI向垂直场景渗透,针对特定工作负载优化的专用芯片正在成为新的增长极。MatX的崛起,正是这一趋势的缩影:与其在通用赛道与巨头正面竞争,不如聚焦LLM这一增长最快的AI应用场景,通过架构创新实现性能突围。
从资本的动作来看,5亿美元的B轮融资不仅能为MatX提供充足的研发资金,也能帮助其对接产业链资源,加速产品的落地与商业化。对于整个AI芯片行业而言,这样的初创企业正在成为打破现有格局、推动技术迭代的重要力量。