前谷歌TPU核心团队创立的MatX获5亿美元B轮融资,自研芯片攻克LLM推理痛点

1 天前 AI快讯 4

前谷歌TPU资深工程师创立的AI芯片初创企业MatX近期完成5亿美元B轮融资,世芯电子等半导体巨头战略参与。其自研的MatX One芯片采用“可分割脉动阵列”结构,突破大语言模型(LLM)推理场景中“高吞吐”与“低延迟”难以兼顾的行业痛点,有望在竞争激烈的AI芯片市场崭露头角。

当大语言模型(LLM)从实验室走向生产场景,推理性能的瓶颈正在成为AI规模化落地的关键掣肘。近日,由前谷歌TPU资深工程师团队创立的AI芯片初创公司MatX宣布完成5亿美元B轮融资,世芯电子、美满电子等半导体巨头的战略参与,让这家聚焦LLM推理优化的企业成为赛道新焦点。

此次5亿美元的B轮融资折合人民币约34.45亿元,在当前AI芯片融资潮中仍属于量级靠前的手笔。半导体巨头的战略入局,不仅为MatX带来了充足的资金支持,更意味着其技术路线与产品潜力获得了行业头部玩家的认可。在大模型应用向生产端渗透的阶段,企业对高性价比、高性能推理芯片的需求持续攀升,资本的密集加注正是这一趋势的直接体现。

MatX的核心底气来自于其研发的MatX One芯片。传统AI芯片在处理大模型推理任务时,始终面临“高吞吐”与“低延迟”难以兼顾的矛盾:若追求高吞吐效率,往往会导致单请求延迟升高;若保证低延迟,又无法实现大规模批量处理。而MatX One采用的可分割脉动阵列结构,融合了SRAM的极低延迟特性与HBM的长上下文处理能力,能够根据任务需求灵活调整阵列结构,在不牺牲延迟的前提下,大幅提升模型推理的吞吐效率,直击LLM推理的核心痛点。

当前AI推理芯片赛道已呈现群雄逐鹿的格局。英伟达凭借CUDA生态牢牢占据市场主导地位,而SambaNova、Positron等初创企业也在推出各自的差异化产品。MatX虽然拥有谷歌TPU团队的技术基因,但要在竞争中突围,除了技术优势外,更需要加快产品的商业化落地速度——尽快实现芯片量产、与主流大模型厂商和云平台建立合作,通过实际场景验证性能,才能抢占市场份额。

所属分类
×

微信二维码

请选择您要添加的方式

AI小创