24人硅谷初创推出AI芯片 速度超Cerebras10倍成本仅1/20
近日,一款来自硅谷初创公司Taalas的AI芯片HC1引爆科技圈。这支仅24人的团队多由AMD前高管组成,成立两年便交出首款产品:峰值推理速度达每秒17000个token,是当前高性能标杆Cerebras的10倍,同时成本降至1/20、功耗削减10倍,凭借把大模型直接刻在硅片上的极端方案,实现了LLM的亚毫秒级即时响应。
这款一夜之间登上硅谷热榜的芯片,其性能参数足以让行业巨头侧目。要知道,当前AI推理领域公认的高性能芯片Cerebras,峰值速度仅为每秒2000个token,HC1在速度上实现了10倍的碾压;而在成本和功耗的控制上,它更是打出了“成本减20倍、功耗降10倍”的组合拳——这意味着,大语言模型(LLM)的推理门槛被彻底拉低,同时用户能体验到真正的“零等待”交互。
更具反差感的是,打造出这款“性能怪兽”的并非英伟达、AMD这样的芯片巨头,而是一支仅有24人的小团队。这支被称为“梦之队”的核心成员大多来自AMD的资深管理层,在芯片设计、AI算力优化领域拥有深厚积累,成立仅两年就拿出了首款颠覆性产品,刷新了行业对初创公司研发效率的认知。
HC1的颠覆性,根源在于它跳出了AI芯片的传统技术框架。目前行业主流方案是将大模型加载到内存中运行,但这一模式始终受限于内存带宽瓶颈:模型数据需要在内存与计算单元之间频繁传输,不仅产生高额延迟,还消耗大量功耗。而Taalas选择了最极端的路径——直接将大模型的权重刻在硅片上,让计算单元可以直接访问模型参数,从根源上消除了数据传输的延迟和额外能耗。
登录后解锁全文,体验收藏、点赞、评论等完整功能
立即登录
1 天前
全球出行巨头Uber近期宣布扩大与亚马逊云科技(AWS)的合作协议,将把派单算法、运力预测等更多核心网约车业务模块迁移至亚马逊自研AI芯片集群运行。此次合作被行业视作Uber对原有云服务商Oracle、谷歌云的直接替代,也是亚马逊自研芯片在ToB云服务市场拿下的又一标杆客户案例,进一步撼动了英伟达在AI加速硬件市场的主导地位。

2 天前
4月7日,AI大模型厂商Anthropic官方披露其年化收入(ARR)已突破300亿美元,首次反超竞争对手OpenAI同期250亿美元的年化收入水平。该公司2025年末年化收入仅为90亿美元,3个多月内收入规模大涨约210亿美元,同时同步官宣最新AI芯片采购大单,引发全球AI产业对大模型商业化格局的广泛讨论。

2 天前
2026年4月,欧洲头部人工智能企业Mistral AI联合创始人兼CEO Arthur Mensch访韩期间,与三星电子副董事长兼CEO全永铉及核心高层会晤,双方重点围绕AI半导体存储芯片供应链、技术协同方案展开磋商。Mistral AI正寻求稳定XPU算力芯片供应以支撑模型迭代,三星在高带宽内存...

2 天前
2026年4月7日,全球存储巨头三星电子发布2026年第一季度初步业绩预告,预计营业利润达57.2万亿韩元(约合379.2亿美元),较去年同期增长8倍以上,远超分析师预期的40.6万亿韩元。此轮业绩暴涨核心动力为生成式AI基础设施建设带来的存储芯片需求激增,存储价格大幅上涨推动行业彻底走出此前的下行周期。

7 天前
当地时间2026年3月30日,有“HBM之父”之称的韩国科学技术院电气与电子工程学院教授金正浩公开对外表态,当前以英伟达GPU为核心的AI芯片体系即将发生根本性变革,未来高带宽内存(HBM)、高带宽闪存(HBF)将成为计算核心,GPU与CPU将退居配角,这一预判也引发全球半导体行业对存算一体架构落地节奏的广泛讨论。

7 天前
近日,专注于AI辅助半导体设计的初创企业Cognichip宣布完成6000万美元新一轮融资。该公司核心产品为面向AI算力芯片的全流程AI原生设计工具链,官方测试数据显示其可将芯片研发成本降低75%以上,研发周期缩短超50%,本次融资将主要用于技术迭代、团队扩张及商业化落地,有望破解AI算力芯片研发成本高、周期长的行业痛点。

8 天前
2026年3月30日,全球最大光计算独角兽曦智科技正式向港交所递交IPO招股书。该公司由沈亦晨博士于2017年创立,专注于光互连、光计算技术研发,商业化进度全球领先,腾讯、百度均为其早期投资方,目前已走出试点阶段,下游已有AI芯片企业完成下单,本次IPO被视作光计算技术规模化商用的标志性节点。

9 天前
2026年3月31日,韩国AI芯片独角兽Rebellions宣布完成4亿美元Pre-IPO融资,公司估值从此前的14亿美元升至23.4亿美元,涨幅达67%,刷新亚洲AI硬件赛道融资纪录。截至目前Rebellions累计融资6.5亿美元,占成立以来总资本75%以上,资金将用于自研NPU规模化量产及后续上市筹备。