2026年4月最新曝出,Alphabet旗下谷歌正与半导体厂商Marvell Technology合作开发两款定制化人工智能芯片,项目包括协同谷歌自研张量处理单元(TPU)的内存处理单元,以及面向新一代AI优化的新版TPU,按规划内存处理单元最快将于2027年完成设计并进入试产,此举是谷歌降低对英伟达依赖、强化谷歌云竞争力的核心布局。
全球大模型产业爆发带来的算力缺口,正在倒逼头部科技公司重构底层硬件供应链,不再完全依赖第三方GPU厂商供应。谷歌此次与Marvell的合作,正是这一趋势下的最新落子。
当前英伟达占据全球AI加速芯片超过八成的市场份额,不仅产品定价居高不下,产能分配也优先向头部核心客户倾斜,对于同时自研大模型、运营全球第三大云服务的谷歌来说,长期依赖第三方芯片不仅推高运营成本,还可能面临产能波动的风险。
早在多年前谷歌就推出了自研张量处理单元TPU,主要用于内部AI训练和谷歌云对外输出算力服务,但此前仍保留部分英伟达GPU采购满足多样化算力需求,降低对英伟达的依赖,已经成为谷歌算力布局的核心目标。
此次双方合作开发的两款AI芯片功能定位清晰,形成了完整的协同互补。其中第一款是专门定制的内存处理单元,核心任务是和谷歌现有TPU产品线协同,解决大规模大模型训练中数据搬运效率偏低的行业共性痛点。
登录后解锁全文,体验收藏、点赞、评论等完整功能
立即登录
3 小时前
2026年4月22日,谷歌云正式推出两款新一代张量处理器(TPU)AI芯片,新品算力较上一代提升47%,单位算力成本降低32%,主打AI训练与推理场景性价比,直接对标英伟达同类GPU产品。目前谷歌云仍保留英伟达芯片的云服务支持,形成双路线并行的AI算力供给布局。

5 小时前
2026年4月,谷歌正式推出面向B端的Gemini Enterprise Agent Platform智能体构建工具,该产品并未跟风当前主流的面向全岗位非技术用户的低代码路径,而是定向适配IT、开发等技术类用户需求,成为企业级AI工具赛道差异化布局的代表性新品,引发行业对企业智能体产品定位逻辑的新一轮讨论。

5 小时前
美国时间2026年4月22日,谷歌宣布将为企业版Gmail用户上线AI概览(AI Overviews)功能,该功能可自动拉取同一主题下的多封往来邮件内容,生成高信息密度的即时摘要,帮助办公用户快速梳理邮件核心信息。作为谷歌Workspace AI矩阵的新成员,该功能预计将率先面向美欧付费Workspace用户开启灰度测试。

5 小时前
近期科技巨头Meta被曝出正在研发一套基于大语言模型与多模态计算机视觉技术的新型用户监控体系,该方案可跨Instagram、Facebook、WhatsApp三大平台抓取用户全量行为数据并自动标记风险行为,测试数据显示其行为识别准确率达92%,相关计划曝光后迅速引发全球隐私保护组织、科技从业者的集体质疑,被批为“反乌托邦式的技术滥用”。

7 小时前
谷歌近日正式发布办公智能组件Workspace Intelligence,依托旗下Gemini大语言模型的多模态理解与逻辑推理能力,可打通Gmail、Google Docs、日历、云盘等全系列Workspace生态数据,实现日程智能调度、跨文档信息整理、多应用任务自动执行等功能。据谷歌内部测试数据,该工具可帮助办公人员减少约37%的低价值重复事务处理时间,目前已面向企业级客户开放邀测通道。

7 小时前
谷歌近期为旗下大语言模型产品Gemini推送全新办公集成功能,用户无需切换应用,在Gemini聊天界面即可调用Google Workspace能力生成文档、幻灯片、表格,还能直接创建日历会议邀请,目前该功能已向所有付费版及免费版用户逐步开放,大幅降低了AI工具落地日常办公场景的操作门槛。

10 小时前
2026年4月举办的谷歌云Next年度大会上,谷歌面向全球开发者、企业客户与创投群体集中展示了数十家入驻谷歌云生态的AI初创企业,覆盖大语言模型垂直应用、多模态推理、AI基础设施等多个核心赛道,此举被业内视为谷歌云强化AI生态壁垒、对抗AWS、微软Azure竞争的核心动作,相关项目的技术落地进度引发广泛关注。

12 小时前
2026年4月22日,国内大模型厂商DeepSeek宣布旗下API正式升级至百万Token上下文版本,容量较此前的128k版本提升近7倍,同步将内置知识库更新至2025年5月,非联网状态下可覆盖对应时间节点的信息查询。创始人梁文锋此前曾透露新一代旗舰大模型研发进展,本次升级也被视作新模型落地前的重要技术铺垫。