登录体验完整功能(收藏、点赞、评论等)

Uber扩大AWS合作规模 采用亚马逊自研AI芯片升级核心出行业务

全球出行巨头Uber近期宣布扩大与亚马逊云科技(AWS)的合作协议,将把派单算法、运力预测等更多核心网约车业务模块迁移至亚马逊自研AI芯片集群运行。此次合作被行业视作Uber对原有云服务商Oracle、谷歌云的直接替代,也是亚马逊自研芯片在ToB云服务市场拿下的又一标杆客户案例,进一步撼动了英伟达在AI加速硬件市场的主导地位。

此次合作更新于2026年4月正式对外披露,据双方公布的合作细节,Uber首批迁移的业务模块主要集中在实时性要求最高的C端出行服务场景,首批上线的芯片集群算力规模超过1200P Flops,可支撑全球17个国家和地区的日常出行需求调度。

最近两年,AI算力需求的爆发倒逼云服务厂商纷纷布局自研AI芯片,摆脱对英伟达单一供应链的依赖同时,也能为客户提供性价比更高的算力方案。亚马逊早在2018年就启动了AI芯片自研项目,目前已经迭代到第三代Inferentia推理芯片和第二代Trainium训练芯片,**公开测试数据显示,其推理场景的单位算力成本比英伟达A100低42%,能效比提升60%**。

此前包括Snap、Spotify在内的多家互联网企业已经部分迁移AI业务到亚马逊自研芯片上,Uber是目前出行行业首个大规模采用该方案的头部企业。

对于Uber而言,AI芯片的性能直接决定了核心业务的用户体验和运营成本:实时派单算法需要在毫秒级完成供需匹配,高峰时段的运力预测需要处理PB级的历史出行数据,甚至车内智能语音、安全识别等功能也需要大量的推理算力支撑。

!
本文内容来源于公开互联网信息,并包含平台新增内容及用户发布内容,旨在进行知识整理与分享。文中所有信息与观点均仅供参考,不代表任何官方或特定立场,亦不构成任何操作或决策建议,请读者谨慎甄别,详情请见完整免责声明
相关资讯
AI小创