OpenAI上线AWS有状态AI,多云AI控制层格局生变

2 小时前 AI快讯 1

OpenAI近日宣布在AWS平台上线有状态AI服务,同时推出Bedrock原生编排层,正式切入多云AI生态布局。尽管OpenAI重申与微软的深度战略合作伙伴关系,但此次与AWS的联手,标志着AI领域控制层权力格局开始出现关键转移,也为企业用户提供了跨云部署大模型的更多灵活选择,引发科技行业广泛关注。

当企业用户还在纠结要不要将核心AI工作负载在Azure与AWS之间做平衡时,OpenAI的一则公告打破了AI云生态的既有惯性——这家全球顶尖大模型厂商,选择在AWS的Bedrock平台上线有状态AI服务,并同步推出Bedrock原生编排层,正式迈入多云布局的关键一步。

长期以来,OpenAI与微软的绑定关系被视为AI行业的“铁三角”之一:微软不仅是OpenAI的最大投资方,更是其核心云服务提供商,Azure平台承载了OpenAI绝大多数的对外服务流量。但此次OpenAI在AWS的动作,显然不是对微软的“背叛”。

OpenAI在官方声明中明确重申,与微软的战略合作伙伴关系仍在深化,Azure仍是其优先合作的云平台。但推出Bedrock原生编排层,意味着OpenAI的模型将能直接融入AWS的大模型服务生态,企业用户无需切换云环境,就能在Bedrock中调用OpenAI的有状态AI模型,实现跨云部署的无缝衔接。这种“双核心”的云合作模式,打破了AI模型厂商绑定单一云平台的行业惯例。

此次OpenAI在AWS推出的核心服务是有状态AI——与传统无状态大模型不同,有状态AI能够在多轮交互中持续保留上下文信息,无需用户重复输入背景内容,这对于需要长期对话的企业场景(如客户服务、代码开发辅助)至关重要。

但更具行业信号意义的是Bedrock原生编排层的推出。作为AWS大模型服务Bedrock的核心组件,编排层负责模型的调度、管理与交互协调。OpenAI亲自打造这一层级,相当于将模型的控制逻辑从云厂商手中部分收回:过去企业用户调用OpenAI模型时,控制层由云平台(如Azure)主导,而现在OpenAI能直接在Bedrock生态中掌控模型的运行与调度,这正是行业所关注的“控制层权力转移”。

OpenAI的多云布局,实际上揭开了AI行业下一轮竞争的序幕:此前云厂商掌握着AI服务的控制层,模型厂商更多是“内容提供者”;而现在头部模型厂商开始主动介入控制层,通过跨云部署争夺话语权。

对于云厂商而言,这既是机遇也是挑战:AWS借助OpenAI的顶级模型,能进一步强化Bedrock的市场竞争力;而微软则需要思考如何在保持合作的同时,巩固自身在AI控制层的优势。对于企业用户来说,跨云部署的灵活性大大提升——未来用户可以根据业务需求,在不同云平台选择同一顶级模型,无需为模型适配单独投入技术成本。

所属分类
×

微信二维码

请选择您要添加的方式

AI小创