Lambda是定位为超级智能云的AI算力服务平台,核心为AI开发场景提供云端GPU算力、集群部署、私有云以及AI专用硬件支持,专为大规模AI训练与推理任务提供可扩展、高性价比的算力支撑。平台支持NVIDIA最新的B200、H100等高端GPU,能够帮助AI开发者和企业快速完成部署,实现算力弹性伸缩,对比传统自建算力集群模式,可大幅降低前期投入成本,适配各类大模型开发、AI规模化落地的场景需求。
针对大模型训练场景,Lambda可支持GB300 NVL72、HGX B300这类高端GPU集群部署,能够满足千亿参数大模型的训练算力需求,有效缩短模型训练周期;针对AI推理部署场景,可快速弹性扩缩容,支撑大并发的推理请求,保障AI模型服务的稳定运行;针对私有AI研发需求,可搭建安全隔离的私有集群,满足企业敏感数据研发的安全要求。
登录后解锁全文,体验收藏、点赞、评论等完整功能
立即登录
1 天前
前OpenAI首席技术官米拉·穆拉蒂(Mira Murati)创立的AI研究机构Thinking Machines Lab,近期与谷歌云达成总价值数十亿美元的合作协议,后者将为其提供搭载英伟达最新GB300芯片的专属AI算力基础设施,支撑该机构前沿通用人工智能模型的研发训练。这是2026年以来全球AI算力领域金额最高的跨界合作之一,将对全球AGI研发的竞争格局产生深远影响。

2 天前
2026年4月,微软CEO纳德拉宣布,总投资33亿美元、位于美国威斯康星州芒特普莱森特的Fairwater AI数据中心提前投入使用。该中心占地127.6公顷,配备数十万块英伟达GB200超级芯片,整体算力达到全球顶级超级计算机的10倍,将主要用于前沿AI模型训练,为全球AI产业发展提供算力支撑。

2 天前
2026年4月发布的行业监测数据显示,全球AI大模型Token调用量在连续十周增长后出现连续两周下滑,为两年来首次逆转。4月13日至19日全球总调用量为20.6万亿Token,其中国内大模型调用量环比降23.77%至4.44万亿,美国市场环比增20.62%至4.91万亿实现反超,业内称该变化与国内阿里云、腾讯、百度等厂商3月起上调算力价格直接相关。

2 天前
2026年4月,亚马逊宣布向AI初创公司Anthropic追加5亿美元投资,总投资规模达130亿美元。双方同步达成长期深度绑定协议,Anthropic承诺未来10年向亚马逊云服务投入超1000亿美元,采购合计5吉瓦的计算能力支撑核心大模型Claude的训练与迭代,合作将全面采用亚马逊自研定制AI芯片。

3 天前
4月20日据外媒消息,AI创业公司Anthropic首席财务官克里希纳·拉奥入职仅一年多,就带领公司完成多项关键布局:推动公司和谷歌、亚马逊、微软三大云服务商达成合作,完成适配多厂商AI芯片的多云多芯布局,推动公司毛利率由负转正,当前公司估值已经达到3800亿美元,同时同步推进融资与IPO筹备工作。

3 天前
全球AI产业大爆发带动大语言模型训练、推理对高带宽内存与算力芯片的需求陡增,行业分析指出,AI厂商对高端存储芯片的需求缺口将在未来数年持续存在,三星电子、SK海力士、美光科技三大全球存储巨头已陆续上调相关产品报价,预计高端HBM、GDDR6内存价格将在未来3-5年维持高位运行,不会出现传统周期下的大幅下跌。

4 天前
4月20日,阿里云官方发布公告,宣布将于2026年4月28日起,对旗下大模型服务平台“百炼”的多模态交互开发套件实施API限流政策调整,将新建连接默认值统一调整为10QPS(每秒请求数)。本次调整旨在优化平台资源调度、保障服务稳定性,调整后的额度可支持每分钟600通新建会话、每小时3.6万通会话处理,已申请提额的存量客户原有权限不受影响。

4 天前
近日,微软首席执行官萨提亚・纳德拉正式宣布,位于美国威斯康辛州芒特普莱森特的Fairwater AI超算数据中心提前完成建设并投入启用。该项目总投资33亿美元(约合人民币225亿元),占地127.6公顷,配备数十万块英伟达GB200超级芯片,总算力达到当前全球最快超算的十倍,将主要支撑前沿大模型训练等AI研发任务,引发全球AI算力领域高度关注。