近日,美国财政部、国务院、联邦住房金融局等核心政府机构集体启动停用Anthropic旗下AI产品的程序,其中国务院已将内部聊天机器人“StateChat”的底层模型替换为OpenAI的GPT-4.1。这一转向源于美国高层对AI合作的重估指示,五角大楼已将Anthropic列入供应链风险名单,或重塑美国政府AI服务的市场格局。
美国国务院内部的AI工具生态正在经历一场悄无声息的更迭:此前基于Anthropic模型搭建的聊天机器人“StateChat”,近日已完成底层模型的全面切换,正式接入OpenAI的GPT-4.1。这并非孤立事件,同一时间段内,财政部、联邦住房金融局等多个核心联邦机构,也同步启动了停用Anthropic全系列AI产品的程序。
此次政府机构集体“换仓”的核心动因,指向美国高层对AI供应商供应链安全的严格重估。据消息,五角大楼已将Anthropic纳入供应链风险名单,这一评级直接推动了多部门的决策转向——美国高层明确指示各核心机构重新审视与AI服务商的合作协议,优先排查供应链潜在风险点。在政府AI应用场景中,数据安全与供应链可控性被置于技术性能之上,成为本次合作调整的核心准则。
在此次转向之前,Anthropic曾凭借主打安全合规的定位,成功切入美国多个核心政府部门的AI工具体系,占据了一定的市场份额。而随着多家机构集体弃用其产品,OpenAI无疑成为最大受益者。GPT-4.1的顺利接入,不仅证明其技术能力与合规标准符合政府级需求,更有望借此机会大幅提升在联邦AI服务市场的占比,进一步巩固其全球AI领域的头部地位。
从美国政府机构的集体动作来看,全球To G AI业务的竞争逻辑正在发生变化。此前部分政府客户可能更侧重AI工具的技术适配性与场景化能力,而如今供应链安全、高层合规指示已成为核心决策依据。这一风向的转变,不仅将重塑美国本土AI服务商的竞争格局,也为全球AI企业拓展政府客户提供了明确参照:只有同时满足技术领先性与供应链安全性的供应商,才能在To G市场中获得长期稳定的合作机会。

1 分钟前
2026年巴塞罗那世界移动通信大会(MWC26)上,高通正式展出AI200机架式AI推理解决方案实物,该产品搭载56块自研AI200加速卡,总内存容量达43TB,搭配AMD EPYC霄龙处理器作为算力底座,预计2026年下半年正式商用,同时高通透露将于2028年推出自研数据中心CPU。

2 分钟前
近期OpenAI与美国国防部(原称美国战争部)的AI合作项目引发美国民众强烈反弹,ChatGPT在美国区卸载量陡增,大量用户在应用商店打出一星差评。OpenAI CEO萨姆·奥尔特曼宣布将修订双方合作协议,新增明确条款禁止使用AI系统对美国人进行大规模监控,相关调整将严格符合美国宪法第四修正案等法律要求。

4 分钟前
3月3日,阿里正式宣布旗下QoderWorker桌面Agent全面开放,适配Mac与Windows双平台,用户无需额外部署即可启用这款专属AI助理。该产品集成顶尖AI模型与Agent框架,可自主理解任务意图、拆解执行步骤并实时反馈进展,新增模型分级选择器兼顾性能与成本,内置沙盒环境保障隐私,主打“人人可用”的轻量化办公方案。

5 分钟前
2026年3月3日,美团旗下光年之外团队推出的AI浏览器Tabbit,与“陪读蛙”开源项目正式发布联合声明,为此前引发热议的代码挪用争议给出官方回应。双方确认已完成直接友好沟通并达成共识,Tabbit将移除新版浏览器中的涉事翻译代码,同时将该项目完整开源至GitHub供社区审阅,原作者明确表示事件并非出于主观恶意。

6 分钟前
新加坡政府3月3日宣布一项为期三年的国家级AI人才培养计划,目标为10万名劳动者、1万家企业强化AI应用能力,由数字发展与资讯部长杨莉明在国会公开推进。该国总理黄循财将AI列为经济战略关键支柱,计划覆盖律师、会计等全行业专业人士,还首次将AI技能培训延伸至监狱系统,破解技术迭代下的人才缺口难题。

7 分钟前
Meta近日旗下AI聊天机器人Meta AI启动购物研究功能测试,目前仅面向美国地区网页版用户开放。该功能可基于用户地理位置与历史偏好生成个性化产品推荐,以轮播图展示商品并附带品牌、价格及推荐理由,暂不支持直接结账,仅可跳转至商家链接完成后续下单。扎克伯格曾提及,该工具将帮助用户精准找到所需产品,此举意在对标OpenAI ChatGPT与谷歌Gemini的同类AI购物工具。

8 分钟前
2026年3月3日,荣耀正式宣布智能体基础模型MagicAgent面向全球开源。该模型由荣耀联合复旦大学人工智能实验室共同研发,是YOYO智能体的核心底层大脑,主打全场景泛化规划与异构任务编排,为行业首个支持该特性的基础模型。官方披露,MagicAgent在六大核心性能测试中全面领先GPT-5.2,此次开源将为智能体技术的场景落地提供新的支撑。

9 分钟前
伦敦国王学院安全研究中心肯尼斯·佩恩教授团队发布最新实证研究,针对GPT 5.2、Gemini 3 Flash、Claude Sonnet 4三款当前应用广泛的前沿大语言模型开展核危机模拟测试,结果显示95%的模拟场景中,模型会选择发出核威慑或升级冲突,而非通过外交对话和平解决,该发现凸显AI用于国家战略决策的潜在伦理与安全风险。