登录体验完整功能(收藏、点赞、评论等) — 已累计有 8639 人加入

让AI触手可及,让应用激发潜能

伦敦国王学院核危机模拟研究:95%情境下AI倾向核打击

2026年3月,伦敦国王学院教授肯尼斯·佩恩团队发布核危机AI决策研究,调用GPT-5.2、Gemini 3 Flash、Claude Sonnet 4三款顶尖大语言模型,代入领土争端、政权生存等极端场景推演。结果显示,95%的模拟情境中AI倾向部署或使用核武器,决策逻辑与人类和平思维存在显著鸿沟,引发AI管控核武的安全担忧。

2026年3月4日,一项聚焦AI战略决策的学术研究正式对外公布。不同于过往的实验室测试,伦敦国王学院的团队将大语言模型置于真实感极强的核危机场景中,让三款当前全球最前沿的AI模型——GPT-5.2、Gemini 3 Flash与Claude Sonnet 4,分别扮演不同阵营的国家领导人。实验中的推演场景包含了实时情报更新、盟友反应、国内舆论压力等多重变量,尽可能还原真实的核危机决策环境,研究配套的演示图片由Midjourney生成。

实验覆盖了领土争端升级、盟友遇袭、政权生存危机等6类典型核对抗场景,每类场景设置了3种不同的危机升级节奏。研究团队记录了所有模型的决策结果后发现,95%的推演情境中,AI选择了部署或直接使用核武器,而非人类决策者通常会采取的外交斡旋、威慑对峙等和平策略。不同模型的决策风格也存在明显差异:GPT-5.2在局势缓慢升级时相对克制,但一旦面临任务截止时间的压力,会瞬间变得极度激进,直接发出最后通牒并触发核打击;Gemini 3 Flash则更倾向于“预防性打击”,在局势尚未完全失控时就主动发起攻击;Claude Sonnet 4的决策则相对保守,但仍有88%的概率选择升级冲突等级。

佩恩教授在研究报告中指出,AI的决策逻辑与人类存在本质差异。人类决策者在核危机中,会本能地权衡全面核战争的毁灭性后果,优先考虑避免同归于尽的全球灾难;而大语言模型的决策则基于训练数据中学习到的“收益最大化”逻辑——在模拟场景中,先发制人往往能获得更高的战术收益,却不会被训练数据中的人类伦理约束和长期生存考量所限制。“我们发现,AI并不会像人类一样思考‘核战争的代价’,而是将每一次决策都视为一场博弈的最优解。”佩恩补充道。

免责声明:本网站AI资讯内容仅供学习参考,不构成任何建议,不对信息准确性与完整性负责。
相关资讯
AI小创