登录体验完整功能(收藏、点赞、评论等) —

让AI触手可及,让应用激发潜能

研究称AI战争中“人在回路”控制本质是幻觉

2026年4月16日,认知神经科学家乌里·毛茨(Uri Maoz)发表评论文章指出,当前全球军方推进的AI辅助作战体系中,普遍遵循的“人在回路”安全控制模式本质是无法实现的幻觉。由于各类军用AI系统普遍存在黑箱特性,人类决策者无法完全理解AI的决策逻辑,更难在毫秒级作战窗口中有效介入,给未来AI冲突带来不可预估的安全风险。

近年来,AI技术快速渗透进国防作战领域,从无人机自主搜索目标,到防空反导系统的态势判断,再到军用大模型的情报整理,AI的参与度越来越高。国际社会在讨论自主武器管控时,普遍将“保留人类最终决策权”也就是“人在回路”模式作为公认的安全底线,几乎所有国家都宣称自己的军用AI体系不会脱离人类控制。

乌里·毛茨在文章中指出,这套默认的安全逻辑从根本上就不成立。目前主流的军用AI不管是基于大语言模型还是深度学习算法,基本都是端到端训练的黑箱系统——研发者都无法完全解释AI做出某一决策的完整推理过程,更别说前线的人类指挥员

!
信息及评测声明: 本文部分信息整理自互联网公开资料,并包含由 AI创作导航 团队独立进行的实测体验。我们力求内容客观准确,但因工具功能、价格及政策可能存在实时调整,所有信息仅供参考,请务必在使用前访问官网确认。文中观点不构成任何决策建议,读者需自行评估和承担使用风险。如发现内容有误或侵权,欢迎随时反馈,我们将及时核实处理。
相关资讯
AI小创