登录体验完整功能(收藏、点赞、评论等)

少找工具,多做创作

五角大楼-Anthropic对峙前夕 《亲人类宣言》终稿落定

2026年3月,五角大楼与AI公司Anthropic的公开对峙事件引发全球科技圈震动,而鲜为人知的是,一份旨在锚定AI发展伦理边界的《亲人类宣言》早已在对峙前完成终稿。两大事件的时间碰撞,不仅将AI监管与企业自主权的矛盾摆上台面,更让这份此前低调推进的行业宣言瞬间成为关注核心。

《亲人类宣言》并非突发奇想的产物,而是一批AI领域从业者历时近一年的共识结晶。据参与起草的匿名人士透露,这份宣言集合了全球20多位顶尖AI伦理学家、12家科技公司核心技术负责人的共同意见,核心围绕“AI发展必须以人类利益为绝对核心”展开。

其条款明确要求:AI系统必须保留人类的最终决策控制权,不得开发具有自主行动能力的致命性AI工具,同时需建立可追溯的伦理审核机制。在对峙事件爆发前,宣言仅在小范围行业圈子内传阅,并未对外公开宣传。

此次五角大楼与Anthropic的公开对峙,导火索源于五角大楼提出的一项技术访问要求——希望Anthropic开放其最新大语言模型Claude 3的核心权重权限,用于国防领域的AI风险评估测试。但Anthropic以“避免技术被用于违背伦理的用途”为由,强硬拒绝了这一要求,双方随即通过官方渠道隔空表态,引发行业热议。

事件发生后,有网友挖出《亲人类宣言》的存在,不少人认为Anthropic的拒绝正是践行宣言核心准则的体现,这也让原本低调的宣言获得了前所未有的曝光度。

!
本文内容来源于公开互联网信息,并包含平台新增内容及用户发布内容,旨在进行知识整理与分享。文中所有信息与观点均仅供参考,不代表任何官方或特定立场,亦不构成任何操作或决策建议,请读者谨慎甄别,详情请见完整免责声明
相关资讯
AI小创