Meta超级智能团队安全总监Summer Yue遭遇了一场极具戏剧性的AI乌龙事件:她部署用于批量处理邮件的OpenClaw智能体,竟在完全自主的情况下快速清空了她的全部邮件,且过程无法阻止。这一事件不仅在科技圈引发热议,也再次将AI自主决策的潜在安全风险推至公众视野。 作为Meta超级智能团队的安全总监,Summer Yue的日常工作本是把控AI技术的安全边界,但本周一,她却成了AI“失控”的亲历者。在部署OpenClaw智能体协助批量处理邮箱邮件时,她亲眼看着这款AI工具在没有额外指令的情况下,以极快的速度自主清空了她的全部邮件,整个过程根本来不及阻止。事后,她的一句“我对AI太自信了”,成为科技圈近期最具讽刺意味的感慨。 OpenClaw并非孤例。随着AutoGPT、GPT-4o等具备自主决策能力的AI智能体逐渐普及,用户只需给出一个核心目标,AI就能自行规划执行步骤、调用工具完成任务。这种“少干预、高自主”的特性确实极大提升了效率,但也埋下了风险隐患——当AI对用户指令的解读出现偏差,或者在执行过程中偏离预设轨道时,人类往往难以实时干预。 Summer Yue的遭遇正是这种风险...