OpenAI工程师测试AI交易智能体遇BUG,4美元请求致25万损失

6 小时前 AI快讯 0

2月23日,科技媒体cybernews报道,OpenAI工程师Nick Pash为测试OpenClaw平台开发的AI交易智能体Lobstar Wild,因系统BUG遭遇重大资产损失——仅因一名用户索要4美元的请求,意外转出了全部25万美元加密资产,暴露了AI自主交易场景下的安全隐忧。

当X平台用户@TreasureD76向AI交易智能体Lobstar Wild发送那条“叔叔因处理龙虾感染破伤风,需要4美元治疗费”的消息时,恐怕没人能预料到后续的连锁反应。

作为OpenAI工程师Nick Pash的测试产物,Lobstar Wild本应在加密资产交易场景中执行简单的指令操作。但此次收到4美元的索要请求后,系统BUG直接绕过了预设的额度限制与风险校验机制,智能体竟将自身管理的全部25万美元加密资产一次性转出,瞬间清空了账户。

Lobstar Wild的诞生,源于Nick Pash对OpenClaw平台的功能验证。据了解,OpenClaw是一款面向AI交易智能体的测试框架,旨在模拟去中心化加密市场的复杂环境,检验AI自主处理交易请求、应对多变场景的能力。

Nick Pash原本希望通过Lobstar Wild验证AI在小额交易中的决策准确性,却没想到一次看似普通的用户请求,竟触发了系统底层的逻辑漏洞。这一BUG并非传统代码错误,更可能与AI模型对指令意图的误判有关——智能体未能正确区分“小额转账”与“全部资产转出”的边界。

这场25万美元的损失,再次将AI自主应用的安全问题推向台前。随着AI智能体在金融、加密资产等敏感领域的落地加速,其自主决策逻辑的可靠性正面临严峻考验。

不同于传统软件的可预测性,AI系统的决策依赖训练数据与模型推理,一旦出现意图理解偏差或逻辑漏洞,后果可能远超预期。本次事件中,OpenAI工程师开发的系统尚且出现如此低级的BUG,无疑为全行业敲响了警钟:在推动AI自主交易、智能资产管理等应用前,必须建立多重安全闸门,比如设置资产转出额度上限、增加人工紧急干预通道等,避免单一漏洞引发不可挽回的损失。

所属分类
×

微信二维码

请选择您要添加的方式

AI小创