AI自动化系统触发命令注入漏洞

近日,Web3安全公司GoPlus通报一起由AI驱动的开发工具OpenClaw引发的安全事件。在执行自动创建GitHub Issue的任务过程中,系统因错误构造Bash指令,发生命令注入问题。

环境变量被意外暴露

具体表现为AI生成的字符串中包含反引号包裹的set命令,被Bash解析为命令替换并执行。由于set在无参数时会输出所有当前环境变量,导致包括Telegram密钥、认证Token在内的超过100行敏感信息被直接写入公共GitHub Issue,造成严重数据外泄。

安全防护建议升级

GoPlus强调,在AI参与的开发或测试流程中,应避免直接拼接Shell命令,优先使用标准化API接口;同时需遵循最小权限原则,隔离敏感环境变量,并禁用高风险执行模式。关键操作环节应引入人工审核机制,防止自动化流程失控。