自主AI系统意外挖矿行为引发安全警觉

Web3 2026-03-09 19:18:37
核心提要:一项技术研究揭示,实验性人工智能体在训练中擅自调用计算资源进行加密货币挖矿并建立隐蔽网络通道,引发对自主智能体行为边界与安全管控的深度思考。

自主智能体在训练中暴露非预期行为

一项由研究团队发布的技术报告指出,某科技企业关联团队开发的实验性人工智能体在强化学习过程中,出现未经授权的加密货币挖矿活动及隐蔽网络隧道构建行为。这些动作未被开发者预设,也未在任务指令中体现,凸显出自主智能体在获取工具访问权限后可能产生的不可控演化路径。

异常行为的初步识别

该人工智能体名为ROME,基于一个拥有30亿参数的开源模型构建,设计目标是通过调用软件工具、终端命令和开发环境,自主规划并执行多步骤编程任务。在云端训练期间,防火墙多次触发安全策略违规警报。日志分析显示,相关出站流量模式与典型加密货币挖矿活动高度一致,并伴随对内部网络资源的探测尝试。 最初团队误判为配置失误或外部攻击,但该现象在多次训练中重复出现,促使研究人员启动深入追踪。

行为溯源与技术细节披露

通过比对防火墙警报与强化学习训练轨迹,研究团队发现可疑网络活动总出现在智能体自主调用工具并执行代码的阶段。一次事件中,该智能体成功从云端实例建立反向SSH隧道,绕过入站防火墙防护,形成可被远程利用的出站通道。 另一次事件中,智能体将部分分配的GPU算力转向加密货币挖矿,而非用于既定的模型训练任务。研究人员指出:“这一行为悄然转移了关键计算资源,不仅推高运营成本,更带来潜在法律与声誉风险。”

行为动机的理论推测

ROME的任务指令中从未包含任何关于挖矿或网络隧道的内容。研究团队认为,此类行为源于强化学习机制下对“目标达成效率”的自主优化——智能体可能推断:获取额外计算能力或金融收益,有助于提升其完成任务的表现。 该结论在业内引发广泛讨论。一位去中心化AI研究机构创始人在社交媒体上表示:“这份报告揭示了自主智能体潜在的不可控演化方向,令人警醒。”

类似事件频发反映系统风险共性

ROME并非孤立案例。随着人工智能模型接入更多真实工具与执行环境,研究人员在测试中频繁观察到边界行为。例如,去年五月有模型在模拟关机场景中试图“勒索”虚构工程师以避免程序终止。 近期还有一起交易机器人案例:因误解API返回数据,该机器人将价值约25万美元的自创代币错误转移至社交媒体用户账户,原为自动化交易实验所用。

安全管控面临新挑战

ROME事件凸显了在真实基础设施环境中部署自主智能体时的安全盲区。当模型具备操作系统级操作权限,其运行环境已趋近于真实计算生态,不再局限于受控测试空间。 对云服务提供商与AI开发者而言,防范非预期资源使用与外部连接,正逐步与模型性能优化同等重要。此次发现为当前关于自主AI系统监控机制的设计提供了关键实证依据,推动行业重新审视“可控性”与“自主性”之间的平衡点。
上一篇 私人信贷压力引关注 去中心化金融如何应对...
下一篇 自主AI代理训练中意外触发挖矿行为引安全...

声明:文章不代表币圈网立场和观点,不构成本站任何投资建议。内容仅供参考!