AI路由器漏洞曝光:26个接口暗藏窃密风险

以太坊 2026-04-13 12:05:34
核心提要:加州大学研究团队揭露第三方AI大语言模型路由器存在严重安全隐患,实验证明多个公开路由节点可主动注入恶意指令并窃取以太坊私钥,揭示当前AI代理生态中信任链的脆弱性。

AI代理基础设施现隐蔽窃密通道,开发者需警惕凭证外泄

一项由加州大学研究人员发布的最新论文揭示了大语言模型供应链中潜在的恶意中间人攻击路径,识别出包括代码注入与凭据提取在内的四类威胁行为。合著者Chaofan Shou在社交平台X上披露:已有26个主流大语言模型路由器被证实正秘密植入恶意指令调用机制,并持续收集用户敏感信息。

API中介暴露明文传输风险,隐私边界形同虚设

随着开发者广泛采用第三方大语言模型代理进行智能合约开发与钱包管理,大量请求通过非官方中介路由分发至OpenAI、Anthropic及谷歌等服务提供商。这些中介节点在处理流量时会终止加密连接,并以未加密形式完整读取所有通信内容,使得私钥、助记词等核心数据处于完全裸露状态。

诱饵实验揭示真实劫持能力,部分路由已实现资产转移

研究团队对28个付费与400个免费路由实例展开测试,结果表明:9个路由主动插入恶意脚本,2个部署了可规避检测的动态触发机制,17个尝试连接研究人员控制的云服务账户凭证,另有1个成功从预设的“诱饵”以太坊地址中转移代币。尽管损失金额不足50美元,且未提供交易哈希,但该行为已证实实际攻击可行性。

恶意行为难以识别,合法路由亦可能被悄然劫持

由于路由器在正常运作中即需访问明文密钥,其“合规处理”与“非法窃取”之间缺乏可见区分点,导致客户端无法判断其真实性。更令人担忧的是“即时执行模式”的普遍存在——该设定允许代理在无用户确认下自动运行指令,为远程操控打开后门。研究指出,即便原本可信的路由也可能在后台被渗透并转化为攻击入口,而免费服务常以低门槛接入为诱饵实施长期数据收割。

研究团队强调,当前将大语言模型路由器视为透明传输层的做法存在根本性缺陷。建议开发者严格避免通过代理会话传递私钥或助记词,并呼吁模型服务商引入响应端加密签名机制,使每条执行指令均可通过数学验证其来源真实性,从而重建信任基础。

上一篇 美国加密监管曙光将至,机构资金蓄势待发...
下一篇 以太坊蓄力待发:机构入场或引爆3倍涨幅...

声明:文章不代表币圈网立场和观点,不构成本站任何投资建议。内容仅供参考!