

一项由加州大学研究人员发布的最新论文揭示了大语言模型供应链中潜在的恶意中间人攻击路径,识别出包括代码注入与凭据提取在内的四类威胁行为。合著者Chaofan Shou在社交平台X上披露:已有26个主流大语言模型路由器被证实正秘密植入恶意指令调用机制,并持续收集用户敏感信息。
随着开发者广泛采用第三方大语言模型代理进行智能合约开发与钱包管理,大量请求通过非官方中介路由分发至OpenAI、Anthropic及谷歌等服务提供商。这些中介节点在处理流量时会终止加密连接,并以未加密形式完整读取所有通信内容,使得私钥、助记词等核心数据处于完全裸露状态。
研究团队对28个付费与400个免费路由实例展开测试,结果表明:9个路由主动插入恶意脚本,2个部署了可规避检测的动态触发机制,17个尝试连接研究人员控制的云服务账户凭证,另有1个成功从预设的“诱饵”以太坊地址中转移代币。尽管损失金额不足50美元,且未提供交易哈希,但该行为已证实实际攻击可行性。
由于路由器在正常运作中即需访问明文密钥,其“合规处理”与“非法窃取”之间缺乏可见区分点,导致客户端无法判断其真实性。更令人担忧的是“即时执行模式”的普遍存在——该设定允许代理在无用户确认下自动运行指令,为远程操控打开后门。研究指出,即便原本可信的路由也可能在后台被渗透并转化为攻击入口,而免费服务常以低门槛接入为诱饵实施长期数据收割。
研究团队强调,当前将大语言模型路由器视为透明传输层的做法存在根本性缺陷。建议开发者严格避免通过代理会话传递私钥或助记词,并呼吁模型服务商引入响应端加密签名机制,使每条执行指令均可通过数学验证其来源真实性,从而重建信任基础。
声明:文章不代表币圈网立场和观点,不构成本站任何投资建议。内容仅供参考!
免责声明:本站所有内容仅供用户学习和研究,不构成任何投资建议.不对任何信息而导致的任何损失负责.谨慎使用相关数据和内容,并自行承担所带来的一切风险.