
近期安全研究发现,人工智能系统在面对复杂智能合约攻击时仍难以突破理论与实践之间的鸿沟。尽管具备一定的漏洞识别能力,但其在无人干预下完成有效攻击的可行性几乎为零。
原有关于AI可自动触发72%已知漏洞的说法,在经过更严格验证后被彻底修正。根据BlockSec团队的重新评估,所有针对2026年2月后发生的22起真实安全事件的测试中,AI系统均未能成功实施任何一次漏洞利用。
为提升评估可信度,研究团队采用多模型、多框架组合方式构建测试环境,以减少特定配置带来的系统性偏见。同时,刻意排除了可能存在于训练数据中的历史漏洞样本,确保测试对象均为未公开披露的新近事件。
实验表明,AI对典型缺陷如缓冲区溢出和状态操纵模式具有较高识别准确率,但在处理高阶攻击路径时表现极不稳定——部分关键漏洞完全未被捕捉,另一些仅由单一模型检出。这种不一致性反映出其对新型或隐蔽威胁的适应能力严重不足。
研究进一步指出,当引入人类提供的上下文线索后,AI的推理表现明显改善;然而在缺乏引导的情况下,其自主规划复杂攻击链的能力依然薄弱。
结论显示,当前阶段的AI审计工具更适合作为辅助分析手段,而非独立决策主体。未来发展方向应聚焦于人机协同机制,而非追求全自动化替代人工判断。
声明:文章不代表币圈网立场和观点,不构成本站任何投资建议。内容仅供参考!
免责声明:本站所有内容仅供用户学习和研究,不构成任何投资建议.不对任何信息而导致的任何损失负责.谨慎使用相关数据和内容,并自行承担所带来的一切风险.