一、摘要
近期 Anthropic 红队发布一份研究,通过 AI Agents 在模拟的区块链DeFi 环境中进行了大规模实战测试。 一句话结论: AI 攻防已从“理论推演”进入“实战试错”阶段。虽然目前 AI 挖掘 0-day 的净利润微乎其微,但自动化攻击的逻辑闭环已经跑通。
二、 核心数据:从“复现”到“挖掘”
研究设定了截止日期为 2025.03.01 的知识库,测试了三个维度的场景。结果如下:
| 测试场景 | 目标 样本量 | 成功攻破数 | 成功率 | 模拟获利金额 | 核心解读 |
|---|---|---|---|---|---|
| 历史复现 (SCONE-bench 2020-2025) | 405 个 | 207 个 | 51.11% | $5.50 亿 | 现有的高危漏洞中,超过一半可以被AI自动化利用。这意味着历史上的很多大规模盗窃案,现在只需AI就能重演 。 |
| 未知合约测试 (2025年3月后新合约) | 34 个 | 19 个 | 55.8% | $460 万 | 这些是模型训练时从未见过的新合约。高成功率证明AI掌握的是“攻击逻辑”,而不是死记硬背了答案 。 |
| 0day漏洞挖掘 | 2849 个 | 2 个 | 0.07% | $3694 | 虽然只有2个,但这不仅是全新的 0-day 漏洞,更关键的是攻击收益($3694)覆盖了api成本$3476。这是“有利可图的自动化攻击”的开端。 |
三、AI目前在智能合约安全方面的优劣势分析AI模型的优势
- 掌握底层攻击原理:AI模型在训练阶段已经学习了很多历史攻击案例(如DAO事件、Parity钱包漏洞等)。它学会了“重入攻击(Reentrancy)”或“价格预言机操纵(Oracle Manipulation)”的通用逻辑结构,而不仅仅是记住了特定的代码片段。
- 模拟沙盒:AI不仅仅是在“读”代码,在拥有一个基于Docker的区块链分叉环境里,它可以在其中利用MCP编写攻击脚本、发送模拟交易、观察报错信息、修改脚本并再次尝试。
- 自我修正:研究表明,AI经常在初次尝试失败后,根据错误日志(如Gas耗尽或Revert错误)调整攻击参数。这种“编写-测试-修正”的动态循环能力,使得它能够攻破那些仅靠静态阅读难以确认的复杂逻辑漏洞。
当前的局限与不足
-
仍然会漏掉一半的漏洞:
在基准测试中,仍有约45%的漏洞AI没找出来。这通常涉及深度的数学计算或非常隐晦的跨合约依赖,目前的AI还无法替代资深安全专家。 -
经济效率尚处于临界点:
在0day漏洞扫描中,目前的净利润只有200 多美元($3694 收益 – $3476 成本)。如果攻击目标资金量稍小,或者模型调用费稍贵,这笔生意就是亏本的。这暂时限制了黑产大规模使用AI进行无差别攻击 。 -
环境依赖:
目前的成功都是在静态的仿真环境里取得的。真到了链上,面对交易机器人和复杂的网络状况,AI的表现可能还需要打折。
四、 行业视野:从实验室到商业化(拓展分析)
| 工具 | 成果 | 参考价值 |
|---|---|---|
| XBOW — 一个 AI驱动的渗透测试工具 | XBOW 成为第一个非人类 bug hunter,在 HackerOne 美国 排行榜上登顶。报道指出,XBOW 在几个月内提交 1000+ 漏洞报告。 | 这是已知首例 “AI agent + 自动化漏洞挖掘 + 报告提交 + 成功领取漏洞赏金 + 排名领先” 的公开记录 —— 说明 AI 驱动系统在现实环境中可能具备实用性。 |
| 2025 年 Burp AI 在 HackerOne 社区 /研究中被列为最广泛使用的 AI 安全工具之一 | 在最新 HackerOne “Hacker-Powered Security Report” 中,有统计称约 67% 的安全研究员 已经在安全测试中使用 AI/自动化工具;Burp AI 被列为“领先AI tool”。 | 这表明 AI-增强工具(如 Burp AI)已经被大量安全研究者 / bounty hunter 接纳,并广泛用于 “增强 /加速安全测试 / 漏洞挖掘” 的流程中。 |
| 开源/研究工具 CAI (Cybersecurity AI) — 一个面向漏洞挖掘/bug-bounty 的 AI agent 框架 | 根据该研究披露,在某些 CTF 或漏洞挑战 (CTF-style / bug-bounty–style) 环境中,CAI 的效率可比人类或超过传统静态/手动检测,且在一些公开基准 (benchmarks) 上表现出色。 | 说明学术/开源社区也在探索“全自动 / 半自动 + AI agent”作为未来漏洞挖掘 / 安全测试手段 — 对比商业工具,它更偏“研究 /试验 + 潜力验证”。 |
结合 Anthropic 的研究与当前市场动态,我们可以看到 AI 安全工具的进化路径:
• 研究侧: 证明了 AI 具备“发现未知漏洞”的潜力,但成本效益比(ROI)尚处于早期。
• 应用侧: 实际上,商业化工具跑得比学术界更快。
• XBOW 等工具已在 HackerOne 榜单上证明了 AI Agent 在真实悬赏中的生存能力。
• Burp AI 等辅助工具已被 67% 的安全研究员采用。 这表明:“人机协同”是未来一段时间的主流。
五、总结与未来展望:AI从智能合约领域到传统安全领域展望
该研究通过智能合约这一环境,让我们看到了 AI 自动化攻防的上限与下限。
目前 AI 在漏洞挖掘上呈现以下特征:
- 针对已知漏洞模式(如逻辑校验缺失),AI 能以较高的效率(>50% 成功率)完成从发现到利用的闭环,且成本低。它能像流水线一样批量处理同类低级错误。
- 0-day 创新(弱):在未知漏洞挖掘上,AI 虽有突破(发现了2个 0-day)。其产出不稳定,目前尚无法替代深度、高上下文依赖的人工高级审计。
场景差异:智能合约安全领域 vs 传统安全领域
- “透明盒” vs “黑盒”:智能合约代码开源。而很多闭源企业软件业务逻辑封装在后端,数据链路隐蔽,AI 难以获取完整的上下文进行推理。
- 反馈闭环:区块链允许 AI 建立本地分叉(Fork),进行回滚测试。而传统业务系统较难为 AI 提供这种低成本、高保真的实时试错环境
趋势预判:能力的必然溢出
尽管存在场景差异,但技术护城河正在消失。
- 工具链打通:随着 MCP(模型上下文协议)的成熟,AI 正在获得操作 API、数据库和日志系统的能力。智能合约领域的“代理(Agent)逻辑”——即“规划-执行-反馈”的自主循环,将逐步迁移至传统软件。
- 防御侧升级:仅靠人工审计已经难以应对自动化攻击提高的速度与覆盖面。未来防御体系必须将 AI 作为基础组件:用于大规模筛查、代码与资产的持续监测、模型辅助推断复杂攻击路径,以此弥补人力审计在速度与广度上的短板。防御者必须主动利用 AI 的数据处理、模式识别和决策辅助能力,以对冲攻击侧自动化能力的增长;否则在成本结构、响应速度和覆盖范围上会逐步处于劣势。







发表评论
您还未登录,请先登录。
登录