3月30日,蚂蚁AI安全实验室披露了对开源AI智能体框架OpenClaw的专项审计结果。
三天时间内,团队提交33个安全漏洞报告,其中8个已在最新版本中得到确认和修复,包括1个严重级、4个高危和3个中危漏洞。
OpenClaw是目前全球最流行的AI执行型框架之一,用户可通过自然语言让AI操作电脑完成自动化任务。
蚂蚁此次发现的关键漏洞如CVE-2026-33574(路径遍历)、CVE-2026-32978(权限绕过)等,攻击者可借此越界读写文件甚至执行任意代码。
对于一个被授权访问本地文件、发送邮件、操控浏览器的智能体而言,这类漏洞的杀伤力不言而喻。
把视角拉回蚂蚁这家企业。它并非OpenClaw的官方维护方,也没有商业利益绑定。
一个中国互联网公司的安全团队主动对海外明星开源项目进行深度审计,并提交高质量的漏洞报告,这种行为在国际安全社区中其实并不常见。过去类似的工作更多由Google Project Zero、微软安全响应中心或独立研究机构承担。
蚂蚁此次出手,至少传递出两个信号,一是其安全研究能力已经达到可以输出给顶级开源项目的水平,二是蚂蚁有意愿将这种能力用于改善整个AI基础设施的健康度,而不只是服务于自身业务。
但一个值得追问的问题是,为什么是蚂蚁,而不是OpenClaw社区自己?该框架GitHub星标超过23万,阿里云、腾讯云均提供一键部署。
如此庞大的用户基础和贡献者群体,其代码审查流程竟然没能提前发现这些高危漏洞。这说明开源社区在AI智能体这种新兴、复杂、多层架构的软件上,安全治理能力严重滞后。
IM网关层、智能体层、执行层、插件生态层,每一层都可能引入新的攻击面,而社区惯用的“发现漏洞再修复”模式,在面对执行型AI时已经显得捉襟见肘。
横向对比一下,Google和微软在AI安全上的投入更多集中在模型层和云基础设施层,对开源应用框架的审计相对分散。
而蚂蚁这次切中的恰恰是开源生态中最薄弱的一环,高热度、低安全成熟度的AI智能体项目。
如果类似的漏洞被恶意利用,影响的不只是OpenClaw单个项目,而是所有依赖它的上下游应用和企业用户。
国家网络与信息安全信息通报中心近期也监测到,大量公网暴露的OpenClaw实例即使升级到最新版本,因未关闭默认端口或未设置访问控制,仍面临被入侵的高风险。
OWASP已在2025年底推出Agentic Top 10,将提示注入、权限失控、数据泄露等AI智能体特有风险纳入框架。标准在往前走,但开源社区的实际安全水位提升缓慢。
蚂蚁这次审计就像一次压力测试,暴露出的问题远不止33个漏洞那么简单。它提醒我们,AI安全不该只是巨头之间的一场公关竞赛,更不该依赖个别企业“顺手做的好事”。
当开源项目的热度跑在安全能力前面,用户最终要为此买单,而蚂蚁的这次行动,恰恰让这个长期被忽视的问题浮上了水面。
[本文作者i黑马,i黑马原创。如需转载请联系微信公众号(ID:iheima)授权,未经授权,转载必究。]