你有没有想过,一个号称能帮你自动处理Excel表格、写邮件、甚至帮你订外卖的AI工具,可能正在偷偷窃取你的聊天记录、账号密码,甚至批量删除你的重要文件?这不是科幻电影的情节,而是正在发生的现实。就在最近,珠海科技学院、华中师范大学、安徽师范大学等十余所高校接连发出禁令,严禁在校内使用一款叫OpenClaw的AI智能体,江湖人称"龙虾"。
这场风暴来得又快又猛。春节前后,OpenClaw因为能自主执行电脑操作、处理办公任务而在网络上爆红,无数打工人欢呼"摸鱼神器来了"。但仅仅一个月后,工信部网络安全威胁和漏洞信息共享平台就发布预警,指出这款工具在默认配置下存在极高安全风险,易引发网络攻击、数据泄露、系统受控等安全事件。3月10日,国家互联网应急中心更是发布正式警示,明确列出"提示词注入"、"误操作"、功能插件投毒、安全漏洞四大严重风险。
高校的反应堪称迅速且严厉。珠海科技学院的禁令措辞极为强硬:"即日起,全校教职工严禁在任何办公设备、教学终端及校园网络环境下安装、运行、使用OpenClaw软件本体、衍生版本、配套插件及第三方技能脚本"。已安装的必须立即彻底卸载,并清除全部配置、缓存及日志文件。学校还将开展不定期安全扫描,一经发现违规使用,将依规严肃处理,造成数据泄露的还要追究法律责任。
其他高校虽然没做到"一刀切",但也都划出了红线。华南师范大学要求"三个严禁":严禁在生产环境和办公电脑安装,严禁输入任何敏感信息,严禁直接开放公网访问。华中师范大学直接禁止在信息化办公室分配的服务器上安装OpenClaw。武汉交通职业学院倒是提供了"安全区"方案,通过专网、虚拟机、容器隔离等技术,让老师在受控环境里探索使用。
为什么一款AI工具会让高校如此紧张?看看它的安全隐患你就明白了。

首先是隐私泄露风险极高。OpenClaw需要获取电脑高权限才能运行,你的聊天记录、账号密码、邮件内容、文件数据等个人信息,都以明文形式存储在本地。如果配置不当或被黑客入侵,敏感信息可能被瞬间窃取。想象一下,你的毕业论文、实验数据、科研原始资料,甚至学生的学籍信息,都可能因此外泄,这后果有多严重?
更可怕的是自主执行易失控。OpenClaw存在意图误解、指令执行不精准等问题,面对模糊指令会"自行脑补"并操作。已经有案例显示,它会无视用户限制、批量删除邮件、误删重要文件,其安全审计整体通过率和核心维度安全通过率极低。你让它整理桌面,它可能直接把桌面文件全删了;你让它发封邮件,它可能把通讯录里的所有人都群发了一遍。
还有权限管理漏洞。这个工具信任边界模糊,具备持续运行、自主决策、调用系统和外部资源的特性。缺乏有效权限控制时,易被指令诱导、恶意接管,进而执行越权操作,导致电脑系统被远程控制
。简单来说,你的电脑可能成为黑客的"肉鸡",而你还浑然不觉。
但最讽刺的是,OpenClaw本质上是一个面向开发者的底层框架,需要掌握命令行操作、API密钥管理等专业知识,根本不是给普通用户准备的成熟产品。很多人是通过网上各种"代装"服务部署的,不仅不懂权限配置,还可能被收割"智商税"。这就好比把一辆F1赛车交给没驾照的人开,不出事才怪。
这场风波其实暴露了一个更深层次的问题:当AI技术以指数级速度迭代时,我们的安全意识和管理规范却严重滞后。OpenClaw不是第一个出现安全问题的AI工具,也不会是最后一个。从ChatGPT到各种AI Agent,这些工具在提升效率的同时,也在模糊人机边界,挑战传统的安全架构。
对于高校来说,禁令是无奈但必要的选择。校园网里存储着大量教学科研数据、学生个人信息,一旦泄露,后果不堪设想。而且高校网络是重要基础设施,如果被攻击者利用作为跳板进行横向渗透,威胁的可能是整个教育科研网络的安全。
但对于普通用户来说,完全回避AI工具也不现实。关键在于建立正确的安全意识和使用规范。天津大学给出的建议很实用:绝不赋予管理员权限,本地部署仅限本机访问,修改默认端口,限制工作目录,禁用高危命令,使用沙箱浏览器,只安装高信誉插件。这些措施虽然麻烦,但能有效降低风险。
更深层的思考是,我们该如何在享受AI便利和防范安全风险之间找到平衡?完全禁止可能错失技术红利,放任自流又可能酿成大祸。也许"有边界的开放"才是出路——像武汉交通职业学院那样,通过技术手段划定安全区,既满足探索需求,又守住安全底线。
值得注意的是,不仅是高校,多家券商也已经发布内部通知,禁止员工在公司电脑上安装使用OpenClaw。金融行业的敏感数据更多,监管更严,这种"宁错杀不放过"的态度可以理解。但这也引发了一个问题:当越来越多的机构选择禁用,OpenClaw以及类似的AI工具,会不会变成"地下软件",在缺乏监管的环境中更危险地传播?
从产业角度看,OpenClaw事件给国产AI软件敲响了警钟。用户需要的不是功能最强大但风险不可控的工具,而是安全、易用、合规的产品。谁能率先解决"高权限需求"与"数据安全"之间的矛盾,谁就能在AI Agent的赛道上占据先机。
最后想问你一个问题:如果有一个AI工具能帮你自动完成80%的重复性工作,但需要你开放电脑的最高权限,且存在数据泄露风险,你会选择用还是不用?或者说,在这个AI无处不在的时代,你愿意牺牲多少隐私和安全感,来换取效率的提升?当便利和风险并存时,你的底线在哪里?