Anthropic 安全神话崩塌:一个Discord群众就把"核武器"偷走了

你永远猜不到,AI 安全领域今年最大的讽刺剧,会以这种方式收场。

昨天,彭博社爆出一个大瓜:Anthropic 那个声称”太危险绝对不能公开发布”的网络安全模型 Mythos,被一个 Discord 小群偷偷摸进去了,整整两周,安安静静,无人察觉。

但真正让人笑不出来的,是它暴露的真相。


什么叫”最高安全”?

先说说 Mythos 是什么。

这是 Anthropic 家的顶级网络安全模型,能批量发现零日漏洞,能入侵几乎所有系统。简单点说,这就是一个「数字核武器」——掌握了它,理论上可以黑掉大半个互联网。

Anthropic 对它的保护有多夸张?

只给苹果、亚马逊、思科这种级别的公司做封闭测试。 普通公司?不存在的。民间开发者?想都别想。

对外的宣传口径是:太危险,不能放出来。

听起来是不是很靠谱?


入侵方式:三步,简单到离谱

然后呢?发布当天就被打脸了。

一个 Discord 小群,仅用三步,就把全世界最危险的 AI 网络武器收入囊中:

第一步:翻文件

他们从之前 Mercor 数据泄露 的 4TB 文件里,翻出了 Anthropic 的 API 命名规则。

第二步:猜地址

对着规则,随手猜了几个可能的 endpoint 地址。

第三步:闯进去

用群里一个第三方评估承包商的合法凭证,直接登进去了。

没有惊天的黑客技术,没有零日利用,没有暴力破解。

就是翻资料 + 猜密码 + 借账号——这才是真正让科技圈笑不出来的原因。


最危险的不是AI,是人

更有意思的是,这群人的操作。

拿到全世界最危险的网络武器之后,他们干啥了?

建了几个简单的网站。

刻意低调到连 Anthropic 的监控都没触发。

直到他们把截图发给彭博社,全世界才知道这件事。

你看,这就是最讽刺的地方:所有人都以为拿到模型的人会去搞破坏,结果他们选择了最无害的用法。

这说明什么?

到今天为止,最危险的不是 AI 本身,是管理 AI 的人。


被攻破的,不是模型,是信任

事后很多人说这是「AI 安全的重大事故」。

但我觉得不是。

被攻破的不是 Mythos 这个模型,是 Anthropic 整个外围的信任链。

模型能找遍全世界的零日漏洞,却防不住:

  • 自己人把凭证随便分享
  • 供应链厂商把内部部署规则泄露出去
  • 别人猜一下自己的 URL 地址

这才是最扎心的地方。

我们天天担心超级智能会失控毁灭世界,结果呢?

最前沿的 AI 实验室,连最基础的运营安全都做不好。


一个形象的比喻

就像你造了一颗原子弹,把所有精力都花在防止它自己爆炸上。

结果大门忘了锁。

被路过的小孩推门进来,拿原子弹炸了个鱼。


Anthropic 一直以安全第一自居。

天天讲负责任的规模化,讲可控发布,讲 AI 安全边界。

结果这次出事的,恰恰就是他们最引以为傲的可控发布机制

这年头,打脸来得太快,就像龙卷风。

那么问题来了——

AI 的安全边界到底在哪?
是在模型的权重里?
还是在人和系统的每一个缝隙里?

这个问题,值得我们所有人思考。


你怎么看这场”安全笑话”?是 Anthropic 的失误,还是整个 AI 安全行业的警钟?