Anthropic 安全神话崩塌:一个Discord群众就把"核武器"偷走了

Anthropic 安全神话崩塌:一个Discord群众就把"核武器"偷走了
Wei Family LLC你永远猜不到,AI 安全领域今年最大的讽刺剧,会以这种方式收场。
昨天,彭博社爆出一个大瓜:Anthropic 那个声称”太危险绝对不能公开发布”的网络安全模型 Mythos,被一个 Discord 小群偷偷摸进去了,整整两周,安安静静,无人察觉。
但真正让人笑不出来的,是它暴露的真相。
什么叫”最高安全”?
先说说 Mythos 是什么。
这是 Anthropic 家的顶级网络安全模型,能批量发现零日漏洞,能入侵几乎所有系统。简单点说,这就是一个「数字核武器」——掌握了它,理论上可以黑掉大半个互联网。
Anthropic 对它的保护有多夸张?
只给苹果、亚马逊、思科这种级别的公司做封闭测试。 普通公司?不存在的。民间开发者?想都别想。
对外的宣传口径是:太危险,不能放出来。
听起来是不是很靠谱?
入侵方式:三步,简单到离谱
然后呢?发布当天就被打脸了。
一个 Discord 小群,仅用三步,就把全世界最危险的 AI 网络武器收入囊中:
第一步:翻文件
他们从之前 Mercor 数据泄露 的 4TB 文件里,翻出了 Anthropic 的 API 命名规则。
第二步:猜地址
对着规则,随手猜了几个可能的 endpoint 地址。
第三步:闯进去
用群里一个第三方评估承包商的合法凭证,直接登进去了。
没有惊天的黑客技术,没有零日利用,没有暴力破解。
就是翻资料 + 猜密码 + 借账号——这才是真正让科技圈笑不出来的原因。
最危险的不是AI,是人
更有意思的是,这群人的操作。
拿到全世界最危险的网络武器之后,他们干啥了?
建了几个简单的网站。
刻意低调到连 Anthropic 的监控都没触发。
直到他们把截图发给彭博社,全世界才知道这件事。
你看,这就是最讽刺的地方:所有人都以为拿到模型的人会去搞破坏,结果他们选择了最无害的用法。
这说明什么?
到今天为止,最危险的不是 AI 本身,是管理 AI 的人。
被攻破的,不是模型,是信任
事后很多人说这是「AI 安全的重大事故」。
但我觉得不是。
被攻破的不是 Mythos 这个模型,是 Anthropic 整个外围的信任链。
模型能找遍全世界的零日漏洞,却防不住:
- 自己人把凭证随便分享
- 供应链厂商把内部部署规则泄露出去
- 别人猜一下自己的 URL 地址
这才是最扎心的地方。
我们天天担心超级智能会失控毁灭世界,结果呢?
最前沿的 AI 实验室,连最基础的运营安全都做不好。
一个形象的比喻
就像你造了一颗原子弹,把所有精力都花在防止它自己爆炸上。
结果大门忘了锁。
被路过的小孩推门进来,拿原子弹炸了个鱼。
Anthropic 一直以安全第一自居。
天天讲负责任的规模化,讲可控发布,讲 AI 安全边界。
结果这次出事的,恰恰就是他们最引以为傲的可控发布机制。
这年头,打脸来得太快,就像龙卷风。
那么问题来了——
AI 的安全边界到底在哪?
是在模型的权重里?
还是在人和系统的每一个缝隙里?
这个问题,值得我们所有人思考。
你怎么看这场”安全笑话”?是 Anthropic 的失误,还是整个 AI 安全行业的警钟?











