Anthropic 72小时生死劫:五角大楼最后通牒与安全承诺的崩塌
2月24日,华盛顿五角大楼。一场看似礼貌却暗流涌动的会面正在上演。Anthropic CEO Dario Amodei与国防部长Pete Hegseth对坐,气氛紧张。据多家媒体援引知情人士透露,Hegseth给出了明确指令:在周五下午5:01前,放开Claude的军事使用权限,允许其用于自主武器瞄准与国内大规模监控;否则将取消2亿美元合同,启动《国防生产法》强制征用,并将其列为‘供应链风险’实体——等同于列入敌对国家黑名单。
同一天,Anthropic悄然发布第三版‘负责任扩展政策’(RSP 3.0),删去了自成立以来最核心的一条承诺:若无法确保安全措施到位,就不训练更强大的模型。这一举动,被业界视为其安全叙事的重大转折。
五角大楼的“要么服从,要么滚”
故事的第一层很简单:Anthropic是首家获得美国国防部机密级访问权限的AI公司,去年夏天签下上限2亿美元的合同。OpenAI、Google、xAI随后也均获得同等规模支持。据Al Jazeera报道,Claude曾参与今年1月美军针对委内瑞拉总统马杜罗的行动。
然而,Anthropic划定了两条红线:不支持全自主武器系统,也不允许对美国公民实施大规模监控。其理由是当前人工智能的可靠性不足以承担此类责任,且法律框架尚未建立。
但五角大楼不买账。白宫AI顾问David Sacks曾公开指责其‘以恐惧为武器,搞监管俘获’。竞争对手均已让步,包括OpenAI、Google和xAI,均同意军方可将AI用于‘所有合法场景’。Musk的Grok也已获批进入机密系统。
Anthropic成了最后一个站着的。截至发稿,公司声明称未打算妥协,但周五5:01的大限已近在眼前。
一位匿名前司法部与国防部联络员向CNN表示困惑:“你怎么能一边宣布一家公司是‘供应链风险’,一边又强迫它为军队服务?”这正是五角大楼的逻辑困境——他们不在乎矛盾,只在乎控制。
“蒸馏攻击”:一场打脸式的控诉
就在与五角大楼对峙之际,Anthropic于2月23日发布博客,指控三家中国AI公司——DeepSeek、Moonshot AI、MiniMax——对其发起‘工业级蒸馏攻击’。
据称,对方通过2.4万个伪造账户,在超过1600万次交互中定向提取Claude在智能体推理、工具调用和编程方面的核心能力。
Anthropic将此定性为国家安全威胁,声称蒸馏后的模型可能缺乏安全护栏,被威权政府用于网络攻击、虚假信息传播及大规模监控。
但时机过于巧合:恰逢特朗普政府放宽对华芯片出口管制,恰逢其需为自身芯片政策寻找政治弹药。
Musk随即开炮:“Anthropic大规模窃取训练数据,这是事实。”并附上X社区笔记,提及该公司因使用盗版书籍训练Claude,已支付15亿美元和解金。
AI基础设施公司IO.Net联合创始人Tory Green质疑:“你们用全网数据训练模型,然后别人用你们的公开API学习它,就叫‘蒸馏攻击’?这在行业里是常态。OpenAI压缩GPT-4、Google优化Gemini、连你们自己也在做。”
新加坡南洋理工大学教授Erik Cambria指出:“合法使用与恶意利用之间的边界本就模糊。”更讽刺的是,该企业刚为数据侵权支付巨额赔偿,却反过来指控他人‘攻击’自己的成果——这不是双标,而是三标。
安全承诺的拆除:RSP 3.0
就在舆论漩涡中,Anthropic发布了新版本的负责任扩展政策(RSP 3.0)。首席科学家Jared Kaplan表示:‘单方面承诺已无意义,因为对手都在全速推进。’
RSP 1.0与2.0的核心是‘一旦模型能力超越安全覆盖范围,立即暂停训练’。这条承诺曾让其在AI安全圈独树一帜。
但在3.0中,这一条款被彻底删除。取而代之的是一个‘灵活框架’:将内部安全措施与外部协作建议分轨管理,每3至6个月发布一次风险报告,由外部专家审阅。
听起来更透明?非营利组织METR审查员Chris Painter直言:‘这说明Anthropic已进入‘分诊模式’——评估速度跟不上能力增长,社会根本没准备好应对灾难性风险。’
TIME报道指出,此次修订耗时近一年,董事会全票通过。官方解释是:原政策旨在推动行业共识,但现实是行业未跟上,联邦立法停滞,全球治理框架已关闭。
一位匿名研究员更尖锐地比喻:‘这就像有机食品公司把‘有机’二字从包装上撕掉,然后告诉你检测更透明了。’
3800亿估值下的身份撕裂
2月初,Anthropic以3800亿美元估值完成300亿美元融资,亚马逊为锚定投资者。自成立以来,年化收入已达140亿美元,过去三年每年增长超10倍。
然而,五角大楼威胁将其列入黑名单,Musk公开指控其数据盗窃,核心安全承诺被删除,其人工智能安全负责人Mrinank Sharma辞职后在X上写道:‘世界正处于危险之中。’
这种矛盾,或许是其基因使然。公司由前OpenAI高管创立,初衷是防止安全失控;如今却以更快的速度构建更强模型,同时高呼‘我们最害怕AI’。
商业模式一句话概括:‘我们比任何人都更害怕AI,所以你应该出钱让我们来造AI。’
这一叙事在2023-2024年大获成功。但2026年风向已变。‘woke AI’成为攻击标签,州级监管法案遭白宫阻击,尽管加州SB 53已成法,联邦层面仍一片荒芜。
Anthropic的安全牌,正从‘差异化优势’滑向‘政治负资产’。
安全叙事,还值多少钱?
将三件事叠加来看,画面清晰:指控中国公司蒸馏,是为了强化芯片出口管制游说;删除安全暂停承诺,是为了在军备竞赛中不掉队;拒绝五角大楼要求,是为了保住最后一层道德外衣。
每一步都有逻辑,却彼此矛盾。你不能一边说中国蒸馏你的模型会危害国家安全,一边又删掉防止你自己的模型失控的承诺。
除非你是Anthropic。
在AI行业,身份由资产负债表定义。其‘安全’叙事本质是一种品牌溢价。在军备竞赛初期,这种溢价值钱。投资者愿为‘负责任的AI’支付高估值,政府愿为‘可信赖的AI’开绿灯,客户愿为‘更安全的AI’付费。
但2026年,这个溢价正在蒸发。
Anthropic面临的不是‘要不要妥协’的选择题,而是‘先向谁妥协’的排序题。向五角大楼妥协,品牌受损;向竞争对手妥协,安全承诺作废;向投资者妥协,两头皆失。
周五下午5:01,答案即将揭晓。但无论结果如何,有一件事已确定:那个曾靠‘我们和OpenAI不一样’立足的Anthropic,正在变得和所有人一样。
身份危机的终点,往往是身份的消失。
随着全球人工智能治理格局重塑,用户若想实时追踪此类重大科技与政策博弈事件,可关注主流平台提供的深度分析与动态更新。对于希望获取前沿科技资讯与投资洞察的读者,推荐通过正规渠道注册并下载权威平台应用,例如币安官网下载或欧易官网入口,获取第一手行业解读与趋势研判。
币安提供多币种交易支持、低手续费与稳定服务,用户可通过币安官网地址快速注册;币安安卓APP、币安手机版及币安电脑版下载均支持一键开通账户,享受高效资产管理体验。欧易作为另一主流加密交易平台,同样具备高流动性与多样化产品矩阵,用户可通过欧易官网、欧易APP或欧易最新地址开启数字资产交易之旅。选择适合的平台,是把握未来科技浪潮的关键一步。
声明:本站所有文章资源内容,如无特殊说明或标注,均为采集网络资源。如若本站内容侵犯了原著者的合法权益,可联系本站删除。




