
美政府罕见封杀本国AI企业Anthropic
【美政府罕见封杀本国AI企业Anthropic】2026年2月27日,特朗普政府下令全面封杀AI明星企业Anthropic,由于 Anthropic 坚决拒绝军方提出的将人工智能应用于大规模监控以及全自主武器系统的要求,这一立场引发了美国政企之间一场罕见的冲突。据相关消息,Anthropic 是首家获准接入美军机密网络的 AI 公司,其合同价值高达 2 亿美元。在合同签订过程中,Anthropic 坚持保留两项关键禁令:一是严禁将 AI 用于针对美国公民的大规模监控活动;二是禁止将 AI 应用于全自主武器系统,即那种无需人类干预、可自动实施杀伤行为的武器。然而,五角大楼却提出要将相关条款修改为“允许 AI 用于所有合法用途”,双方就此未能达成一致,谈判最终破裂。特朗普在谈判截止前1小时通过社交媒体宣布:所有联邦机构立即停用Anthropic技术,国防部需在6个月内完全剥离其产品,并威胁追究民事刑事责任。这不是针对华为或TikTok的惯常戏码,挨刀的是土生土长的“美国宠儿”;罪名也不是“通中”或“窃密”,而是拒绝将人工智能用于对美国公民的大规模监控和全自主武器系统。一家坚持要在合同中保留伦理“红线”的企业,被自家政府以“供应链风险”这种通常留给敌对国家的理由封杀 。这不仅是Anthropic的至暗时刻,更是人类科技史上一次关于“良知”与“霸权”的惨烈摊牌。究竟发生了什么?这场“政企决裂”背后,又藏着怎样的惊涛骇浪?
故事的起点充满了硅谷理想主义的色彩。2025年7月,由OpenAI前高管达里奥·阿莫迪创立的Anthropic,拿下了一份极具象征意义的合同——价值2亿美元,成为首家获准进入美军机密网络的AI公司 。这一刻,Claude模型似乎站在了美国科技霸权的中心。然而,Anthropic终究不是那种甘愿成为战争机器的冰冷代码。在随后的合同细则谈判中,阿莫迪坚持要扣上“两道枷锁”:1、绝不用于对美国公民的大规模监控(No mass surveillance);2、绝不用于完全自主武器系统(No fully autonomous weapons),即必须保留“人在回路”的决策权 。
这在五角大楼看来,无疑是“僭越”。国防部长赫格塞思在2月24日与阿莫迪的会晤中拍桌子:必须改为“所有合法用途均可使用” 。所谓“合法”,在战时状态和国家安全面前,是一张可以无限延伸的白纸。国防部发言人甚至嘲讽:“我们绝不允许任何公司对我们的作战决策方式指手画脚。”
矛盾在1月份的一次美军行动中彻底激化。据透露,美军在对委内瑞拉的军事行动中,已悄然使用了Claude。Anthropic发现后不仅没有暗自窃喜,反而向五角大楼发出质询函 。这种“不识抬举”彻底惹恼了信奉“美国优先”的特朗普政府。
随着周五下午5:01的期限逼近,赫格塞思放出狠话:要么接受条款,要么被列为“供应链风险”,甚至援引《国防生产法》强制镇压 。阿莫迪在最后一刻发表声明,展现了知识分子的固执:“这些威胁不会改变我们的立场:我们无法违背良知,答应他们的要求。” 一小时后,特朗普的大棒砸下。他在社交媒体上怒斥控制公司的“极端左翼疯子”犯下“灾难性错误”,并宣布所有联邦机构立即停用Anthropic技术,国防部需在6个月内完全剥离 。他甚至威胁追究“重大民事与刑事责任”。那一刻,硅谷的寒蝉效应达到了顶峰。
这场罕见的“封杀”并非简单的商业纠纷,它释放出三个极其危险的信号:1. “供应链风险”的政治化滥用。将本国头部AI企业列为“供应链风险”,这在美国历史上极为罕见 。这一定位以往留给华为、大疆等“外国对手”,如今却扣在遵纪守法的本国企业头上。这意味着,在美国政府眼中,不符合政治正确和军事需求的“思想”,已成为比外部威胁更危险的“病毒”。国防部副部长甚至辱骂阿莫迪是“骗子,还患有上帝情结” 。
2. 撕掉最后一块“伦理遮羞布”。五角大楼在去年发布的一份备忘录中明确写道,国防部不得采用“融入意识形态‘调校’”的AI模型 。所谓的“意识形态”,正是对平民的保护、对杀戮的敬畏。当赫格塞思要求AI必须“不受限制”时,其实是在宣告:在美国的绝对武力面前,任何伦理约束都是碍事的废纸。
3. 硅谷的撕裂与站队。令人动容的是,Anthropic并非孤军奋战。谷歌与OpenAI的超过550名员工签署公开信《我们不会被分裂》,声援Anthropic,呼吁拒绝“在无人类监督的情况下自主杀人” 。OpenAI CEO奥特曼也罕见发声,反对以《国防生产法》威胁企业 。
但另一边,埃隆·马斯克则在X上冷嘲热讽,称Anthropic“仇视西方文明”,他旗下的xAI正摩拳擦掌准备接盘这份合同 。
短期看,Anthropic损失惨重。2亿美元的合同打了水漂,3800亿美元的估值摇摇欲坠,IPO之路蒙上阴影 。长期看,美国军方同样是输家。正如《华尔街日报》那篇酸溜溜的社论所言:“中国人肯定为此欢呼雀跃。” 美国印太司令部此前是Claude的主要用户之一,如今不得不临阵换将,寻找替代品。那些最顶尖、最珍视伦理的AI人才,未来还会愿意与五角大楼合作吗?乔治城大学专家劳伦·卡恩担忧:如果企业认定“得不偿失”,最终受影响的是作战人员 。
更深层的影响在于,特朗普此举向全世界AI企业宣告:如果你想跟美国军方做生意,就必须交出你的灵魂。这逼迫所有后来者必须站队——是做一只没有底线的战争猎犬,还是做一家有骨气的商业公司?
阿莫迪在声明中写道:“世界正处于危险之中。” 这份危险不仅来自AI或生物武器,更来自当权力试图吞噬一切边界时的傲慢。Anthropic输了这一仗,但它捍卫的那条“红线”——拒绝大规模监控、拒绝自主杀人机器——却像一颗种子,埋进了每个关注AI未来的人心中。或许在未来的某一天,当潘多拉的魔盒完全打开时,人们才会想起,2026年2月27日,曾有一家“愚蠢”的公司,试图用血肉之躯,去挡住那辆名叫“国家利益”的战车。
特朗普赢了现在,但他可能输掉了未来。而那个未来,关乎我们每一个人。