美伊战争中AI的表现,是统治阶级用真金白银和实战数据,自己戳破了“AI神话”和“唯武器论”的泡沫。

文 | 面包与玫瑰

在系列的前两篇中(AI能写论文,但写不了诗——论人工智能的创作边界与劳动者的主体性,劳动者是历史的唯一作者——论AI时代的实践主体性),我们分别讨论了AI在写作领域的工具性边界,以及AI作为生产力质变如何加速资本主义“排除劳动者”的矛盾。本文将从战场出发,以美伊战争中AI的实际表现,揭示AI在统治阶级手中如何暴露其根本局限,以及为什么“人的主体性”永远是技术无法替代的。

一、AI走上战场:五角大楼的“算法神话”

在2026年美伊战争中,五角大楼将AI作为核心武器大规模投入实战,试图证明“算法可以赢得战争”。美国借助一款名为“梅文智能系统”的人工智能任务指挥系统,在开战首个24小时内便对1000个目标实施打击,打击规模约为2003年伊拉克战争的两倍。该系统将AI的运算能力用到了极致——从海量情报中筛选、识别、分类目标,将原本需要一天的目标识别工作缩短至一小时。开战十天内,美军打击的目标数量已达5000个。

然而,当这些由算力驱动的“上帝视角”落地,现实却给了美国一记沉重的耳光。《福布斯》杂志的分析指出,该系统在目标识别和分类上的总体准确率仅为60%左右,而人类分析师的准确率高达84%。这意味着AI每选定5个目标,就有2个可能是错的,甚至是无关紧要的。

二、战略层面的失败:AI无法理解战争的政治目的

美国投入最先进的AI算力,试图通过“算法最优解”摧毁伊朗的抵抗能力。结果事与愿违:伊朗的生产体系、指挥系统和抵抗意志均未被瓦解。

为什么AI在战略层面必然失败?

第一,AI没有阶级立场,无法理解“战争的政治目的”。战争是政治的继续。美国发动战争的政治目的是遏制伊朗地区影响力、维护美元霸权、转移国内矛盾。而AI只能处理“如何更高效地摧毁目标”,无法回答“摧毁这些目标是否服务于最终政治目的”。当AI生成5000个轰炸点时,它不知道哪些目标是真正动摇伊朗政权的“命门”,哪些只是无关痛痒的“表皮”。

第二,AI无法理解“抵抗意志”这种非物质的力量。伊朗的抵抗能力不仅在于导弹、无人机、地下工厂,更在于“反美”作为政权合法性的基石、在于民众对制裁的共同承受、在于革命卫队与基层社会的深度绑定。这些是历史、文化、宗教、阶级利益交织形成的“社会意志”。AI的数据模型里没有这些变量,它只能看到可见的物理目标,无法计算“民心”“士气”“意识形态韧性”。

第三,AI无法做出符合“阶级利益”的战略选择。美国统治阶级的利益是:用最小成本、最低伤亡、最短时间,实现伊朗屈服。但AI的“理性计算”可能导向一个与统治阶级根本利益相悖的结论——比如,为了摧毁某个地下工厂需要投入大量兵力,导致美军伤亡激增、战争长期化、国内反战浪潮高涨。AI不会自动权衡这些政治代价,因为它没有“阶级利益”的概念。

因此,AI在战略层面只能当“参谋”,不能当“统帅”。它可以整理信息、分类目标、评估毁伤,但“打不打”“打到什么程度”“哪些目标真正值得摧毁”这些根本问题,必须由人来回答。而人的回答,取决于他的阶级立场和价值判断。

三、战术层面的困境:算法偏见、平民伤亡与AI无法理解的伦理代价

美国AI系统在战术层面同样问题百出:误判目标、浪费弹药、造成平民伤亡。其中一个核心概念就是“算法偏见”。

什么是算法偏见?

算法偏见是指AI系统在数据处理和决策过程中,因训练数据、算法设计或应用场景的局限性,产生的系统性、非随机的偏差。这种偏见不是“AI有恶意”,而是技术本身的结构性缺陷。

技术原因

1. 训练数据不完整。AI识别军事目标的能力依赖于训练数据。如果数据缺乏“伪装成民用设施的军事目标”,AI就会产生“认知盲区”。伊朗恰恰善于将军事设施分散部署、与民用基础设施混合,导致AI识别准确率只有60%。

2. 标注者的偏见。人类标注“什么是军事目标”时,其立场、认知水平会影响结果。美国情报分析员可能过度敏感,将学校误判为军事仓库。

3. 算法优化目标与真实任务不匹配。AI被训练为“最大化识别准确率”,但战争中的真正目标是“有效摧毁敌人作战能力,同时避免平民伤亡”。二者并不等价。

4. 缺乏对战略意图的领会。AI不知道哪个目标是“今晚必须摧毁以配合外交谈判”,哪个可以推迟。它无法领会战略优先级。

最致命的悖论:AI生成的目标清单,人力无法逐项检验(工作量太大、时间不允许);让AI自我检验,结果又一样(算法偏见自我强化)。最终,这变成了一场昂贵的武器浪费表演——大量精确制导弹药被浪费在错误或低价值的目标上,而真正的战略目标(伊朗的生产体系、指挥系统、抵抗意志)毫发无损。还不如人自己直接做:宁可慢一点,但至少每一击都打在要害上。

平民伤亡:AI无法理解的伦理与政治代价

AI系统对平民造成的伤亡,在统治阶级眼中或许只是“附带损害”,但AI无法理解的是:这些伤亡会转化为被侵略国家人民的愤怒与团结,会在国际舆论上形成对美国的谴责浪潮,会反噬美国统治阶级自身的政治合法性。历史上,越南战争的美莱村屠杀、阿富汗战争的婚礼bombing,都曾激起全球反战运动,最终成为统治阶级无法承受的政治压力。

AI不懂这些。它不知道炸死一所小学的儿童,会在社交媒体上引发怎样的舆论风暴;不知道一张平民尸体的照片,会让多少中立国家转向反对美国;不知道这些愤怒最终会转化为对美国国内反战运动的燃料,转化为对特朗普政府战争政策的民意崩塌。这些都是人类的伦理价值判断——是千百年来文明积淀的对生命的尊重、对无辜者的同情、对战争罪行的愤怒。AI的算法里没有这些参数。它只能计算“目标价值”,无法计算“道德成本”。

这正是AI工具性的根本边界:它可以高效地摧毁,却无法理解摧毁之后的政治、伦理、社会后果。而这些后果,往往比摧毁本身更具决定性。

四、AI的“理性选择”与好莱坞的扭曲叙事

电影《我,机器人》中有一个经典场景:主角与孩子同时落水,机器人根据概率计算——救主角存活概率更高,于是选择了救主角,放弃孩子。主角因此终生警惕AI,认为AI冷酷无情。

这个情节的逻辑,其实完全说反了。

第一,AI的选择恰恰证明它没有“意识”,只有“算法”。 它只是在执行预设的优化目标:“最大化存活人数”。它没有“亲情”“道德”这些人类独有的价值判断。这恰恰说明:AI是工具,不是主体。

第二,真正的问题不是AI冷酷,而是人类工程师没有在算法中嵌入“伦理规则”。 如果人类事先写入“优先救援儿童”,AI就会救孩子。问题的根源在于人的责任,不是AI的“意识”。

第三,电影把AI的“算法缺陷”扭曲成了“AI的邪恶本性”。 它制造了一种“AI一旦强大就会反抗人类”的恐怖叙事,让观众害怕技术本身,而不是追问:谁在制造AI?谁在设定规则?AI为谁服务?

这种“AI恐怖论”的意识形态功能是:转移矛盾,让劳动者害怕技术,而不是害怕资本;掩盖AI的真正威胁——资本用AI剥削劳动者;维护技术精英的神话,巩固他们的垄断地位。

五、AI的一切,建立在劳动人民的物质基础上

这是一个根本性的、不可回避的真相:AI的算力、数据、能源、硬件,全部依赖于劳动人民的劳动。

· 算力:AI芯片的制造,需要矿工开采硅、稀土,需要工人操作光刻机。

· 数据:AI的训练数据来自亿万劳动者的日常活动。

· 能源:AI数据中心耗电量惊人,离不开煤矿工人、石油工人、电力工人。

· 硬件:服务器、光缆、基站、卫星,每一样都是工人组装、安装、维护的。

AI不是悬浮在空中的“魔法”,而是实实在在建立在劳动人民的血汗之上的。 如果劳动者集体停止劳动——不挖矿、不发电、不运输、不维护——AI系统会在几天内瘫痪。

这就是劳动者最根本的力量:他们掌握着社会运转的物质基础。统治阶级可以控制算法,但控制不了人心。当劳动者“实在没有办法了”,他们随时可以“收回”自己给予出去的一切——包括AI运行所需的物质条件。

六、劳动者的智慧:技术是死的,人是活的

AI的确增强了统治阶级的控制能力,但这并不意味着劳动者束手无策。历史一再证明:劳动者的智慧和创造力,永远是技术无法替代的。

· 地道战:在武器、技术十分落后的情况下,劳动人民因地制宜发展出地道战,让敌人的飞机、大炮、坦克失去用武之地。

· 伊朗伪装迷惑AI:将军事设施分散部署、与民用基础设施混合,使用假目标、伪装网,让AI识别准确率降至60%。

· 越战中的“胡志明小道”:美军狂轰滥炸,但炸不完、堵不住。因为每一条路都是人用脚走出来的,每一车物资都是人用肩膀扛过去的。

技术再先进,也是人创造的;技术再精密,也有漏洞可钻;技术再高效,也需要劳动者来维持。劳动者的智慧、创造力、组织能力、斗争意志,永远是技术无法替代的。

七、AI替代劳动者的死穴:消费力消失,资本自杀

资产阶级宣传“AI只会替代一部分劳动者”,但不敢告诉你:被替代的那一部分,他们的消费力就永远消失了。

· 被替代的劳动者失业、收入下降、消费能力萎缩

· 市场需求下降,企业利润下滑

· 企业裁员、倒闭,进一步加剧消费萎缩

· 这是一个死亡螺旋

即使AI只替代了10%的劳动者,这10%的人失去消费力,就会导致总需求下降,进而引发生产过剩危机。资本无限增殖的欲望,与消费力萎缩的现实,形成不可调和的矛盾。AI越发达,这个矛盾越尖锐。

AI替代劳动者,不是在“优化”经济,而是在“自毁”经济。 资产阶级不敢告诉劳动者这个真相,因为他们自己正被资本逻辑逼着走——不裁员,别人就裁员;不降本,就被淘汰。每个资本家的“自救”,都在加速整个系统的崩溃。

八、劳动者的应对策略:不是恐惧AI,而是夺取AI

面对AI,劳动者需要的是清醒,不是恐惧。

第一,看清AI的本质:它是工具,不是主体。 劳动者的判断、创造、情感、组织能力,是AI永远无法替代的。

第二,利用AI的便利,而不是被AI奴役。 劳动者可以学习AI、掌握AI,用AI来组织、传播、协调。正如劳动者用AI完成分析文章——AI被用来打破知识垄断,而不是被用来替代劳动者。

第三,根本出路:改变生产关系,让AI为劳动者服务。 只要生产资料掌握在资本手中,AI就是剥削的工具。只有劳动者共同占有生产资料、共同决策、共同分享技术进步的红利,AI才能从“替代劳动者”变成“解放劳动者”。

九、结论:AI是资本主义的加速器,不是救世主

美伊战争中AI的表现,是统治阶级用真金白银和实战数据,自己戳破了“AI神话”和“唯武器论”的泡沫。

· 在战略层面,AI无法理解战争的政治目的,无法做出符合阶级利益的判断

· 在战术层面,算法偏见和自我检验悖论导致大量浪费和误伤;AI更无法理解平民伤亡带来的伦理与政治代价——这些是人类独有的价值判断

· AI的“理性选择”恰恰证明它没有意识,只是工具

· 真正的威胁不是AI觉醒,而是资本用AI剥削劳动者

AI替代劳动者,是资本主义的自杀行为。 被替代的劳动者失去消费力,市场需求萎缩,生产过剩危机爆发。资本无限增殖的欲望与消费力萎缩的现实,形成不可调和的矛盾。

劳动者的任务,不是恐惧AI,也不是崇拜AI,而是:认清AI只是工具,劳动者才是社会的主人;利用AI提高自己的组织能力和斗争能力;在“实在没有办法了”的时候,用集体的力量,收回被资本夺走的一切。

当劳动者团结起来,AI就不再是资本压迫的工具,而将成为劳动者解放的武器。因为AI的一切——算力、数据、能源、硬件——都依赖于劳动人民的劳动。劳动者有权力,也有能力,决定AI为谁服务。

(本文基于2026年4月前的公开信息及历史唯物主义分析框架撰写)