▲现代战争模式已经被AI完全改造


在美以伊冲突中,人工智能(AI)的使用正引发全球关注和担忧。分析人士指出,4年前,在俄乌冲突中,AI只能算战场上的“辅助工具”,而现在AI已逐步演变为战场上的“决策参与者”。 美国AI企业Palantir首席技术官希亚姆·桑卡尔近日称,本轮伊朗冲突很可能被铭记为AI发挥核心作用的第一场重大军事冲突,代表着现代战争的一个转折点。未来,人们回顾这次伊朗冲突时会发现,这是第一次真正由技术,特别是人工智能推动、加强和大幅提高效率的大规模作战行动。 回顾这两场冲突中AI应用的深化,现代战争模式已被AI完全改造。

两场较量:

AI从“打辅助”到参与“决策”

美国陆军退役步兵军官、《新人工智能冷战》一书作者罗伯特·马吉尼斯写道:“乌克兰证明了AI正在重塑战争格局;伊朗战争则正在证明,AI正在重塑一切——供应链、金融市场以及开发这些AI工具的公司。每一个拥有汽车、智能手机、心脏起搏器或核磁共振成像仪的人,都与这场变革的最终走向息息相关。”

在俄乌冲突中,AI主要用于无人机图像识别、情报整合与战场监测。虽然AI系统可以帮助军方更快识别目标并提高打击精度,但最终决策仍高度依赖人工判断。


▲Anthropic公司的Claude据视觉中国

在此次美国和以色列对伊朗相关目标的打击行动中,AI的介入程度和行动能力明显提升,AI已经能够批量生成打击目标并进行优先级排序,大幅压缩从“发现目标”到“实施打击”的时间。

与此同时,Palantir等企业提供的数据整合平台,也正在将AI应用从前线侦察扩展至战略分析和情报融合,推动战争向“数据驱动”转型。

美国中央司令部司令布拉德·库珀在社交媒体上写道,五角大楼在伊朗战事中,“利用各种先进的人工智能工具,在几秒钟内筛选海量数据”。AI工具能够“排除干扰”,并“比敌人反应更快地做出更明智的决策”。

变革核心:

Maven系统在作战中的全链条应用

从俄乌冲突到伊朗战事,AI对现代战争的改造最受关注的工具,是美国国防部主导开发的Maven系统。Maven系统于2017年启动,其核心功能在于整合海量战场数据,并通过机器学习快速识别潜在军事目标。在实际运作中,该系统可同时处理多源情报,并自动标注导弹发射点、军事设施及人员活动轨迹。

此次伊朗冲突中,Maven系统的表现引发全球关注。分析人士指出,在伊朗战场环境中,Maven最突出的作用体现在“目标生成与筛选”环节。Maven将卫星图像、无人机视频、雷达数据和信号情报融合到一个统一的界面中,使操作人员能够在短时间内生成大规模打击目标清单,并根据威胁程度和战术优先级进行排序。这种打击速度和效率,在纯粹依靠人工目标定位的情况下几乎不可想象。


▲Maven将卫星图像、无人机视频、雷达数据和信号情报融合到统一的界面中

同时,研究该领域的学者表示,AI可以大幅缩短复杂打击行动的计划时间,这种现象被称为“决策压缩”。

英国纽卡斯尔大学政治地理学高级讲师、杀伤链专家克雷格·琼斯表示,AI可以自动给出打击目标的建议,速度比人的思考速度要快得多。这让袭击发起方能够同时获得速度和规模优势,同时发动暗杀式袭击和大规模反击敌方的弹道导弹,这在此前可能需要数天甚至数周的时间,但现在可以同时完成。

伦理困境:

AI军事作战工具挑战“人类决策链”

专家认为,随着决策链条被AI不断压缩,相关伦理与责任问题也随之凸显,成为未来战争中难以回避的议题。

尽管Maven显著提升了战争中的决策速度,但该系统对军事目标的识别准确率仅为60%,仍明显低于人类分析员约84%的水平。在复杂战场环境中,AI仍然会出现明显误判与遗漏。

虽然希亚姆·桑卡尔将伊朗战事称为AI发挥核心作用的第一场重大军事冲突,但这一表态也引发了舆论对“人类是否仍在战争决策中扮演核心角色”的质疑,尤其是在涉及打击目标选择时,算法建议与人为判断之间的边界变得愈发模糊。


▲近日,美军称使用了“过时数据”导致伊朗一学校被“误炸”,160余人遇难 据央视新闻

有分析认为,这种模糊的边界直接触及国际人道法中,关于区分原则与比例原则的核心:如果算法无法稳定区分战斗人员与平民,或无法准确评估附带损害,那么将其嵌入打击链条就可能放大误伤风险。因此,围绕“应由谁对AI辅助决策负责”的问题也成为政策与伦理讨论的焦点。

另外,AI大模型(LLM)进入军事体系后的监管治理逻辑问题也是目前各方关注的重点。Anthropic与美国军方在此次对伊朗的袭击中,双方在关键问题上出现分歧,包括模型是否应被用于直接打击链条、是否必须对“人类在决策链条中”进行强制监督,以及设定限制大模型输出限制以降低误判风险。

此次Anthropic与美国政府之间的矛盾,其实凸显出一个更深层矛盾:即前沿AI公司强调安全约束与责任框架,而军方则更关注实战效率与部署速度。

发展失衡:

追求对敌杀伤力忽视民用数据

就进一步拓展而言,与任何技术在初始大规模应用时都会面临的伦理道德困境相似,目前有评论担忧目前军事人工智能领域存在一个根本性伦理失衡现象:大规模军事人工智能投资、研发和合作激励都不成比例地偏向“最大杀伤力”、提升作战速度和作战规模,而那些能够确保交战双方遵守国际人道主义法,或者在战争中加强对平民保护的人工智能能力,却被忽视而陷入资金不足的困境。

曾担任美国国防部民事保护中心法律与政策顾问的克里斯·罗杰斯评论称,杀伤力和作战效能已成为军事人工智能发展的默认组织原则。


▲创意配图 据图虫创意

罗杰斯认为,目前各国军队在发展军事人工智能能力时,都面临着严重的民用数据匮乏问题。军队掌握着前所未有的海量敌军数据,却对平民和普通社会环境知之甚少。民用环境和民防的基础数据基础设施,例如人道主义组织数据、电力网络等关键基础设施数据以及标准化的平民伤害报告系统,一直被系统性地忽视,这种不平衡让人震惊且担忧。

目前,联合国已经开始在这一问题上作出了行动。2024年12月24日,联合国大会通过了题为“军事领域的人工智能及其对国际和平与安全的影响”的决议,这是联大首次就这一主题通过决议。

红星新闻记者 卿滢

编辑 郭庄 审核 高升祥