天龙八部私服版

作者:张三 | 发布日期:2026-03-24 00:29:04 | 阅读时间:5分钟

今日随机新闻 (错误情报+AI决策 美“战斧”误击伊朗小学酿成战争悲剧.txt)

<p></p><p>过去几周,除美伊间持续紧张的军事冲突之外,一场与之密切相关且影响深远的冲突也正在展开。冲突双方分别是美国国防部和近年来迅速崛起、以“安全的人工智能”为口号的硅谷公司——Anthropic。</p><p>尽管Anthropic在美方对伊朗动武前一天遭“封杀”,美军被指在军事行动中仍然广泛使用了该公司的AI技术。</p><p>而就在美伊战争首日,伊南部一所小学被“战斧”导弹夷为平地。美国方面披露的信息显示,美军的错误情报叠加AI决策的双重失误酿成了这场悲剧。</p><p>那么,AI是否应该参与战争?AI决策的边界在哪里?战争是否已进入“虽然名义上有人类在场,但扣动扳机的却是AI”的时代?</p><p>美军被指对伊朗军事行动中</p><p>广泛借助“梅文智能系统”</p><p>3月21日,英国方面援引一份内部备忘录称,美国国防部计划将数据分析公司帕兰蒂尔的“梅文智能系统”(Maven Smart System)列为美军的正式备案项目。美国国防部副部长费恩伯格表示,此举将有助于梅文系统在各军种的整合应用。</p><p>美中央司令部:对伊朗打击数量为2003年对伊拉克行动的两倍</p><p>值得注意的是,在本轮美伊冲突中,五角大楼强调美国开展的是“有限打击”。但据美国方面消息,由于广泛借助了“梅文智能系统”,美军在战争中的打击速率显著提升。</p><p>据美国方面消息,在发动袭击的最初24小时内,美军就对伊朗约1000个目标实施了军事打击。</p><p class="f_center"><img onerror="javascript:this.style.opacity = 0;" src="https://nimg.ws.126.net/?url=http%3A%2F%2Fcms-bucket.ws.126.net%2F2026%2F0323%2Fc2524dfdj00tcc898002tc001hc00u0c.jpg&thumbnail=660x2147483647&quality=80&type=jpg" /></p><p>主持人 斯图尔特:一天之内打击1000个目标,我不清楚他们是怎么计算的。但这是不是一个非同寻常的数字?</p><p>加州大学伯克利分校 人工智能学高级研究学者 莎拉·肖克:是的。美国中央司令部表示,这是2003年针对伊拉克“震慑行动”中打击数量的两倍。</p><p>彭博社评论称,本轮美伊冲突标志着人工智能辅助战争进入大规模应用的新纪元。</p><p class="f_center"><img onerror="javascript:this.style.opacity = 0;" src="https://nimg.ws.126.net/?url=http%3A%2F%2Fcms-bucket.ws.126.net%2F2026%2F0323%2Fd8847f54j00tcc898002wc001hc00u0c.jpg&thumbnail=660x2147483647&quality=80&type=jpg" /></p><p>“梅文智能系统”由美国私营企业帕兰蒂尔科技公司研发,嵌入了硅谷人工智能公司Anthropic为五角大楼专研的Claude大语言模型。</p><p class="f_center"><img onerror="javascript:this.style.opacity = 0;" src="https://nimg.ws.126.net/?url=http%3A%2F%2Fcms-bucket.ws.126.net%2F2026%2F0323%2Ff757d60bj00tcc898003mc001hc00u0c.jpg&thumbnail=660x2147483647&quality=80&type=jpg" /></p><p>加州大学伯克利分校 人工智能学高级研究学者 莎拉·肖克:“梅文智能系统”本身设计用于整合不同来源的数据,比如传感器、卫星等。Claude则会将这些分散的数据处理得更易于人类分析,从而提升效率。不过,它也在一定程度上分走了人类的自主决策权,因为其参与到了目标选择和优先级排序的过程中。</p><p>根据美国乔治城大学的一项研究,借助嵌入了Claude大语言模型的“梅文智能系统”,一个20人的炮兵团队可以完成原本需要2000人才能完成的工作。</p><p>美中央司令部:做出最终决定的始终是人类</p><p>不过,美国中央司令部司令、海军上将布拉德·库珀强调,美军在伊朗行动中使用的AI工具不会替代人类做出打击决定。</p><p class="f_center"><img onerror="javascript:this.style.opacity = 0;" src="https://nimg.ws.126.net/?url=http%3A%2F%2Fcms-bucket.ws.126.net%2F2026%2F0323%2F1ca4d8a5j00tcc898004kc001hc00u0c.jpg&thumbnail=660x2147483647&quality=80&type=jpg" /></p><p>美国中央司令部司令 海军上将 布拉德·库珀:我们的作战人员在利用各种先进的人工智能工具。这些系统可以在几秒钟内处理海量数据,帮助指挥官从复杂信息中筛选关键内容,比敌方更快地做出更明智的决定。至于打击什么、不打击什么以及何时开火,做出最终决定的始终是人类。但先进的人工智能工具可以把原本需要数小时甚至数天的流程,缩短到几秒钟内完成。</p><p>美国科技媒体COLD FUSION认为,梅文智能系统与Claude大语言模型的结合,让战争的逻辑从确保“火力优势”,转向提升“信息速度”。人工智能正在从根本上缩短战争的“杀伤链”。</p><p class="f_center"><img onerror="javascript:this.style.opacity = 0;" src="https://nimg.ws.126.net/?url=http%3A%2F%2Fcms-bucket.ws.126.net%2F2026%2F0323%2F4a38ca25j00tcc898003zc001hc00u0c.jpg&thumbnail=660x2147483647&quality=80&type=jpg" /></p><p>“杀伤链”这一军事概念指的是从发现目标到完成打击的全过程:“发现”敌方有价值的军事目标,“定位”其精确位置,决定使用何种武器以及如何正确跟踪“目标”,然后“瞄准”实施“交战”,最后“评估”打击效果是否成功。</p><p>在传统战争中,执行这条“杀伤链”需要指挥官做出多次评估和决策,耗时长且要依靠大量人力。而随着人工智能的介入,几乎所有环节都可以由AI代劳。</p><p class="f_center"><img onerror="javascript:this.style.opacity = 0;" src="https://nimg.ws.126.net/?url=http%3A%2F%2Fcms-bucket.ws.126.net%2F2026%2F0323%2F3ffb1d2fj00tcc898003dc001hc00u0c.jpg&thumbnail=660x2147483647&quality=80&type=jpg" /></p><p>《经济学家》杂志国防版主编 沙尚克·乔什:AI军队将各种数据融合在一起,包括手机记录、船舶和飞机追踪网站数据、消费零售信息以及靠近海军基地或机场的购买行为,都可能表明某种活动。通过融合这些庞大的数据流,AI便可以自动标记出异动目标。</p><p>指挥官看到这些目标后,需要判断目标是否足够有价值,用什么手段打击,这时,AI软件平台又将做出预测和推断,为指挥官提供建议。</p><p>Anthropic首席执行官:技术并不可靠 对完全自主武器感到担忧</p><p>但是,AI提供的建议真的可靠吗?Anthropic首席执行官达里奥·阿莫代伊直言,技术并不可靠。</p><p class="f_center"><img onerror="javascript:this.style.opacity = 0;" src="https://nimg.ws.126.net/?url=http%3A%2F%2Fcms-bucket.ws.126.net%2F2026%2F0323%2Fb653abd8j00tcc898002qc001hc00u0c.jpg&thumbnail=660x2147483647&quality=80&type=jpg" /></p><p>Anthropic首席执行官 达里奥·阿莫代伊:我们能够很好地判断我们的模型在哪些方面是可靠的,在哪些方面还不够可靠。至于完全自主武器,我其实对此感到担忧,我们(的技术)还需要继续提升。这项技术并没有准备好(参与打击决策)。</p><p>美军错误情报叠加AI决策 酿成伊朗小学遭袭悲剧</p><p class="f_center"><img onerror="javascript:this.style.opacity = 0;" src="https://nimg.ws.126.net/?url=http%3A%2F%2Fcms-bucket.ws.126.net%2F2026%2F0323%2Fb4e20f1bj00tcc898004bc001hc00u0c.jpg&thumbnail=660x2147483647&quality=80&type=jpg" /></p><p>在美国对伊战争首日的1000个打击目标中,有一所位于伊朗南部米纳卜市的小学。“战斧”导弹将学校夷为平地。</p><p>3月12日,美军欧洲司令部司令格林克维奇承认,伊朗小学遭袭是美军所为。据美国方面披露,美军依据的错误情报叠加人工智能(AI)决策,双重失误酿成了这场悲剧。</p><p class="f_center"><img onerror="javascript:this.style.opacity = 0;" src="https://nimg.ws.126.net/?url=http%3A%2F%2Fcms-bucket.ws.126.net%2F2026%2F0323%2F99dd73eej00tcc898004lc001hc00u0c.jpg&thumbnail=660x2147483647&quality=80&type=jpg" /></p><p>英国人工智能军事应用学者 克雷格·琼斯:美军中央司令部有义务核查并反复确认,情报是否是最新的、准确的以及打击目标是否符合相关标准。显然,这一点没有做到。</p><p>伊朗小学遭到美军打击,这让“AI参与战争决策”成为争议焦点。</p><p>Anthropic与美政府“决裂”始末</p><p>而据美国方面爆料,在对伊朗发动军事打击一天前,美国政府已宣布将提供Claude大语言模型的人工智能公司Anthropic 列入黑名单。</p><p class="f_center"><img onerror="javascript:this.style.opacity = 0;" src="https://nimg.ws.126.net/?url=http%3A%2F%2Fcms-bucket.ws.126.net%2F2026%2F0323%2F9d09f946j00tcc8980050c001hc00u0c.jpg&thumbnail=660x2147483647&quality=80&type=jpg" /></p><p>2月27日,美伊冲突爆发一天前,特朗普在社交媒体表示,美国“绝不会允许一家激进左翼的‘觉醒’公司决定军队如何作战和取胜;我命令美国政府的所有联邦机构,立即停止使用Anthropic的所有技术。”</p><p class="f_center"><img onerror="javascript:this.style.opacity = 0;" src="https://nimg.ws.126.net/?url=http%3A%2F%2Fcms-bucket.ws.126.net%2F2026%2F0323%2F3d13165aj00tcc898005nc001hc00u0c.jpg&thumbnail=660x2147483647&quality=80&type=jpg" /></p><p>但据多家媒体与五角大楼证实,美军在对伊朗的军事行动中仍然广泛使用了Anthropic的AI技术。</p><p class="f_center"><img onerror="javascript:this.style.opacity = 0;" src="https://nimg.ws.126.net/?url=http%3A%2F%2Fcms-bucket.ws.126.net%2F2026%2F0323%2F918e8d5ej00tcc898006kc001hc00u0c.jpg&thumbnail=660x2147483647&quality=80&type=jpg" /></p><p>为国家安全用途定制AI模型 Anthropic提出两条红线</p><p>2025年7月14日,美国国防部与Anthropic达成约2亿美元的技术合同,将其发布的大语言模型Claude引入“梅文智能系统”,用于军事数据分析与目标识别。</p><p>“Claude”由此成为首个进入美国军事机密系统的生成式AI模型,这次签约也被视为AI企业正式迈入“国家战争决策核心”的关键一步。</p><p class="f_center"><img onerror="javascript:this.style.opacity = 0;" src="https://nimg.ws.126.net/?url=http%3A%2F%2Fcms-bucket.ws.126.net%2F2026%2F0323%2Fbff2cabbj00tcc8990033c001hc00u0c.jpg&thumbnail=660x2147483647&quality=80&type=jpg" /></p><p>Anthropic首席执行官 达里奥·阿莫代伊:我们是第一家为国家安全用途定制AI模型的公司。</p><p>在合同中,Anthropic提出两条红线:</p>其AI模型不能用于大规模监控美国人;其AI模型不能用于完全自主武器,即在无人干预情况下能独立搜索、识别并攻击目标的武器系统。<p class="f_center"><img onerror="javascript:this.style.opacity = 0;" src="https://nimg.ws.126.net/?url=http%3A%2F%2Fcms-bucket.ws.126.net%2F2026%2F0323%2Fc4cf8c9dj00tcc899004tc001hc00u0c.jpg&thumbnail=660x2147483647&quality=80&type=jpg" /></p><p>换句话说,Anthropic不想其AI大模型成为是否扣动扳机的决定者。</p><p>然而,就在Anthropic的两条红线墨迹未干时,一周后,2025年7月23日,特朗普签署行政令,提出警惕“觉醒(woke)AI”,要求联邦机构采购的人工智能系统必须保持“去意识形态化”。</p><p class="f_center"><img onerror="javascript:this.style.opacity = 0;" src="https://nimg.ws.126.net/?url=http%3A%2F%2Fcms-bucket.ws.126.net%2F2026%2F0323%2F022f2b2fj00tcc899003fc001hc00u0c.jpg&thumbnail=660x2147483647&quality=80&type=jpg" /></p><p>英国《卫报》认为,这是特朗普政府试图打破硅谷数十年来秉持的“安全、不作恶(Don’t be evil)、以及技术中立”的AI价值观。</p><p>矛盾就此开始。</p><p>矛盾爆发于美方强行控制委总统马杜罗之后</p><p class="f_center"><img onerror="javascript:this.style.opacity = 0;" src="https://nimg.ws.126.net/?url=http%3A%2F%2Fcms-bucket.ws.126.net%2F2026%2F0323%2F25c34276j00tcc899004ac001hc00u0c.jpg&thumbnail=660x2147483647&quality=80&type=jpg" /></p><p>美国福克斯新闻:这是五角大楼首次使用人工智能来识别(锁定)目标。</p><p>2026年1月3日,美军对委内瑞拉发动代号为“绝对决心”行动的军事打击,突袭首都加拉加斯、强行控制了委内瑞拉总统马杜罗及其妻子。</p><p>据美国方面披露,与Claude整合后的“梅文智能系统”在行动前和行动中均参与了情报分析、作战规划和打击目标排序等工作,发挥重要作用。</p><p>事后,Anthropic内部对其技术被用于该军事打击表达了不满,并很快传到了美国国防部门的耳朵里。</p><p>据美国国防部首席技术官埃米尔·迈克尔表示,Anthropic内部人士回忆称,双方矛盾真正爆发是在强行控制马杜罗的行动后。当时Anthropic的一位高管打电话给合作伙伴帕兰蒂尔公司,询问他们是否在那次突袭中使用了自家的AI软件,而这本身就是机密信息。</p><p class="f_center"><img onerror="javascript:this.style.opacity = 0;" src="https://nimg.ws.126.net/?url=http%3A%2F%2Fcms-bucket.ws.126.net%2F2026%2F0323%2F8a269acfj00tcc8990042c001hc00u0c.jpg&thumbnail=660x2147483647&quality=80&type=jpg" /></p><p>美国国防部首席技术官 埃米尔·迈克尔:据说帕兰蒂尔公司的一位负责人随后向五角大楼提出了这个问题,并担心这种情况可能预示着重大风险。如果未来类似行动中系统突然无法使用触发某种安全保护机制,甚至出现AI模型“不按预期工作、被恶意改动或故意产生错误输出”等情况,美国军方将面临严重的作战风险。这一担忧传达给国防部长赫格塞思后,让五角大楼领导层大为震惊。</p><p>埃米尔·迈克尔表示,五角大楼随后意识到“可能过于依赖单一AI供应商”,双方的信任危机继续加剧。</p><p>Anthropic遭美政府“封杀”后提起诉讼</p><p class="f_center"><img onerror="javascript:this.style.opacity = 0;" src="https://nimg.ws.126.net/?url=http%3A%2F%2Fcms-bucket.ws.126.net%2F2026%2F0323%2F86051d07j00tcc899005zc001hc00u0c.jpg&thumbnail=660x2147483647&quality=80&type=jpg" /></p><p>2月24日,特朗普向Anthropic发出“最后通牒”。要求Anthropic在三天内,也就是2月27日下午5时前做出决定,要么配合国防部,允许其AI模型执行美军“所有合法用途”,要么被踢出五角大楼的供应链。</p><p>2月27日,在下午5时这一最后时限过去数分钟内,美国国防部长赫格塞思宣布,将在六个月内逐步淘汰“梅文智能系统”中的Anthropic的技术,并以“供应链风险”为由对Anthropic采取限制措施。</p><p>Anthropic随即向联邦法院提起诉讼,指控联邦政府滥用权力。</p><p>OpenAI与五角大楼火速达成协议</p><p class="f_center"><img onerror="javascript:this.style.opacity = 0;" src="https://nimg.ws.126.net/?url=http%3A%2F%2Fcms-bucket.ws.126.net%2F2026%2F0323%2F9e400098j00tcc899005cc001hc00u0c.jpg&thumbnail=660x2147483647&quality=80&type=jpg" /></p><p>戏剧化的是,就在Anthropic被“封杀”几个小时后,其在硅谷的最大竞争对手——因发布ChatGPT名声大噪的OpenAI就与五角大楼火速达成协议。据美国媒体报道,OpenAI CEO萨姆·奥特曼不仅允许其大模型通过亚马逊的AWS云业务接入国防部的智能系统,还一口应下了此前Anthropic所拒绝的将AI用于“所有合法用途”的标准。</p><p>事后,就连奥特曼本人都将这笔交易形容为“投机且仓促”。</p><p>“扣动扳机”到底是人类决策还是AI决定?</p><p>然而,最关键的问题始终悬而未解。如果信息由智能系统搜集,数据由AI分析处理,打击目标和方式由AI列出,甚至连打击先后都被AI排好了序,那么,AI是否已经成为那个决定扣动扳机的“智能体”?</p><p class="f_center"><img onerror="javascript:this.style.opacity = 0;" src="https://nimg.ws.126.net/?url=http%3A%2F%2Fcms-bucket.ws.126.net%2F2026%2F0323%2Ff1a7a812j00tcc899003zc001hc00u0c.jpg&thumbnail=660x2147483647&quality=80&type=jpg" /></p><p>《经济学家》杂志国防版主编 沙尚克·乔什:最具争议的部分永远是最终的致命决策。你可以说真正关键的步骤,是你最初把某物识别为目标的那一刻。我们是否宁愿让指挥官只是按下红色按钮、批准计算机提供的目标,全过程只是重复点击“确认、确认、确认”,这对我来说不是真正的人类决定。</p><p>以军使用AI系统筛选潜在目标 人工审核仅数十秒</p><p class="f_center"><img onerror="javascript:this.style.opacity = 0;" src="https://nimg.ws.126.net/?url=http%3A%2F%2Fcms-bucket.ws.126.net%2F2026%2F0323%2F899dd114j00tcc899004xc001hc00u0c.jpg&thumbnail=660x2147483647&quality=80&type=jpg" /></p><p>在2023年的加沙战争中,以色列国防军使用名为“薰衣草(Lavender)”的AI系统,对“疑似武装人员”的潜在目标进行筛选。</p><p>而据六名以色列士兵向以色列媒体透露,该系统标记的误差极高,每天生成大量哈马斯疑似武装分子的目标列表,人工审核时间却只有数十秒。以色列军官做的仅仅是按下“执行”选项,却仍对外坚称整个杀伤链“依靠人类的决策”完成。</p><p class="f_center"><img onerror="javascript:this.style.opacity = 0;" src="https://nimg.ws.126.net/?url=http%3A%2F%2Fcms-bucket.ws.126.net%2F2026%2F0323%2F40655859j00tcc8990043c001hc00u0c.jpg&thumbnail=660x2147483647&quality=80&type=jpg" /></p><p>新美国安全中心执行副总裁保罗·谢尔指出,“人工智能会犯错误。在决定生死的时刻,我们需要人类来审查生成式人工智能的决定。不幸的是,人类尚未学会如何约束自己的权力,却已经创造出可以放大权力的工具。”</p><p></p>
 <img src="https://static.ws.126.net/163/f2e/product/post_nodejs/static/logo.png">

标签: