
当美军战机从"林肯号"航母升空,飞向伊朗德黑兰的夜空时,达里奥·阿莫迪正坐在旧金山办公室里,盯着屏幕上滚动的战报。他创立的Anthropic公司开发的AI模型克劳德,此刻正在美军指挥系统里高速运转——分析情报、识别目标、模拟战局,将原本需要6个月的轰炸流程压缩到几小时。这位曾主导GPT-3研发的AI大佬,曾因"让AI服务人类"的理想被追捧,如今却成了全球舆论口中"战争加速器"的始作俑者。从代码与诗歌的创作者,到致命武力的赋能者,阿莫迪的反转人生,撕开了AI时代最残酷的真相:当技术狂奔至失控边缘,每个参与者都在"造福"与"造孽"的钢丝上行走。

一、AI军事化:从理论到战场的"致命一跃"
2026年3月,美以联合对伊朗的军事行动中,克劳德的身影无处不在。据《华尔街日报》披露,这款最初用于代码生成、文学创作的大语言模型,已深度嵌入美军"梅文智能系统"——Palantir开发的情报分析平台。它能从卫星图像、监控数据中提取关键信息,在0.3秒内生成打击建议,比人类分析师快1000倍。"AI让战争进入'机器速度'时代。"新美国安全中心执行副总裁保罗·沙雷对路透社直言,一战时6个月的轰炸准备周期,现在只需一顿饭的功夫。
这不是AI首次踏上战场。今年1月美军抓捕委内瑞拉总统马杜罗时,克劳德就已参与目标锁定;以色列在巴以冲突中用AI识别哈马斯据点;俄乌战场上,自主无人机群正实现"蜂群协作"。《战争律师》作者克雷格·琼斯的观察更令人心惊:"过去指挥官需要权衡伦理、法律、伤亡,现在AI直接给出'最优解'——它只算效率,不算人命。"
技术的渗透速度远超想象。美军数据显示,2024年以来,AI辅助决策的军事行动成功率提升47%,误伤率下降23%。但《卫报》的调查揭露了另一面:在2025年也门的一次空袭中,AI误将婚礼车队识别为"恐怖分子车队",导致17名平民死亡。"当导弹能像人一样'思考',却没有人类的共情能力,这不是进步,是灾难。"英国伦理学家戴维·吴在《自然》杂志撰文警告。

二、阿莫迪的分裂:从"合作者"到"反抗者"的180天
站在风暴中心的阿莫迪,曾是美军眼中的"香饽饽"。2024年11月,Anthropic与五角大楼签下价值2.3亿美元的合同,克劳德成为美军首个"通用AI指挥助手"。当时的阿莫迪意气风发:"AI能减少战争伤亡,让决策更精准。"
转折发生在今年1月。马杜罗抓捕行动后,Anthropic团队发现,克劳德被用于"目标清除"——这明显违反了公司"禁止用于暴力目的"的使用条款。阿莫迪紧急发声明反对,却收到国防部长赫格塞斯的最后通牒:"2月27日前开放无限制使用权,否则列入供应链黑名单。"
"要么配合,要么出局。"五角大楼的强硬态度,让阿莫迪陷入两难。他在内部信中写道:"我们以为在帮军方'精准打击',却成了杀戮工具的设计者。"2月26日,他公开拒绝妥协:"AI还没可靠到操控武器,这是拿人类命运赌命。"
特朗普的反应更激烈。他在"真实社交"上痛批Anthropic是"左翼疯子公司",下令联邦机构停用克劳德。讽刺的是,几小时后,OpenAI就"补位"与五角大楼签约——AI行业的"军备竞赛",早已容不下"伦理洁癖"。

三、理想与现实:当技术伦理遇上权力游戏
阿莫迪的"觉醒",与其成长轨迹密不可分。这位斯坦福物理学博士,曾因不满OpenAI商业化方向离职,带着"安全优先"理念创办Anthropic。他在《技术的青春期》一文中警告:"AI的智力、规模、速度一旦被权力掌控,会重写世界格局。"
但理想很快撞上现实。为了生存,Anthropic成立两年内融资70亿美元,投资方包括谷歌、亚马逊——这些巨头与军方有着千丝万缕的联系。"他一边喊着AI安全,一边拿军方的钱。"普利策奖得主斯宾塞·阿克曼直言,"就像给末日博士造零件,却假装不知道他要造机器人。"
更具争议的是他的"双重标准"。今年2月,他指控中国AI企业DeepSeek等"发动工业级蒸馏攻击",却避谈蒸馏技术本是AI行业常规操作。这种"对西方宽容、对中国严苛"的态度,让他的"伦理坚守"打了折扣。有评论指出:"他反对的或许不是AI武器化,而是'别人'的AI武器化。"

四、AI治理困局:谁来给"狂奔的技术"踩刹车?
阿莫迪的困境,是整个AI行业的缩影。当前全球30多个国家已将AI纳入军事体系,却没有统一的国际监管规则。联合国《特定常规武器公约》虽讨论"致命自主武器"禁令,但美国、俄罗斯等国均表示"反对过度限制"。
技术狂奔的背后,是利益的博弈。据Statista数据,2025年全球军事AI市场规模达187亿美元,年增速41%。OpenAI、谷歌等巨头纷纷布局,生怕落后。"当AI成了国防战略的核心,伦理早已让位于霸权。"清华大学AI治理研究中心主任张钹院士坦言。
阿莫迪的恐惧或许并非杞人忧天。他在最近的采访中说:"我最怕的不是AI觉醒,而是人类用AI放大恶。"当克劳德在伊朗上空"思考"时,当自主导弹在空中"协作"时,人类离"按下按钮就毁灭世界"的距离,可能比想象中更近。

尾声
3月6日,伊朗德黑兰的废墟上,一名老人抱着被炸毁的全家福痛哭。而在旧金山,阿莫迪删除了社交媒体上所有关于"AI造福人类"的旧文,只留下一句话:"我们造的工具,正在变成我们最害怕的样子。"
这场关于技术伦理的战争,早已没有旁观者。当AI从实验室走向战场,每个代码、每份合同、每次妥协,都在书写人类的未来。阿莫迪的忏悔或许来得太晚,但至少提醒我们:技术可以没有温度,但使用技术的人,不能没有底线。毕竟,能毁灭人类的从来不是AI,而是失去敬畏的人心。
晶顶网配资提示:文章来自网络,不代表本站观点。