联合国秘书长安东尼奥·古特雷斯本周警告了在战争中使用人工智能的后果,称:“未来我们不会像现在这样缓慢行动”,强调迫切需要规范人工智能。在地缘政治动荡中,技术的发展速度正在模糊理论与现实事件之间的界限。关于美国军方人工智能能力的政治辩论恰逢其在伊朗危机中的前所未有的使用。人工智能公司Anthropic表示,无法移除防止美国国防部(五角大楼)将其技术用于大规模监视或自主致命武器的保障措施。五角大楼表示对这类用途不感兴趣,但强调此类决定不应由公司做出。奇怪的是,政府不仅中止了与Anthropic的合作,还将其列入黑名单,认为它对供应链构成威胁。人工智能研发公司OpenAI介入,重申其致力于遵守Anthropic设定的红线。然而,其反应仅限于内部用户和员工的愤怒。首席执行官山姆·奥特曼承认,公司无法控制五角大楼对其产品的使用,并且与美国国防部管理协议的方式使OpenAI显得“机会主义且需要更多的熟练度”。但“停止杀人机器人”组织的执行主任妮可·范·罗延警告说:“问题不在于这些武器是否会被使用,而在于它们已经如何改变了现有的战争体系。人类的控制变得次要或仅仅是一种形式。”这种根本性的转变已经开始。尽管存在争议,但一些人说,Anthropic可能促成了这场战争中广泛升级的袭击,造成了大量人员伤亡。本周,《卫报》的专家表示:“我们生活的时代是轰炸的时代,其速度超过了思考的速度,人工智能在那里确定目标、安排优先顺序、建议武器并评估打击的法律依据。”人工智能并非平民伤亡、军事失误或免罪的主要原因。归根结底,人类负有责任,因为人工智能无法在没有人类的情况下自行运作,而这些人类在发动战争时并未思考潜在的受害者。然而,即使不涉及人工智能的不准确性和偏见问题,其影响对其用户来说也是显而易见的。一名军官说:“目标很多,每个目标只需几秒钟就会被轰炸。”他补充说,他觉得毫无用处,因为人工智能处理了整个过程,这在字面意义上便利了大规模杀戮,增加了与道德和情感感受的距离,并削弱了问责制。民主监督和多边限制至关重要,而不是将决策权留给武器制造商和国防部门。当战争肆虐,轰炸在伊朗正在进行的冲突双方之间加剧时,各国已在日内瓦聚会,讨论致命性自主武器系统。正在讨论的草案文本可能成为人类比以往任何时候都更需要的一项条约的坚实基础。大多数政府希望就人工智能的军事使用提供明确的指导方针,但最大的战争制造者却在抵制,尽管他们至少处于决策圈。不幸的是,由人工智能驱动的战争的强度可能由其执行者按照自己的意愿进行解释。有些人可能会将战争和轰炸强度的降低视为向对手让步。然而,正如科技工作者和军方官员自己理解的那样,无节制扩张的风险要大得多。
古特雷斯关于战争中的人工智能警告及美国辩论
联合国秘书长安东尼奥·古特雷斯呼吁规范人工智能在战争中的使用。在美国,人工智能公司与五角大楼之间就控制正在改变战争性质、提高速度并减少人类控制的技术展开了激烈辩论。