战争领域的第三次革命 人工智能是否变得比核武器更危险?

由于人工智能算法进入几乎所有领域,世界目前正在见证一场巨大的技术革命,从智能手机到医疗诊断,但是,你有没有想过当人工智能进入军事领域会发生什么?是的,你不用猜测,已经开始了,因为人工智能无人机目前已经用于了阿拉伯世界的战争。但具备人工智能能力的军事工具本质是什么?是什么让它比核导弹更具杀伤力?它有多可怕?这些问题由人工智能专家李开复来回答,李开复曾担任谷歌中国区负责人,还曾在其他公司工作,并曾在苹果和微软工作。

随着美军在9·11事件20周年之际紧急撤离阿富汗,难以忽视武装冲突的可怕现实和不对称自杀式恐怖袭击的挑战,因为武器技术在过去的二十年里发生了很大的变化,所以想到不久的将来,我们不禁要问:如果武器技术得到发展,恐怖分子能够用人工智能取代人为因素(自爆者),会发生什么?作为一个在人工智能领域研究和工作了几十年的人,我必须关注这种技术威胁。

杀手机器人……战争的第三次革命

自主武器或致命自主武器,被称为“杀手机器人”,是继火药和核武器之后的第三次战争革命,发生的演变,从地雷到导弹,只是人工智能领域真正独立的序幕,并通过搜索特定人员,做出与他们交战的决定,然后在没有丝毫人为干预的情况下完全消除他们。

以色列“哈比”(Harpy)无人机(自杀式无人机)是一种自主(无人驾驶)武器,它被编程为飞到特定区域以搜索特定目标,然后通过称为“即发即弃”的功能使用高爆弹头摧毁它们,但一个更具挑衅性的例子出现在短片 Slaughterbots 中,短片讲述了一群像鸟一样大小的无人机可以搜索并杀死特定的人,通过向被锁定目标人员头骨射击少量炸药,由于这些飞机非常小巧、敏捷和智能,因此,无法轻易被抓住、阻止或摧毁。

这些杀手机器人不仅仅是一种幻觉,而是一种真正的危险,当其中一架无人机在 2018 年差点杀死委内瑞拉总统时,就证明了其后果。我们今天面临的更深层次的问题是,这些飞机可以由经验丰富的爱好者轻松建造,成本不到一千美元,这是因为飞机的所有部件现在都可以在线购买,并且可以下载开源技术。这是一个意想不到的后果,因为使用人工智能和机器人技术变得更容易、更便宜。和我共同想象一下,我们有一个成本不超过一千美元的政治杀手!我们所说的不是未来可能发生的不太可能发生的危险,事实上,现在威胁我们的是一个明显的危险。

我们已经看到人工智能在许多领域取得的快速进步,随着这些发展,在不久的将来,我们很可能会见证这些自主武器的快速扩散,它们不仅会变得更智能、更准确、更快,更便宜,还将学习新的能力,例如,如何形成依靠团队合作行动的群体,他们的速度加倍,他们的动作重复,这使得他们的任务几乎不可阻挡。令人震惊的是,能够摧毁半个城市的 10000 架无人机现在成本不到 1000 万美元。

如果我们转向故事的光明面,我们会发现这些自主(管理)武器有几个好处,例如,如果机器代替他们发动战争,它们能够挽救士兵的生命,并且它可以——如果它们落入负责任的军事机构之手——帮助士兵仅瞄准敌军中的战斗人员,避免无意中杀死友军、儿童和平民(类似于自动驾驶汽车在即将发生碰撞时刹车以挽救驾驶员生命的方式) ,这些武器还可以用来防御杀手和肇事者。

但是这些武器的负面影响以及由于使用这些武器而落在人类身上的责任远远超过这些好处,而这种最大的责任是道德责任,因为几乎所有的道德和宗教体系都将人类灵魂的丧失视为一个棘手的、有争议的问题,需要强有力的论证和审查。对此,联合国秘书长安东尼奥·古特雷斯评论说:“机器拥有行动自由和夺走人类生命能力的前景令人厌恶,在道德上是不可接受的。”

廉价谋杀

为一件事情牺牲自己的生命——就像自杀式炸弹袭击者所做的那样——并不容易,而且对于任何想到这一点的人来说,这仍然是一个巨大的障碍,但有了这些无人武器,就不可能有人为了杀人而放弃自己的生命,另一个关键问题是有明确的问责制,即知道谁对错误负责并追究责任,这是战场上士兵的核心问题。但当杀戮归咎于这些杀手机器人时,我们要追究谁的责任? (就像自动驾驶汽车与行人发生碰撞,这件事归咎于谁?谁负责?这就是我们所说的缺乏问责制。)

这种含糊不清可能最终免除侵略者对不法和违法行为的责任,从而降低战争的威信,降低他们的边界,让任何人都可以更容易地随时发动战争,更大的危险是这些自主武器能够使用面部或步态识别、电话信号跟踪或物联网 (IOT) 来瞄准个人,物联网是指全球数十亿个连接到互联网的物理设备,它可以使用传感器和处理器从周围环境中收集、发送和处理数据),这不仅可能导致一个人被暗杀,还可能导致任何目标群体的种族灭绝。

在不深入了解正在发生事情情况下提高这些致命武器的自主性会加速战争(从而导致人员伤亡),可能导致灾难性的升级,包括核战争。尽管人工智能已经取得了如此巨大的成就,但它仍然受到其缺乏常识和人类在各个领域思考能力的限制,不管这些无人机经过多少训练,我们仍然没有完全理解使用它们的后果。

2015 年,生命未来研究所(波士顿的一个研究和外展组织,致力于监测人类生存风险,尤其是人工智能的生存风险)发表了一封关于人工智能武器的公开信,警告“全球军备竞赛已经变得几乎不可避免。”人工智能的这种不断升级的动态类似于其他熟悉的种族,无论是英德海军军备竞赛还是苏美核军备竞赛。

强国总是通过战争来证明自己的军事优势,而随着这些无人武器的出现,各国敢于发动更多的战争,因为这些武器提供了很多“获胜”的方法,这是存在(最小、最快、最轻、最致命等)的结果。

此外,寻求通过制造这些自主武器来获得军事力量的成本会更低,从而消除进入此类全球冲突的障碍,拥有强大技术的小国已经加入了这场全球竞赛,例如装备了最先进军用机器人的以色列,而这些机器人的特点是体积小,几乎和苍蝇一样大,而且,因为现在每个人都确定对手会诉诸于制造这些杀手机器人,这将迫使雄心勃勃的国家加入这场竞赛并展开竞争。

这场军备竞赛将把我们带向何方?

加州大学伯克利分校计算机科学教授斯图尔特·罗素表示,“自主武器的能力将更多地受到物理定律的限制——例如射程、速度和有效载荷——而不是控制它们的人工智能系统,预计将有数以百万计的组织参与制造这些敏捷和高度致命的武器,让人类完全没有防御能力,因此,如果这场多边军备竞赛有机会继续下去,它最终会变成一场走向灭绝或被遗忘的竞赛。”

尽管核武器构成了生存威胁,但由于“威慑理论”(该理论基于武力是武力的最佳补救措施,也就是说,如果一个国家取得了实力上的优势,它就可以将自己的意志强加于其他国家,只有反对它或优于它的其他力量才能对其进行约束。)由于核战争的后果对双方都有一定的破坏性,任何发动核打击的国家都极有可能面临互惠互利,从而导致自我毁灭。

1945 年 8 月,两天之内,美国飞机投下了两颗原子弹,一颗在广岛,另一颗在长崎,这是第一次也是唯一一次使用核武器,原子弹的破坏力袭击并烧毁了建筑物和人民,给幸存者留下了终生的伤疤,不仅是身体上的,还有心理上的,以及城市本身的

但是当我们谈论自主武器时,情况就不一样了,威慑理论在这个领域并不适用,因为第一次突然袭击可能无法追查,正如我们之前所讨论的,自主武器攻击可以导致其他各方的快速反应,更不用说升级可能非常快,这可能导致核战争。真正的障碍是,第一次袭击可能不是由一个国家发起的,而是由恐怖分子或其他非国家行为者发起的,这加剧了这些武器的危险性。

为了避免这种存在主义的灾难,出现了几种提议的解决方案。第一个解决方案是需要在这种恶性战争循环中出现人为因素,或者确保人是做出所有杀人决定的人,但是自主武器的威力源于在这一集中非人类所获得的速度和准确性,因此,这种让步可能不会被任何想要赢得军备竞赛的国家所接受,而让人类参与这些过程的保护措施在很大程度上取决于这个人的道德品质和他对事情的判断。

第二个提案是禁止使用这些武器,该提案的支持者之一是名为“停止使用杀手机器人”的运动,其提交了一份由 3000 人签署的论文,其中包括伊隆·马斯克、斯蒂芬·霍金以及数千名人工智能领域的专家,他们反对使用这些武器。

过去,生物学家、化学家和物理学家做出了类似的努力,拒绝使用生物、化学和核武器。当然,我们知道禁止这些武器并不容易,但之前禁止使用激光和致盲化学和生物武器的禁令已经奏效。我们今天面临的主要障碍是美国、英国和俄罗斯反对这一想法,认为现在这样做还为时过早。

第三个解决方案是规范这些无人武器的使用,不幸的是,由于难以实施有效的技术规范而不是非常全面,这也将变得复杂。最重要的是,我们必须首先问:自主武器的定义是什么?我们将如何审查因使用这些武器而导致的违规行为?

尽管这些问题在短期内会造成极其困难的障碍,但从长远来看,创造性的解决方案可能是可行的,尽管难以想象。在考虑这些解决方案时,我们将面临许多问题,例如:是否所有国家都同意机器人将在未来打所有战争?这不会造成人员伤亡,而是旨在获得传统的战利品,并仅将其交付给对方。

谁知道?我们可能会看到机器人与人类作战的未来,但条件是允许机器人使用可以使敌人军队中的其他战斗机器人瘫痪的武器,而不会对人类造成伤害。归根结底,我们必须清楚地意识到,自主武器(杀手机器人)确实代表着一种明确而现实的危险,随着时间的推移,它们会转变为更智能、更灵活、更致命、更容易获得的武器,这也引起了人们的担忧和恐惧。

但归根结底,加速这些武器扩散的是各国都在进行的军备竞赛,缺乏核武器的天然威慑力。总而言之,我们必须认识到,自主武器是人工智能的一种应用,它明显而严重地违背了我们的道德,并对人类构成了真正的威胁。


本文翻译自《大西洋月刊》,并不一定反映半岛电视台编辑立场。

来源 : 大西洋月刊