《纽约时报》:我们是否能够接受可以自行决策的智能武器?

A RQ-4 Global Hawk drone is conducting tests over Naval Air Station Patuxent River, Maryland, U.S. in this undated U.S. Navy
人工智能在武器领域的发展速度引起了人们对其失控的担忧[路透社]
《纽约时报》上刊登了卡罗尔·贾科莫的一篇文章,这篇文章为世人敲响了警钟,因为美国军方发展人工智能的速度引起了人们的恐慌,担心武器将摆脱人类的控制而自行作出决定。
 
卡罗尔指出,如果这些武器出现在阿富汗战争初期,那么它将极度危险,正如当时的一位军官所指出的那样,在他们追捕塔利班武装人员的过程中,他侦测到一名牧羊女带有无线电,当时他认为,她可能向塔利班报告了他们所处的位置。

根据战争法的规定,对于任何向敌军报告本方士兵位置的人,本方士兵都可以对其开火,但是,士兵们认为,这名牧羊女不过只是位小姑娘。

 
这位名叫保罗·查尔的军官对此评论道,如果这名女孩当时处于自动机器人或是无人机这类现代武器的视线范围内,而非面对这些受过训练的狙击手,那么那些武器很可能无法区分真正的目标与女孩之间的差别,而直接杀掉她。
 
作者卡罗尔暗示称,有两名来自美国国防部的人工智能领域高官表示,美国尚未完全将独立武器的使用落实到各个方面。
 
她还指出,早在三年前,阿塞拜疆军队使用了一架疑为以色列制造的“哈罗普”(Harop)自杀式无人机,以摧毁一辆载有亚美尼亚士兵的汽车。

根据制造公司的说法,这些无人机能够自行飞至目标地点,继而能够发现、攻击并引爆目标。至今为止,这种无人机仍被设计以人工控制,可以随时终止其行动。

 
在这起事故之后不久,美国五角大楼战略能力办公室便在加利福尼亚州测试了103架“山鹑”(Perdix)微型无人机,这些无人机能够自动运行,并能够围绕目标盘旋,合力完成分配任务,包括共享信息、协同规划并采取决策,甚至进行战术调整等等,正如自然界中的鸟群一般。
 
作者卡罗尔指出,随着这些系统独立行动的能力不断增强,研究这些武器风险的人们——包括联合国下属的专家团队,也开始担心军事决策者可能会倾向于完全消除人类在这个过程中的控制。

因此,国际上提出了部分条约以禁止使用这类自动的致命性武器,但是却没有获得足够的支持。

 
文章补充道,科技进步的速度,引起了对自动化武器竞争的担忧,从而使得事情更为急切,国家之间需要相互合作以制定规则,防止人类将战争中生与死的选择权完全留给机器。
 
文章在最末说道,虽然人工智能可能已经证实,它是很多领域内的强大工具,但是,它也存在严重的缺点,例如计算机黑客、数据泄露,以及人类失去对算法控制权的可能性。
来源 : 纽约时报

广告