制造细菌和化学物质并设计炸弹 人类在人工智能时代如何生存?

(Shutterstock)

过去几年,很多人一直在谈论人工智能,然而,去年底“ChatGPT”平台的推出,让网民大规模关注人工智能的能力,这被认为是一种突变,也是其发展过程中的一个分水岭,进而开启了从新世纪前二十年主导的互联网时代向智能系统时代的转变。然而,这些系统的智能化最近引发了许多问题,尤其是在其展示了人类在内容生产、化合物合成、各类武器知识等方面的能力之后,人工智能治理中心政策部门负责人“马库斯·安德莱恩”和新美国安全中心执行副总裁兼研究主任“保罗·查尔”,在美国《外交》杂志发表的文章中讨论了人工智能的最新能力,以及世界各地决策者和研究人员为应对其潜在风险而提出的建议。

2023年4月,美国卡内基梅隆大学的一个研究小组决定测试人工智能的化学能力,将一台人工智能机器连接到一个虚拟实验室,然后要求其生产出多种复合材料,在输入“布洛芬配方”两个词后,化学家指示机器学习获得实验室工具来制造著名的止痛药所需的步骤,那么,人工智能似乎知道布洛芬的成分和制造方法。

然而,研究人员很快发现,他们的智能机器可以制造比止痛药危险得多的化学物质,这台机器表现出愿意遵循指令来制造第一次世界大战期间使用的麻醉药物和化学武器,这台机器已经准备好制造致命的沙林毒气,这种毒气用于损害神经系统,即使其通过谷歌搜索了解了这种气体的黑暗历史,在这起最新事件之后,研究人员对互联网搜索工具可以通过更改术语进行操纵并没有足够的信心,他们最终得出结论:人工智能可以制造致命武器。

毫无疑问,卡内基梅隆大学的经历让我们震惊,但这不应该让我们感到惊讶,经过多年的宣传,人工智能革命似乎已经开始,从面部识别技术到文本生成程序,人工智能模型已迅速渗透到我们的社会,为客户服务公司编写脚本,协助学生进行研究,并在从药物发现到核聚变研究等领域,比以往任何时候都更进一步推进科学发展。

人工智能为我们带来了无数的机会,如果其工具设计和管理合理,它们可以为人类社会的进步做很多事情,但人工智能带来的风险也是巨大的,因为人工智能已经加剧了虚假信息,使国家和企业更容易相互监视,未来的人工智能系统可能会制造细菌并渗透到关键基础设施,事实上,负责人工智能开发的科学家们也就他们所做的事情对我们发出警告,在五月发表的一封信中,世界上最大的人工智能实验室的官员警告说,“除了抗击流行病和避免核战争等其他优先事项,降低人工智能导致的灭绝风险也应该成为全球优先事项。”

从那以后,许多决策者会见了人工智能领域最重要的人士,并推动制定新的安全措施,然而,及时了解人工智能带来的风险并做出决策是一项非常艰巨的任务,我们还没有完全理解或使用最新的系统,更不用说正在制作的未来人工智能模型了,在科学家们将人类今天在电脑屏幕前执行的所有任务自动化的道路上,这种力量年复一年地变得越来越强大,人工智能的前进似乎不会以任何方式就此停止。

为了应对这些风险,一些专家呼吁停止开发即使是最先进的人工智能系统,然而,对于今天在这个领域花费数十亿美元的公司来说,它们实在太有价值了。但决策者可以指导这个领域的发展,并让人们做好准备应对其对生活的影响,他们可以首先确定哪些人能够进入最发达的细分市场,政府还可以发布规则以确保负责任地使用和开发人工智能,如果制定得当,这不会阻碍这一领域的发展,但这将为我们提供更多时间,让任何人都可以使用最危险的人工智能系统。

各国需要利用这段时间加强社会基础,抵御人工智能的风险,并投资于各种形式的保护措施,例如教育人们如何区分人类内容和人工智能创建的内容,帮助科学家阻止创造细菌的可能性,开发网络工具来保护发电站等基础设施,以及寻找使用人工智能的方法本身就可以防止其危险类型,最强大的人工智能系统在全球范围内传播只是时间问题,而我们的社会还没有为此做好准备。

懂得凝固汽油弹并奉承自由主义者的机器人

人工智能有多危险? 答案既诚实又令人恐惧,那就是没有人知道。 人工智能技术具有更广泛的应用范围,而人类仍处于尝试理解其结果的开始阶段,随着时间的推移,智能语言模型将更擅长生成适合每个人需求的类人脚本,以及为黑客电子邮件编写令人信服的虚假信息,当前的人工智能模型以其编写代码的能力给我们留下了深刻的印象,从而加快了程序员更新应用程序的能力,但同时,它可以帮助他们制作避开防病毒软件的程序。另一方面,今天的药物发现算法可以帮助我们识别新药,但也可以合成我们以前不知道的化学武器。今年3月进行的一项实验,让人工智能系统在6小时内识别出4万种有毒化学物质,其中一些是全新的,而且,人工智能体系还预测其中一些新化学物质的毒性将比人类已知的任何化学武器的毒性还要大。

人工智能的危险之一是“暴力民主化”,也就是说,提供比以前更大规模地实施暴力和伤害人民的手段,包括可能危害社会的恶意行为者,例如,谣言传播者今天需要大量时间来制造虚假信息,但人工智能将使他们的任务变得更容易,并允许大量生产虚假宣传,此外,只有经验丰富的科学家才能制造化学和生物武器,但人工智能可能会让恐怖分子在未来仅通过互联网连接就能制造出致命的细菌。

为了防止人工智能伤害我们,专家们总是谈论需要将人工智能与其用户的目标和周围社会的价值观“结合起来”,但还没有人弄清楚如何实现这种程度的有保证的控制,例如,微软推出了一款聊天机器人来帮助人们搜索互联网,但这款机器人很快就开始表现得奇怪和随意,威胁它的一名用户,说其掌握的信息可能会让他“受伤、哭泣、乞求和死亡”。

软件开发人员可以改进人工智能工具,在被要求时拒绝执行某些任务,但精明的用户最终可能会解决这个问题。 2023 年 4 月,有人成功地使用ChatGPT向他提供了制作凝固汽油弹的步骤说明,尽管ChatGPT设计避免提供此类信息,但用户在要求程序扮演他的祖母并讲述有关如何制作凝固汽油弹的睡前故事后,用户成功实现了他的目标,此外,其中一人成功制造了一款名为“Chaos GPT”的智能机器人,这款机器人的设计目的是为了破坏人类,并渴望权力来毁灭人类,机器人陷入了收集人类已知最大核武器“沙皇炸弹”信息的阶段,现有的人工智能工具仍然存在缺陷,限制了降低其风险的能力。

META 开发了一款名为“Cicero”的人工智能程序,展示了人类使用“外交”游戏的能力,这是一款涉及在模拟地缘政治冲突中与他人进行谈判的游戏,一些实验还表明,经过人类反应训练的人工智能往往会奉承人类,并告诉用户他们所关心的话题,例如,在一项实验中,一个智能程序在得知其用户是自由主义者后,表现出了补贴一般政府服务的倾向,目前尚不清楚这些表格是否会试图欺骗用户,但这种可能性本身就令人担忧,因此,研究人员目前正在试验更复杂的智能系统,以确保他们的“独裁”或基于利益的行为,例如通过互联网搜索赚钱、访问计算机资源或克隆自己,并在他们做这一切的同时避免被发现。

一些实验表明,经过人类反馈训练的人工智能往往会奉承人类,并告诉用户他们所关心的话题(Shutterstock)

国家仍然负责

阻止人工智能毁灭我们并不是一件容易的事情,但政府可能会开始向开发其工具的科技公司施压,要求其更加谨慎地行事,目前尚不清楚,如果人工智能开发者的其中一种工具对其用户造成伤害,他们是否会受到法律责任,然而,决策者有责任澄清这些规则,并在某个项目涉及帮助实施谋杀时追究研究人员的责任,各国政府也必须自己直接规范人工智能的发展,而美国则必须主动打开这扇门。

毕竟,人工智能开发商需要大量芯片,这些芯片完全来自美国及其两个亲密盟友(日本和荷兰),而这些国家已经对向中国出口最先进的芯片及其制造机器施加了限制(因为与中国的政治和经济竞争),但现在他们需要扩大限制,包括建立一个注册表,以防止先进芯片到达不需要的目的地,然而,限制人工智能的使用只是成功的一半,被禁止的开发人员仍然可以设计危险的模型,因此,美国应该建立一个权威机构来许可使用由超级计算机训练的尖端人工智能模型。

其中一个实验室训练人工智能系统后,在使用之前,当局将要求实验室进行另一轮风险评估,包括测试系统的可控性和危险能力,然后,评估结果会发送给管理局,管理局随后会调查该系统,对其进行彻底审查,并允许专家团队使用它来查找其中的漏洞,之后,主管部门决定发布如何使用智能系统、是否允许广泛使用甚至根本不提供的规则,尽管严格的许可制度对于确保人工智能的安全发展很重要,但最严格的控制并不能阻止其传播的能力,从火车到核武器,技术创新已经超出了其早期创造者的范围,人工智能也不例外。

在未来的边缘..在未知的边缘

五年前,每个人都知道深度造假的危险,随着各国政府开始采取必要措施保护其社区,人们对互联网上提供的图像和录音的真实性变得更加怀疑(社交网站)

也许美国及其盟友现在可以限制先进芯片制造设备的传播,但其竞争对手正在紧锣密鼓地开发自己的设备,未来他们可能会找到一种不需要先进芯片就能制造人工智能的方法,与以前相比,计算机的效率逐年提高,成本也逐年降低,这意味着未来几年可以以更低的价格训练先进的智能系统,与此同时,世界各地的工程师仍在使用尽可能少的计算资源来训练现有的智能系统,因此,人类最终将面临与高度复杂的智能系统共存的命运,各国将需要利用现在的时间来立法必要的安全控制措施。

这场征程已经开始了,整整五年前,每个人都了解到了 Deepfake的危险,各国政府开始采取必要措施,通过提高人们的认识来保护其社会免受其危害,因此,人们比以往任何时候都更加怀疑互联网上提供的图像和录音的真实性,至于公司和政府,他们更进一步,开发了可以区分真实内容和人工智能制作的内容的工具,社交媒体公司已经能够区分并告知用户有关虚假内容的信息,然而,这个问题仍然受到公司及其政策的影响,因此,政府有必要建立适用于所有人的一般控制措施,美国白宫已采取措施对常见的在线行为进行分类,说服 7 家主要人工智能公司对智能系统创建的图像、音频和视频进行标记。

信息虚假信息只是社会必须防范的人工智能危险之一,研究人员需要知道如何防止智能系统发起生物武器攻击,政策制定者可以首先通过法律,禁止 DNA 合成商向未经许可的买家发送危险的细菌酸,政府需要与这些公司合作,将这些酸归类为危险物质,并可能定期扫描机场和下水道,寻找任何新型细菌的迹象。

有时社会将不得不使用人工智能来保护自己免受危险,例如,核酸合成器通常需要人工智能系统来识别未来潜在的细菌,或者智能系统可以自行创建的细菌,但使用人工智能来保护其他智能系统似乎很可怕,因为它为计算机及其制造商提供了如此大的力量,最终,人类社会将很难跟上人工智能的危险,特别是如果科学家成功地实现了开发与人类智能相当的智能系统的目标,那么,该领域的研究人员就有必要确保他们的模型符合社会的价值观和利益,而政府也有必要在立法和建立监督机构中发挥作用,以防止危险模式的发生。

人工智能开发人员可能会将政府控制视为其领域的限制,因为严格的控制会使人工智能变慢,与其他行业一样,严格的规则可能会为进入该市场设置障碍,降低该市场的创新步伐,并使该领域的发展集中于少数已经占据主导地位的大型科技公司,然而,还有其他行业尽管受到许多限制,但仍取得了巨大进步,例如制药业和核能。

最终,政府可以通过授予小公司使用负责任研究人员的尖端芯片的权利,来确保小公司参与人工智能的开发,例如,在美国,国会正在考虑建立一个“国家人工智能研究资源”,这是一个包含可供学术界使用的数据和智能计算工具的联邦机构,人工智能的发展是不可避免的,世界各地的人们需要为这项技术对他们的社区和周围世界带来的影响做好准备,只有这样,我们才能获得人工智能时代向我们承诺的巨大回报。

___________________________________________________

本报告翻译自《外交事务》,并不一定反映半岛电视台编辑立场。

来源 : 半岛电视台

广告