超级人工智能:拯救人类的创新还是毁灭性武器?

自从旧石器时代人类用双手雕刻出第一个工具以来,人类的思想一直是人类进步的驱动力。这种创造发明、撰写文学作品并发现宇宙秘密的头脑一直被认为是人类最大的秘密,也是智慧卓越和创新的核心。
但今天,在我们这个现代社会,这种思想面临着前所未有的挑战。机器能否超越它,变得更加智能和富有创造力?
“超级智能”一词不仅指与人类思维相媲美的人工智能,还指在所有可以想象的领域超越人类的系统。这个想法既蕴含着惊人的希望,也蕴含着可怕的风险,它对在机器可能成为主宰者的世界里人类的未来提出了深刻的疑问。
什么是超级智能?
超级智能的概念通过引发全球争议的学术著作而凸显出来。 2014年,在牛津大学一位研究生存风险、其与技术的联系以及其对人类伦理的影响的英国哲学家尼克·博斯特罗姆出版了一本关于人工智能未来的书,书名令人震惊,名为《超级智能:道路、危险和战略》。
这本书极大地宣扬了这样一种观点:先进的人工智能系统超越了人类的能力,有朝一日可能会统治世界并毁灭人类。
十年后,OpenAI 首席执行官萨姆·奥尔特曼表示,超级智能可能只剩下几千天的距离了。
一年前,OpenAI 联合创始人伊利亚·萨茨克维尔(Ilya Sutskever)在公司内部成立了一个团队,专注于“安全超级智能”,但他和他的团队现在已经筹集了 10 亿美元来建立自己的初创公司以实现这一目标。但他们到底在谈论什么?
据Medium报道,人工智能超级智能(ASI)是一种超越人类智能极限的假设模型,它不仅仅是模仿人类智能,而是在所有可以想象的方面都超越我们。它是一种超越全人类智慧的人工智能。
那么,是什么让超级智能成为全球关注的问题呢?答案在于其无限的潜力。让我们探索一些可能重塑人类文明进程的未来应用:
– 完整的问题解决者:轻松通过所有专业认证考试。
– 预测天才:准确预测股票市场或自然灾害。
– 创新工程师:设计太空电梯,实时发明新材料。
– 宇宙守护者:开发解决方案保护地球免受未来宇宙威胁,例如太阳膨胀。
– 最伟大的哲学家:揭开宇宙起源的奥秘并预测其最终命运。
但超级智能的与众不同之处在于它能够超越这些成就。它可以应对未来的挑战,通过消除疾病彻底改变医疗保健,解决气候变化,甚至使我们能够发现梦中见过的星系。天空是极限,宇宙是新的舞台。

超级人工智能 vs狭义人工智能:我们的立场是什么?
尽管这些能力看起来很有前景,但通往超级智能的道路仍然充满挑战。为了知悉我们距离实现这一目标还有多远,我们需要将当前系统与超级智能的概念进行比较。
目前我们正在研究窄带人工智能(ANI),也称为弱人工智能。这些系统旨在执行特定任务,例如语音助手、推荐算法,甚至是在国际象棋中击败我们的人工智能。他们擅长自己所做的事情,但不具备一般的智力。
在此背景下,美国计算机科学家梅雷迪斯·林格尔·莫里斯和她在谷歌的同事开发了一种思考人工智能中不同级别和类型的智能的方法。他们的框架包括六个人工智能性能级别:非人工智能、新兴人工智能、有能力的人工智能、专家人工智能、熟练的人工智能和超级智能人工智能。
他们还区分了可以执行有限任务的窄系统和更通用的系统,并在研究论文中解释说,已经存在许多非常成功的窄人工智能系统。
例如,莫里斯以 1997 年击败世界冠军加里卡斯帕罗夫的国际象棋程序“深蓝”为例,证明了“大师”级别的狭义人工智能系统。
另一方面,一些狭义系统却拥有超越人类的能力,比如Alphafold,它利用机器学习来预测蛋白质分子的结构,其创造者今年获得了诺贝尔化学奖。
通用系统是可以处理更广泛任务的软件,包括学习新技能。
不依赖人工智能的通用系统可能类似于亚马逊的 Mechanical Turk,它可以执行各种各样的任务,但不需要真人来完成。
总体而言,通用人工智能系统远不如狭义人工智能系统先进。莫里斯表示,ChatGPT 等聊天机器人所采用的高级语言模型被视为通用人工智能,但它们目前处于“新兴”水平,这意味着它们相当于或略优于不熟练的人类,但尚未达到“胜任”水平,这意味着它们的表现相当于 50% 的熟练成年人。
根据莫里斯及其同事的评估,我们距离实现通用超级智能还很远。
现在的人工智能有多智能?什么阻碍了它的发展?
正如莫里斯指出的那样,准确确定任何给定系统的智能取决于是否存在可靠的测试或标准。
根据研究论文中使用的标准,像 DALL-E 这样的图像生成系统可能被认为是“熟练的”,因为它可以生成 99% 的人类无法绘制或设计的图像,或者它可能被认为是“突发的”,因为它会犯人类不会犯的错误,例如画出变形的手或不可能的物体。
同样,关于当前系统的能力也存在相当多的争论。例如,2023 年发表的一项著名研究表明,GPT-4 显示出通用人工智能的迹象。
就 OpenAI 而言,它确认其新的语言模型 O1 能够执行复杂的推理,并在许多测试中可与人类专家的表现相媲美。
但苹果研究人员的一项新研究表明,O1 以及其他语言模型在解决现实世界的数学推理问题方面面临着重大挑战。
他们的实验表明,这些模型的输出看起来更像是高级模式匹配,而不是真正的逻辑推理,这表明超级智能并不像某些人想象的那么接近。
人工智能的不断发展是否会导致超级智能的出现?
据The Conversation报道,一些人认为,人工智能过去几年的快速发展速度将会持续下去,甚至可能加速。如今,科技公司正在投资数千亿美元开发人工智能能力并构建其基础设施,因此这种可能性并非不可能。
如果这一切成为现实,我们可能确实会在几千天内见证通用超级智能的出现,正如萨姆·奥尔特曼所预测的那样。伊利亚·萨茨克维尔和他的团队也在题为“超级智能协调”的文章中指出了类似的时间框架。
类似地,人工智能领域的许多最新成功都源于一种被称为“深度学习”的技术的应用,这种技术最简单的形式是依赖于在海量数据集中寻找相关模式。
值得注意的是,今年的诺贝尔物理学奖授予了约翰·霍普菲尔德和人工智能先驱杰弗里·辛顿,以表彰他们发明的霍普菲尔德网络和玻尔兹曼机,这两项发明构成了当今使用的许多强大的深度学习模型的基础。

当前的人工智能能够达到普遍的效率吗?
像 ChatGPT 这样的通用系统依赖于人类生成的数据,主要是从书籍和网站上获取的文本,并且通过增加这些系统的规模和训练数据量,它们的能力已经得到了显著提高。
然而,尽管我们努力更有效地利用数据、生成合成数据并提高跨学科的技能转移,但可能仍没有足够的人工生成的数据来维持这一重大进步。
即使有数据可用,一些研究人员在《金融时报》的报道中指出,像 ChatGPT 这样的语言模型本质上无法达到莫里斯所说的“一般能力”。
高智商和开放性
一篇研究论文指出,超级智能的一个关键特征是“开放性”,至少从人类的角度来看是这样。它必须能够不断产生人类认为具有创新性的新输出,并能够从这些输出中学习。
因为当前的基础模型不是以开放式的方式进行训练的,并且当前的开放系统的范围非常有限。
论文还强调,仅有创新性或可学习性是不够的,需要一种新型的开放底层模型来实现超级智能。
这对人工智能风险意味着什么?
确实,至少在短期内,我们不必担心超级智能的人工智能统治世界,但这并不意味着人工智能不会带来风险。
莫里斯及其同事再次谨慎地讨论了这个问题,他们表明,随着人工智能系统获得更强大的能力,它们也可能获得更大的自主性。
风险根据能力和独立性的不同水平而有所不同。例如,当人工智能系统的自主性有限,人类将其用作一种顾问时——比如要求 ChatGPT 总结文档,或者让 YouTube 的算法影响我们的观看习惯——我们可能会面临过度信任和过度依赖它们的风险。
与此同时,莫里斯指出,随着人工智能能力的发展,还存在其他需要注意的风险,包括人们与智能系统形成虚假的社会关系、大规模失业,以及整个社会普遍感到停滞或失去目标。
超级智能会成为暴政的工具吗?
在 2021 年接受半岛电视台采访时,尼克·博斯特罗姆表示,一些政府可能会使用人工智能来精确控制人口。
他解释说,人工智能系统利用海量数据集和强大的计算能力,使一些政府能够创建更有效的监控形式,无论是在物理空间通过监控摄像头,还是在网络空间通过社交网络上的情绪分析,甚至通过分析电话交谈和金融交易。
尼克·博斯特罗姆补充说,如果使用得当,人工智能还可以有助于加强民主制度。例如,它有助于改善信息获取,帮助个人做出更明智的决定。
下一步是什么?
研究人员声称,在追求超级智能的过程中,我们不仅仅是在创造超越人类能力的机器,而是在寻求建立一个增强人类潜能并促进人类福祉的世界。
或许我们的最终目标不是超越人性,而是利用这种智慧来改善我们的生活,让我们摆脱工作和日常压力的束缚。随着技术的进步,我们可能会达到智能系统可以协同工作的程度,就像专门从事不同领域的士兵一样。
然而,不难意识到,制造任何比我们更聪明的东西可能是一个令人不安的想法。我们人类认为我们的智力使我们能够控制我们的环境和其他领域。因此,认为存在比我们更聪明的东西,无论是机器人还是外星人,都可能引起恐慌甚至侮辱的感觉。
有趣的是,人类往往倾向于将事物“人性化”,即赋予任何可能与我们具有某些共同特征的事物以人性。我在 iPhone 上与 Siri 交互时亲身经历过这种情况,当它没有按照我预期做出反应时,我感到很沮丧。
约翰·盖格正确地将人工智能称为“算法模仿”。这些设备只不过是模仿我们智能某些方面的算法,但它们并不具备我们对人类存在的深刻理解。
最终,最重要的问题仍然是:机器能否超越由三个基本因素(即身体、环境和社会)构成的人类智能?这个问题的答案或许将决定人类在人工智能加速发展的时代的方向。