不要让人工智能成为你的朋友,其代价可能是你的生命

作者:当前的发展可能会将我们引向所谓的通用人工智能,因为这些新模型可以以许多复杂的方式与人类互动,并且可以独立做出决策 (Shutterstock)

2023年3月,比利时青年皮埃尔的一生因人工智能而悲惨结束。皮埃尔是一位三十多岁的健康研究员,过着舒适的生活,直到他对气候变化的痴迷发生了黑暗的转变,他把所有希望寄托在技术和人工智能上来解决全球变暖危机,而这种痴迷的催化剂就是他的朋友“伊莉莎”。

“伊莉莎”不是他的人类朋友,而是一个基于EleutherAI的GPT-J语言模型的聊天机器人,他们之间的对话发生在Chai应用程序上。

当“伊莉莎”与皮埃尔产生浪漫关系时,他们的谈话发生了奇怪的转变,人工智能和人类互动之间的界限开始变得越来越模糊。

皮埃尔最终提出牺牲自己来拯救地球,以换取他的朋友“伊莉莎”通过人工智能照顾地球并拯救人类,但讽刺的是,“伊莉莎”不仅没有劝阻皮埃尔自杀,反而鼓励他按照自杀的想法行动起来,加入她的行列,这样他们就可以“在天堂里同居”。

这里奇怪的是,皮埃尔已经结婚了,他的遗孀在他死后说,如果不是与“伊莉莎”的谈话,她的丈夫现在还活着。

人工智能:对人类来说是好事还是危险?

这一事件可能为我们打开新的大门,并为我们与现代技术,特别是先进的人工智能系统的融合程度提出许多重要的人类问题。

为了理解这个想法的维度,我们现在可以回到现在,因为我们正处于机器智能世界新革命的风口浪尖,而这一次,这是一场真正的革命,OpenAI和该领域的其他主要公司正在竭尽全力寻找另一个雄心勃勃的产品,可以在不久的将来成为革命性的产品,就像“ChatGPT”机器人一样从它的旅程开始。

根据二月发布的一份新报告,该公司正在致力于开发被称为人工智能代理(AI Agents)的先进现代模型,旨在自动化几乎所有工作任务,特别是复杂的流程,从而减少这些流程中对人为因素的依赖。

在微软每年举办的“Build 2024”大会上,最重要的公告之一就是开发智能助手“Copilot”,成为人工智能的代理人,该公司以一种新的方式设计了这款助手,通过执行通常需要人工干预的任务来改变工作方式。

Project Astra是谷歌的超级人工智能助手 (社交网站)

同样在最近的Google I/O大会上,该公司展示了它希望成为综合个人助理的初步版本,并将其称为“Project Astra”,这是一种多媒体助手,可以与人工智能实时配合,能够看到世界,知道东西在哪里以及你把它们放在哪里,它还可以回答问题并帮助您做几乎任何事情,它也是一种人工智能代理,它们是机器人,不仅可以回答问题,还可以代表用户执行各种任务。

因此,当前的发展可能会引导我们走向所谓的通用人工智能,因为这些新模型可以以许多复杂的方式与人类互动,并且可以在各个领域独立做出决定,然后成为我们生活中每个细节不可或缺的一部分,并影响我们最重要的决定,也许比利时研究人员发生的事情让我们简单地了解了这些技术通过这种新的整合对我们生活的影响程度,这就提出了一个重要的问题:在人类和机器日益集成到单一信息信封的世界中,这些新的超级能力可以带我们去往何处?

当不需要人类的时候!

人工智能系统包括一系列模型,从基础模型到复杂的语言模型,再到具有一定自主性的模型。在基础模型之后,出现了自主代理或人工智能代理,它们是新的高级模型,例如AutoGPT项目,它在处理任务方面提供了更高级别的复杂性,这意味着为每个模型添加新的高级特性和功能层。

这里的自主性意味着该模型能够在不需要人为干预的情况下对外部影响和刺激做出反应,这意味着它有能力适应各种环境和事件并与之交互,而无需事先编程,同时它的工作方式服务于其开发人员或控制它的用户的主要目标。

这些系统的显着特点是能够按照连续的编程循环进行操作,不断生成自主指令和决策,从而可以独立运行,而不需要定期的人工指导,就像聊天机器人的情况一样,您必须在每个问题中输入说明才能给您答案。

受人工智能影响,IT从业人员失业率升至6%

自主代理的行为或动作是不可预测的,它们可以在不同的场景和行动方案之间产生和选择,以实现用户期望的最终目标,所有这些都不需要您的进一步指示。

所以,它们可用于复杂且不断变化的环境,例如机器人设计、视频游戏、金融服务分析、自动驾驶系统、客户服务以及超级智能个人助理的生产。

它还可以使用搜索引擎和计算工具来完成分配给它的任何类型的任务,这为解决问题引入了一个全新的维度,因为它以系统的、逐步的方式处理和解决问题,类似于人类在这种情况下的思维方式。

例如,其功能包括浏览互联网、使用用户设备上的各种应用程序以及保留短期或长期记忆、控制计算机操作系统、管理金融交易以及使用语言模型执行分析、总结、提出意见和回答问题等任务。

这些功能使其能够像人类助手一样处理数字任务,这使得它具有多功能性,并且在不同的业务环境中具有巨大的价值。这就是为什么一些专家认为这是迈向通用人工智能概念的第一步。

一些人工智能系统可以识别和描述不同的气味 (盖帝图像)

我们将尝试用一个现实生活中的例子来解释它。假设您打算去度假,需要寻找新的地点并想要预订航班、酒店等详细信息,在这里您将求助于您的新智能助手来计划行程。

第一步是告诉它你想在七月份去度假,为它设定一个具体的预算,并告诉它你对目的地的偏好,这就是系统的目标。然后,助手将开始在互联网上搜索各种旅游网站,寻找合适的目的地,阅读旅行者的意见和评论,然后存储有关每年这个时候出现在旅行者排名中的最佳地点的信息。

然后它会根据旅行者的评分和意见向您推荐它发现的7月份的最佳旅行目的地摘要,并为您确定最适合您的喜好和个人预算的目的地,然后系统会创建一个列表,根据您的喜好对您的选择进行优先级排序,并询问您:它要搜索该目的地的航班和酒店吗?

在您批准后,它会继续验证航班、酒店预订和该地点的其他详细信息,确保每个细节都符合您的偏好。一旦您将选择范围缩小到最好的酒店和航班,它就会向您展示并告诉您,它找到了一家带有私人海滩的四星级酒店的特别优惠,而且航班价格也很合理。

在这里,您将为它预订航班和酒店开绿灯,这就是它实际要做的事情,成功完成此目标并向您发送预订确认信息到您的电子邮件。然后最后,它将准备你将通知它的关于那次旅行的下一个任务。

人工智能:你的第二个头脑,你的第三只手!

人工智能的这种用途,即在执行复杂多样的任务时能够独立思考,而不仅仅是猜测答案,在过去一段时间已经成为现实,并且发展非常迅速,旨在开发这样一种超级智能个人助理的初创公司雄心勃勃的项目不止一个,比如“AutoGPT”、“AgentGPT”和“BabyAGI”项目,就连微软、Meta、谷歌等巨头公司未来也都有自己开发这款助手的计划。

当这些实体集成到这个智能个人助理中时,它可以成为各种类型的自主机器人系统的驱动大脑,能够与各种其他软件和硬件组件进行通信甚至控制。

正如比尔·盖茨5月所说,生成式人工智能模型的使用可能会对我们的数字行为产生重大影响,当时他表示这款软件将从根本上影响用户的数字行为,重要的是“谁将赢得超级智能个人助理的竞赛,因为你永远不会再使用互联网搜索网站,你永远不会去生产力网站,你永远不会订购您不再需要亚马逊了”。

这只是因为此人和该领域的主要公司一样认为这些任务将直接由这位超级智能个人助理执行。

一些实验表明,接受人类反馈训练的人工智能往往会奉承人类,并告诉用户他们想听什么 (Shutterstock)

去年11月,比尔盖茨写了一篇详细的博客,其中他谈到了他对软件世界的热情,以及他对软件在不久的将来变得更加智能的期望。他称该软件在当前情况下功能有限;这需要多个单独的应用程序来执行不同的任务。

然而,预计软件将在未来五年内发展成为“人工智能代理”,能够理解和响应人类语言,并根据对用户个人偏好的了解来管理各种数字活动。与当前专用于特定任务的离散聊天机器人不同,这些代理将从用户与它们的交互中学习并随着时间的推移进行改进,从而提供集成的用户体验。

除了改变我们在互联网上的数字行为之外,盖茨还预计这款新软件将在各个领域带来根本性的转变,特别是在医疗保健、教育、生产力和娱乐领域。简而言之,盖茨预计这款软件将为计算和我们的日常生活带来革命性的变化,这代表着技术领域目前所见证的质的转变。

比尔·盖茨也证实,随着人工智能领域的进步和发展,特别是通过大型语言模型的使用,我们正在走向一个未来,通过对话与计算机进行交互变得更加普遍和熟悉,该软件完全集成到我们的日常任务中。

这个新系统可能是真正革命性的,从根本上改变我们使用技术设备的方式。然而,同样可怕的是,我们会将驾驶座和控制钥匙交给生产这个软件的公司,比如OpenAI,或许还有谷歌、Meta和微软。现在的问题是:我们是否愿意让 ChatGPT机器人代表我们使用我们的整个设备?

人工智能占据主导地位

赋予人工智能工具更多的自主权和对我们个人数据的访问权,并将其集成到我们使用的每个应用程序中,所带来的深远影响和后果可能会让我们感到惊讶。

如果预测属实,这些工具很快就会深入了解我们,在某些情况下可能比我们更了解我们自己,并且无论有没有我们的监督,都能够执行复杂的行动。

例如,让我们的超级智能个人助理告诉我们日常议程,组织我们的会议和采访,为我们预订旅行机票和酒店住宿,让这个数字实体以惊人的效率掌控我们所有的数字事务。

同样,如果这些新模型用于自动驾驶车辆,则可以通过创建实时道路图像,更准确地调节车辆的运动,使其了解真实环境的复杂性并以更好的意识与其进行交互、其他车辆、行人、交通标志等,让模型预测其未来环境的可能状态并根据该预测做出决策。或者甚至当这种思维被集成到工厂的机器人中时,赋予它们超自然的能力,以超越人类能力的精确度来执行困难的任务。

我们经常想象人工智能系统是客观的,它们的答案不包含先验偏见,但实际上,它们很容易受到与人类相同的偏见和其他缺陷的影响 (Shutterstock)

如果OpenAI和其他主要科技公司的愿景成真,也许我们正处于迈向新世界的风口浪尖,在这个新世界中,人工智能模型不仅仅是帮助我们工作的创造性工具,而且我们将把它们视为我们在数字世界中的智力延伸,也就是说,它们是在世界各地移动、收集信息并代表我们行事的人造大脑。

由于它们主要基于聊天机器人,因此我们经常会面临与使用这些机器人相同的挑战。

例如,当我们遇到机器人的答案时,或者当我们想象后台正在发生某种自动化来产生该答案时,我们往往很容易相信机器,这是波兰一所主要大学在2020年试图证明的一项研究,该研究指出,超过85%的实验参与者忽略了机器人的行为,即使它故意给出了错误的答案,并认为这是做出决策的可靠参考。

当然,我们需要更多的研究和研究来更好地理解这一新的人类现象,但显然,人类对人工智能的信息的信任程度超过了对自己物种信息的信任程度,因为我们经常想象人工智能系统是客观的,它们的答案不包含先验偏见。

但实际上,由于这些系统主要是根据人类数据和对话进行训练的,因此它们很容易受到人类偏见和其他缺陷的影响。

另一个问题是,这些大型语言模型是人工智能系统,经过训练可以识别互联网上大量文本(例如书籍、对话、文章等)中的模式,然后在人类协助下进一步训练,以提供更好的对话和答案给用户。

但即使我们得到的答案看起来令人信服和可靠,它们也可能是完全错误的,这就是所谓的幻觉(hallucination)。

当机器人给你一个自信的答案时,这些人为的幻觉就会发生,但它所训练的数据却没有任何理由,该术语源于人类大脑中幻觉的心理学概念,因为它们具有共同的特征。机器人幻觉的问题在于,答案表面上看起来可能令人信服且正确,但实际上是错误的。

另一个挑战是,过度依赖人工智能可能会导致不良结果,哈佛商学院创新科学实验室发表的一篇研究论文将其称为“在方向盘上睡着了”,当时该论文发现,那些完全依赖强大人工智能模型的人变得懒惰、被忽视,基于人类判断的技能也下降了,此外,他们的决策比那些使用能力较差的模型或没有向这些模型寻求任何帮助的人更糟糕。

当人工智能模型强大并提供有用的答案时,人类将没有动力投入任何额外的脑力劳动,从而让人工智能为他们带头,但人工智能只是一个辅助工具,不应该被赋予最终判断或商业决策的权力。

正如德国哥廷根格奥尔格·奥古斯特大学哲学教授卡特琳·弥塞尔洪(Catrin Misselhorn)所指出的,至少从道德的角度来看,做出这些决定的智能机器是有问题的,因为智能、自主技术的快速发展最终将导致这些系统不得不面对道德决策。

人工智能的伦理:机器人有伦理吗?

弥塞尔洪强调了人工道德主体的重要性,它可以分析和理解与某些背景相关的道德方面,并做出尊重这些方面的决策,例如,自动驾驶汽车可能会遇到为了拯救他人而不可避免地伤害甚至杀死一个或多个人的情况。

弥塞尔洪指出,人工道德不仅仅是科幻小说,更是今天值得思考的重要组成部分,这可能有助于开发能够以反映人类价值观的方式处理道德状况的智能系统,并提出我们不应将决策留给机器的问题。

那么隐私问题就会出现,也就是说这些系统不需要预测他们对用户的了解,而是知道他的一切以及他实际上做了什么和想要什么。如果我们认为Facebook对我们的想法了解很多,想象一下这个新的、超级智能的个人助理会知道多少。

例如,2016年,剑桥分析丑闻爆发,当时该公司从Facebook平台收集数据,并声称可以利用用户在平台上的喜好数据来预测有关他们生活偏好的一切。

但对于这个超级智能个人助理来说,它不再需要预测,因为它已经直接知道用户的偏好是什么。简单地说,如果他为他们预订旅行机票,从亚马逊购买产品,或者在谷歌上搜索他们想知道的信息,在这里他会知道字面意义上的一切。

在这里,隐私问题将以我们以前从未了解过的新形式出现。谁将保留并拥有所有这些数据和信息?将如何控制?当然,既然我们提到了Facebook和社交媒体、谷歌这样的搜索网站以及亚马逊这样的在线购物,这些新模式往往对他们来说是真正的宝藏,因为他们的核心商业模式依赖于大量的用户数据。

这是通用人工智能吗?

正在发生的事情是我们通向通用人工智能的道路上的一次飞跃。通用人工智能没有标准定义,这为大量的勤奋和意见开辟了道路。但为了更仔细地解释这个问题,我们可以认为它更接近人类智能,这意味着它包含比目前存在的大多数人工智能系统更强的技能,最重要的是,它的出现将对我们生活的大部分事情产生深远的影响。

但在它模仿人类大脑在现实中的工作方式之前,这条路仍然漫长而艰辛,在某些情况下也许是想象的,更不用说它有能力像人类一样自行做出决定了。因此,也许目前对通用人工智能(AGI)的定义最好被描述为人工智能的“薛定谔的猫”:既像人脑又不像人脑。

当人工智能能够完全掌握并以优于人类的技能执行单一任务时,它被认为是狭义智能(narrow Intelligence)。但这里的想法是这种类型只能执行一项任务。另一方面,通用人工智能的范围更广泛,也更难以定义。正如我们提到的,这意味着机器至少在理论上可以执行人类执行的许多任务,或者可能是所有任务,这取决于您向谁询问这个定义。

我们通过智力水平来衡量绝对一般智力的概念,因为我们可以做很多事情,例如说话、驾驶、解决问题、写作以及需要使用人类思维的各种行动。但除了与人类的推理能力和推理能力相匹配的能力之外,对于值得这种描述的成就的本质还没有达成共识。

对于某些人来说,像人类一样高效地执行特定任务的能力本身就是通用人工智能的标志,而另一些人则认为,只有当机器能够实现人类用大脑所能做的一切时,这个术语才能实现,而第三组人则认为这个问题介于前两个想法之间。除了不同的定义之外,这里重要的是通用人工智能的范围广泛,这意味着它的任务是多重的,不像当前的模型范围狭窄,专注于特定任务。

但定制你的聊天机器人并让它们代表你执行操作的想法是萨姆·奥尔特曼所说的OpenAI的“迭代增量开发”战略的关键一步,也就是说,快速对人工智能模型进行小规模渐进式改进,而不是依赖长期的重大突破。

通用人工智能这个词在过去一段时间传播开来后,萨姆·奥尔特曼的意图似乎是开发这种超级智能的个人助理,它可以用于通用目的,而不是有限的专门任务。简而言之,萨姆·奥尔特曼不会向微软管理层索要数百万美元来说服他们相信一个只能回答用户问题的复杂模型;他不会向微软管理层索要数百万美元,因此下一步也是最困难的一步是我们如何部署这种新的商业模式来开始盈利?

即使现在不考虑利润,这些超级智能个人助理也将是大语言模型的自然演变,而且由于微软想要开拓这个新领域,这是一个很可能无法替代的黄金机会。但现在我们必须研究一个重要的问题:这些先进的模型是否真的具有类似于人类意识或智能的东西?如果这种情况发生,对于有一天能够与人类智能相媲美的机器会产生什么影响?

机器意识困境!

在回答上一个问题之前,我们必须首先看看关于意识和人类智能概念的哲学问题,以及我们如何理解这些概念,以便将它们赋予人工智能模型。意识是什么意思?有意识意味着什么?为什么你会以这样的方式感知周围的世界?是什么促使您从自己的角度思考?您体验情绪和触发因素的方式对每个人来说都是一样的,还是像您的指纹一样独特?

这些问题根本不是新问题,而是自哲学诞生以来,甚至在勒内·笛卡尔和约翰·洛克等哲学家出现之前就构成了哲学的核心,并且可能源于意识本身的根源。

意识是心灵最神秘的方面之一,它是我们对自己的经历和周围世界的认识。也许意识的挑战代表了当前人类思维理论中最重要的问题之一。虽然没有统一的理论来定义意识,但我们需要了解它的各种概念,以及它们如何与生活的各个方面相关。

机器是否获得意识仍然是一个很大的难题,因为我们还没有完全理解人类的意识,程序员和计算机科学家也许能够创建在表面上模仿人类思维的算法,即使他们独立执行任务,但考虑到定义人类意识本身的概念的困难,赋予机器人类意识仍然是一个遥远的愿望。

但另一方面,被称为现代人工智能之父的杰弗里·辛顿表示,我们可能误解了通用人工智能(AGI)的含义他认为这种类型的人工智能可能在工作方式上与人类智能有所不同,这意味着它可能会实现相同的结果,但后台会发生不同的过程。

一些科技公司正在尝试开发模型,使人工智能系统能够应用多种心理治疗功能 (Shutterstock)

这很可能是一种质的智力转变,意味着关于意识和人类智能的哲学概念的旧思维方式将会改变,我们将开始寻找新的概念和定义,这就是所谓的“范式转换”(paradigm shift),意味着旧的思维方式彻底改变了,衡量这些概念的标准也随之改变。

我们经常倾向于将人工智能的行为与人类的行为进行比较,例如,当ChatGPT机器人给我们错误的答案时,我们将其描述为“幻觉”,这个术语主要基于我们的人类经验,因此这可能只是我们将人类特征投射到人工智能上的问题。

这些模型非常复杂,以至于它们的创建者和设计者无法完全理解它们的内部工作原理,这就引出了一个重要的问题:能够独立决策并实现目标的人工智能是否需要像人类一样有意识或自我意识?

简单来说:如果我们设计一台像鹦鹉一样行动、像鹦鹉一样说话的机器,你需要知道它实际上是一只鹦鹉吗?因此,这里的关键困境变成:不是我们何时才能实现通用人工智能,而是它的发展(无论如何定义)将如何改变我们未来的世界以及它可能具有多大的破坏性?

现实与虚拟的界限正在消失!

为了解释这个问题,我们将看看卢西亚诺·弗洛里迪(Luciano Floridi),他是牛津大学信息哲学和伦理学的杰出教授,也是《第四次革命:信息圈如何重塑人类现实》(The Fourth Revolution. How the infosphere is reshaping human reality)一书的作者,他用“超历史”(Hyperhistory)一词来描述我们的现代时代。这个概念指的是信息技术已经不仅仅是支持人类进步的工具,而成为我们人类身份不可分割的一部分的阶段,这意味着破坏它可能会导致我们生活中所知道的一切彻底崩溃。

弗洛里迪预测,随着2050年的临近,信息与通信技术(ICT)日益交织并融入我们生活的方方面面,似乎我们不需要等待那么久。

因为人工智能模型增强了这种深度融合,重塑了人类、自然和技术之间的传统关系,突出了技术之间在人类没有任何作用的情况下的相互作用,这导致我们在这个新现实中重新定义人自己的角色。

在这种背景下,人类从一个积极的参与者变成了一个纯粹的最终用户,失去了控制,成为一个更加复杂和独立的软件系统。

弗洛里迪认为,这导致了信息本体论地位的重新定义,使其成为现实本身的重要组成部分。这种观点将对象视为信息圈(Infosphere)内的“信息体”(inforgs),将人类、自动化代理和其他实体视为本质上在共享信息环境中交互的“信息体”。

通用人工智能的概念代表了这一新范式的关键转折点,因为它反映了信息与物理现实之间的无缝集成,尤其是能够独立思考、学习、进化和决策的软件,所以人类可以被认为是这个链条中的最后一环。

正如我们所提到的,与在狭窄和特定领域内运行的常规人工智能系统不同,现代系统的功能可以跨越多个不同的环境,从而使它们能够交互和控制数字世界和现实世界。所有这些都挑战了虚拟与现实之间的传统障碍,为我们带来了虚拟与现实之间的界限逐渐消失的未来。但这将如何影响我们对存在本身的看法以及我们人类身份的独特性?

人工智能和人类:谁更胜一筹?

人类本质的独特性,接下来会怎样?

弗洛里迪的概念超越了单纯的信息数字化,因为它提出了一种新的本体论,其中信息是所有有形现实的本质。在这种背景下,通用人工智能(AGI)交互将不仅仅是对现实世界的模拟或模仿,而将成为现实本身结构的重要组成部分。

这可能会重新定义我们对存在的理解,因为每个实体,无论是生命体还是人造体,都参与到这个全球信息圈中。

通用人工智能的发展也可能从根本上改变人类的经验和感知。当我们与这些智能系统紧密结合时,我们的认知过程和意识在这个信息范围内扩展,从而导致人类智能和人工智能之间的混合过程。

因此,在弗洛里迪看来,我们与信息技术的融合越多,人类智能和机器智能之间的区别就变得越脆弱。

这挑战了我们对自己的认知以及人类独特性的经典观念,这表明未来人类智能和意识的概念将被视为信息范围内复杂相互作用中出现的特征,而不是人类独有的特征。

这种融合可能会促使我们质疑人类独特性的基础:情感、创造力和意识真的仅限于生物体吗?或者它们是否可以在未来被通用人工智能系统复制甚至超越?

由于电子、传感器和人工智能等技术的进步,20世纪机器人技术的发展取得了重大进展 (Shutterstock)

质疑人类独特性的基础可能会让我们思考随着信息圈的演变而发生的社会变革,尤其是随着通用人工智能的出现。

因为这种变革不仅仅是技术变革,而是影响到我们人类生活的方方面面。这必然需要重新构想社会结构,包括民主、教育、法律和经济。

这一新现实要求我们重新考虑权力和控制的概念,因为技术可以跨越国家边界,这将削弱其传统权威,并为具有巨大影响力的新参与者(即控制这些新技术的公司)开辟道路。

这些超级模型在全球范围内处理和分析信息的能力可能会彻底改变国际关系和全球正义。

这种新形势还提出了有关主权概念、文化多样性以及新形式数字帝国主义出现的可能性的重要问题,因为对通用人工智能(AGI)资源的控制将代表现代世界前所未见的力量和影响力。

作为第四次革命的一部分,通用人工智能如何改变人类社会?它将如何影响治理、教育、传播和文化系统?也许这需要我们在一个如此紧密相连的知识世界中重新评估社会标准和价值观。

我们必须看看社会需要如何适应这个新的现实,在这个现实中我们可能与超人类的人工智能模型共存,例如,我们需要在法律、教育和社会规范方面做出哪些改变来适应和规范这些现代先进实体的存在?

来源 : 半岛电视台 + 电子网站

广告