埃隆·马斯克为何真正担忧人工智能的发展?

埃隆·马斯克与ChatGPT机器人

我们现在是2015年,具体来说,在埃隆·马斯克位于他的公司特斯拉总部的办公室里,马斯克和他的朋友山姆·阿尔特曼以及一些来自硅谷的亿万富翁朋友坐在一起,他们正在担忧人工智能对人类迫在眉睫的袭击。现在事情变得危险了,我们必须迅速行动起来,我们是世界上的技术领导者,我们必须解决这个难题。那么,埃隆·马斯克和朋友们当时想到了什么解决方案呢?

很简单,我们成立一个非营利组织,目标是让每个人都能使用人工智能和机器学习研究,并开源。它的名字甚至会像OpenAI一样富有创意。好吧,这个场景当然是想象出来的,或者它并没有像我们说的那样发生。这是创意介绍所必需的,你知道的。但是,埃隆·马斯克和山姆·阿尔特曼成立了一个支持人工智能研究的非营利组织,这真的发生了!

而现在你肯定知道人工智能领域发生了什么。当然,我听说过目前引领这个领域的初创公司的名字,是的,就是同一家公司,OpenAI,它变成了一家追求利润的公司,并隐藏了其新机器学习模型的发展方式。此外,它依赖于世界上最大的技术巨头之一微软的投资。

对ChatGPT的担忧 (半岛电视台)

这一切都不是新鲜事。但新鲜的是,埃隆·马斯克和其他一些朋友决定反对这种侵入生成人工智能领域的快速发展。他们要求OpenAI和其他在该领域工作的公司将这一开发速度放慢6个月。因为我们人类,正因为这个超级人工智能,正稳步走向灾难!

公开信

上周三,3月29日,埃隆·马斯克、一群人工智能研究人员和专家以及该领域多家公司的首席执行官在一封公开信中呼吁停止开发训练大型语言模型,为期6个月,目标是让人类在这场疯狂的比赛中喘口气。我们可以评估这些模型对人类和社会的危险,以试图控制它们并实施管理它们的法律。

这封由马斯克基金会资助、旨在保护人类未来免受科技危害的非营利组织“未来生命研究所”(Future of Life Institute)发布,这封公开信迄今已有超过2000人联署。当然,其中最重要的是埃隆·马斯克本人、苹果公司联合创始人史蒂夫·沃兹尼亚克和Stability AI首席执行官伊马德·穆斯塔克。还有人工智能领域的一些重要人物,如被认为是该领域当代最杰出科学家之一的加拿大计算机科学家约书亚·本希奥,以及来自英国的计算机科学家、工程师和大学教授斯图尔特·罗素。

当它最近宣布新的GPT-4模型时,它没有分享任何关于它是如何开发的细节,甚至没有关于它训练的数据 (Shutterstock)

这封信是在OpenAI宣布其新模型GPT-4不到一个月后发出的。从这些签署者的角度来看,它表明了这种新模式的力量程度,以及它失控的可能性及其对社会和人类文明的负面影响。与此同时,它还表明谷歌和微软公司最近为控制这个市场而展开的竞争,它们试图开发如此强大的人工智能技术,以至于开发中的公司自己“无法理解或预测结果,甚至无法可靠地控制它们”。签署者警告称,如果公司不响应该命令,政府应进行干预并实施法律禁止进一步开发这些模型。

信中强调,这一呼吁并不意味着全面停止人工智能的发展,而是意味着退一步,从危险的赛跑中退后一步,以达到被称为“黑匣子”的最大人工智能模型,其能力和能力是不可预测的。也许这就是问题的根源,对于这些模型,我们无法从内部确切地知道它们是如何工作的,这就是它们被称为“黑匣子”的原因。

黑匣子

“黑匣子”模型依赖于使用大量数据预测文本中下一个单词的算法。之所以这样称呼它们,是因为没有人能够确切地知道它们是如何工作的,甚至开发人员自己也无法解释模型是如何预测这些信息的。在这种预测影响有关人们生活的决定的情况下,比如医疗保健,或者选择合适的工作人员,或者谁有资格获得贷款和融资,这可能成为一个问题。

OpenAI等公司之所以选择“黑匣子”模型,是因为他们想在一个开始被大公司主导的市场的激烈竞争中隐藏信息并保持优势,例如:微软和谷歌 (Shutterstock)

另一方面,可解释的模型具有更高的透明度,因为它们是人类可以轻松理解的更简单的模型,并向你展示了如何结合不同的信息来做出正确的决定。人们普遍认为,这些模型的准确性和可解释性是相互排斥的。这意味着你只能拥有其中之一,但事实上,更简单的模型可以和更复杂的模型一样准确,并且更容易理解和证明它们产生的结果。

OpenAI等公司之所以选择“黑匣子”模型,是因为他们想在一个开始被大公司主导的市场的激烈竞争中隐藏信息并保持优势,例如:微软和谷歌。而这正是该领域的专家试图警告的,因为当我们对“黑匣子”模型充满信心时,这并不意味着我们只相信这个模型的方程式,我们也会对构建它的整个数据库充满信心。如果我们不知道这个数据是什么,那么事情就很危险了,它肯定会影响我们最终从这个模型中得到的结果。

但是,如果你知道埃隆·马斯克本人是OpenAI转型的原因(也许是间接原因),并因此导致它向市场推出ChatGPT等工具,并试图从中快速获利,同时隐藏其在该领域的研究,那怎么办?好吧,这似乎是事实的一部分。

试图控制,然后失败

到2018年初,马斯克决定接过OpenAI的直接管理权,这遭到其他创始人的拒绝,其中最著名的是首席执行官山姆·阿尔特曼 (美联社)

埃隆·马斯克是2015年与山姆·阿尔特曼、彼得·蒂尔、伊利亚·苏斯科夫、格雷格·布罗克曼等当时硅谷知名人士一起创立人工智能实验室OpenAI的小团体成员之一。目标是成为一个非营利组织,分享该领域的研究并使其开源,以便整个社区都能从中受益,对抗试图控制该领域并垄断其信息的大公司,例如谷歌。

但根据Semafor的一份新报告,到2018年初,埃隆马斯克认为该公司落后于谷歌,和往常一样,他决定亲自接过公司的直接管理权,和往常一样,他决定亲自接管公司的直接管理权,但遭到了其他创始人的拒绝,其中最著名的是公司首席执行官山姆·奥尔特曼和现任公司负责人格雷格·布罗克曼。

当时,埃隆·马斯克决定宣布退出公司,并于同年辞去公司董事会职务。他当时提到的原因是与他在特斯拉的工作存在利益冲突,因为他有自己的自动驾驶汽车人工智能开发实验室。有报道指出,马斯克曾承诺为OpenAI提供大约10亿美元的资金。但在他退出时,他并没有提供这笔融资,只出资了1亿美元。

微软是第一家投资OpenAI的大公司,提供数十亿美元资助该公司的研究 (阿纳多卢通讯社)

马斯克的突然退出,让OpenAI进退两难。当时公司已经开始研发生成式人工智能模型,比如“DALL-E”图像生成器,以及用于文本生成的“GPT”系列模型,当然需要巨额资金。所以到2019年,该公司宣布成立一个新的营利性实体,以便能够为其在该领域的研究提供资金。第一家投资的大公司是微软,它已提供数十亿美元资助OpenAI研究,并提供其Azure云平台和许多其他资源。作为交换,它将保证获得在其未来产品中使用OpenAI技术的独家许可。

或许失去埃隆·马斯克的融资资金并不是促使OpenAI转向盈利模式并投入微软怀抱的唯一甚至主要原因,但它仍然是对发生的事情最好的解释。重要的是,这种快速盈利的趋势,以及公司成立原则的改变,代表了整个领域乃至整个世界的决定性时刻,因为这是目前的问题。该公司非常渴望尽快推出新产品,正如“未来生命研究所”在公开信中所述,许多人认为这可能会在不久的将来造成严重后果。

改变方向

ChatGPT是OpenAI最先进的系统 (Shutterstock)

OpenAI 转向微软已经改变了它实际分享研究的方式。因此,当它最近宣布新的GPT-4模型时,它没有分享任何关于它是如何开发的细节,甚至关于它训练的数据。该公司首席研究员伊利亚·苏斯科夫在接受“The Verge”采访时解释称,这是为了保持公司在市场上的竞争优势。当被问及公司改变方向而不遵循开源模式时,他通过分享他们的研究证实他们之前是“错误的”,而且人工智能领域的研究不一定是开源的。

同样地,当公司总裁格雷格·布罗克曼接受TechCrunch的采访时,他证实了在图像和文本上训练新模型的想法。但当被问及这些图像和文本的细节时,格雷格拒绝讨论它们或谈论任何GPT-4训练数据的来源。这促使该领域的许多专家指出,关闭对该公司开发的人工智能模型的访问权限会使社区难以理解这些系统构成的潜在威胁,并且将权力集中在大公司手中。

埃隆·马斯克本人多次抨击OpenAI的这一变化。并且他在自己推特平台账号的推文中写道,OpenAI已变成“一家以利润最大化为目标,被微软控制的闭源公司”。他强调,这绝不是他的本意,但这是否让我们质疑马斯克要求停止人工智能发展的动机?社会和人类真的担心这种危险吗?或者他真正担忧的是,他不会成为技术世界新征程的领导者,他会失去他过去总是出现的英雄形象?

埃隆·马斯克的智慧

埃隆·马斯克总是提到他担心人工智能有朝一日会超越人类,这可能危及我们所有人。在2014年接受CNBC采访时,他还强调人工智能是对人类文明的最大威胁,甚至预测类似于著名电影系列《终结者》中发生的可怕后果。但同时,马斯克断言,如果他的公司特斯拉制造自己的机器人,他可以保证这个机器人是安全的,不会攻击人类!

2017年,马斯克再次提到同一部电影,引用了他的另一家公司Neuralink的技术。该公司旨在开发人脑内部的设备,使其能够与机器进行交互,以防御诸如“天网”网络等人工智能威胁。这是是电影《终结者》中毁灭人类的人工智能的名字。这表明马斯克有能力双重使用相同的进化(人工智能)甚至相同的论点(《终结者》电影)来达到他的目的。

也许这就是他在2015年资助和创建OpenAI实验室的目标,即让他控制这个广阔而非常复杂的领域的研究。令人惊讶的是,根据The Information平台的一份新报告,马斯克本人最近几周与一组人工智能研究人员就建立一个新的研究实验室进行沟通,以开发与ChatGPT竞争的聊天机器人。然而,该项目仍处于早期阶段,对于这个新实验室成功建立后将提供的产品没有明确的计划。

那么,埃隆·马斯克很可能想放慢这一领域的发展步伐,以便让自己有机会像往常一样赶上来并获得控制权。他想引领这个领域,在引入人工智能技术方面发挥主导作用,同时保留英雄主义和拯救人类免受这些技术带来的危险的作用。但这并不妨碍我们追问:马斯克宣扬的对人工智能的担忧是否真的存在?

现实风险

其实也不是没有风险,这些风险当然值得关注,但与其关注科幻电影中的恐慌,如:人工智能接管世界并毁灭我们,我们必须将注意力转向未来的真正挑战,例如隐私问题以及电子安全、欺诈的增加、经济形势的变化,以及一些将受到这些新技术影响的工作岗位的分配。

例如,在电子安全方面,黑客依靠人工智能、机器学习和自动化现在正在使用更先进的技术。在过去几年中,通过使用机器人和自动化工具来传播恶意软件,对这些技术的依赖有所增加。所以,它们的可用性和易用性降低了进入网络犯罪世界所需的技能门槛,更不用说新的聊天机器人ChatGPT等工具的可用性将使事情变得更容易。

黑客使用聊天机器人ChatGPT从2019年开始开发恶意软件代码版本,被称为InfoStealer (Shutterstock)

好吧,这不仅仅是一个预测,而是确实发生了。在黑客找到绕过ChatGPT聊天机器人软件限制的方法之后,他们可以依靠人工智能开发和改进恶意软件代码或欺诈性电子邮件。所以,网络安全公司CheckPoint发现,黑客使用这个新机器人从2019年开始开发恶意软件代码版本,被称为InfoStealer。

与此同时,一些专家还认为,新的聊天机器人将通过避免语法和拼写错误来帮助黑客编写更专业的诈骗电子邮件,而这些错误能够使这些欺诈性消息更容易被发现。在此之前,欧洲刑警组织就使用ChatGPT聊天机器人和其他人工智能模型的危险发出了警告,以及如何利用它传播虚假和误导性信息、进行网络犯罪和社会工程欺诈。

同样,我们也没有料到这一点。《华盛顿邮报》指出,诈骗者使用旨在模拟人声的人工智能模型,模仿一些人的亲友的声音,并向他们寻求帮助,然后骗取他们并窃取数千美元。一些人工智能语音生成软件只需要一个人的声音中的几句话就能产生令人信服的对话,传达声音甚至是说话者举止特征的情感基调。虽然其他一些模型只需要三秒钟的说话者的声音,但对于通常是老年人的目标受害者来说,即使诈骗者描述的紧急情况似乎远非可信,也很难检测到声音是真实的还是人造的。

罪犯是否依赖人工智能? (半岛电视台)

至于经济方面,新的聊天机器人与任何新兴技术一样,将对劳动力市场产生影响,并将改变现状。根据最著名的投资银行高盛的一份报告,如果人工智能相关技术继续发展,将导致劳动力市场出现“重大混乱”,使大型经济体的约3亿个全职工作岗位面临风险。这一次,将包括法律和行政工作等工作,而不仅仅是低技能劳动力。该报告估计,根据数千种职业的典型任务数据,美国和欧洲近三分之二的工作都在某种程度上会受到人工智能自动化的影响。

最后,我们今天目睹的先进和突破性的人工智能系统是该领域研究和应用数十年稳步发展的结果,这让我们训练神经网络并为它们提供当前可用的大量数据。和任何新技术一样,它伴随着挑战、问题和恐惧。此外,它肯定会给社会、经济和我们生活中的一切带来重大变化,就像它之前的其他技术一样,无论是计算机、互联网、智能手机或社交网络都是这样。这就是为什么我们必须为未来做好准备,当所有这些以前的技术侵入我们的生活时,我们能够尝试像往常一样努力适应。

来源 : 半岛电视台