除非立即停止,否则人工智能接下来是否会发动政变?

滥用人工智能是一个大问题 (半岛电视台)

斯蒂夫·沃兹尼亚克不是埃隆·马斯克的粉丝。2月,这位苹果联合创始人将特斯拉、SpaceX和推特的老板称为“邪教领袖”,并认为他不诚实。

然而,3月下旬,科技巨头聚集在一起,与数十位知名学者、研究人员和企业家一起呼吁暂停培训比GPT-4更强大的人工智能系统,为期六个月,这是席卷全球的聊天机器人ChatGPT的最新版本。

他们的信由总部位于美国的未来生命研究所(Future of Life Institute)撰写,表示当前人工智能的进步速度正在成为一场“对越来越大的不可预测的黑盒模型的危险竞赛”。信中指出,这些模型的“新兴能力”应该“重新专注于让当今强大的、最先进的系统更加准确、安全、可解释、透明、稳健、一致、值得信赖和忠诚”。

ChatGPT由研究实验室OpenAI于2022年11月发布,采用了所谓的生成式人工智能,这使其能够模仿人类生成和分析文本、回答问题、参加测试以及其他与语言和语音相关的任务。以前仅限于计算机编程领域的术语,比如“大语言模型”和“自然语言处理”,但如今在围绕ChatGPT及其许多基于人工智能的竞争对手的日益激烈的竞争中已经司空见惯,如谷歌的Bard或图像生成应用程序Stability AI。

但是,也有一些来自于聊天机器人和人工智能生成的“深伪技术”(deepfake)图像和视频的精神错乱的答案的故事,比如穿着一件大号白色羽绒服的教皇,乌克兰总统弗拉基米尔·泽连斯基似乎向俄罗斯军队投降,以及上周五角大楼发生明显爆炸。

与此同时,从艺术到人力资源,人工智能已经在撼动各个行业。高盛在3月份曾警告称,未来生成式人工智能可能会抹去3亿个工作岗位。其他研究表明,教师可能是受影响最大的群体之一。

然后还有更多关于人类失去对对人工智能控制的世界的噩梦场景,这是科幻小说写作中的一个常见主题,似乎突然间并不那么令人难以置信。全世界的监管者和立法者都在密切关注。而当被认为是人工智能的先驱之一的计算机科学家和心理学家杰弗里·辛顿辞去了在谷歌的工作,公开谈论“人工智能的危险”以及它如何能够超越人类时,怀疑论者得到了认可。

那么,我们是否应在为时已晚前暂停或停止人工智能研究?

简短的回答是:全行业停顿的可能性不大。5月份,OpenAI首席执行官山姆·阿尔特曼在美国参议院听证会上表示,该公司将在六个月内不会开发新版本的ChatGPT,并利用他在主流市场的新声誉呼吁加强监管,但竞争对手可能仍在推进自己的工作。专家表示,目前最大的担忧是滥用人工智能破坏经济和政府的稳定。专家表示,风险超出了生产人工智能的范围,而在技术失控之前,必须设置护栏的是政府,而不是市场。

2021年7月8日,在中国上海举行的世界人工智能大会上展示了美团开发的送货无人机 (路透)

不再是科幻小说

眼下,所提供的大部分技术都围绕着欧洲议会研究服务中心所称的“狭义人工智能”或“弱人工智能”,这包括“图像和语音识别系统,需要在标记良好的数据集上训练以执行特定任务并在预定义环境中运行”。

虽然这种形式的人工智能本身无法逃脱人类的控制,但它自身也存在问题。它反映了设计者的偏见。其中一些技术已被用于不良目的,例如通过面部识别软件进行监视。

从积极的方面来说,这种人工智能还包括数字语音助手和自动驾驶汽车背后的技术。

像GPT-4这样的生成式人工智能在技术上也是“弱人工智能”,但即使是OpenAI也承认它并不完全理解聊天机器人的工作原理,从而引发了一些令人不安的问题和猜测。根据微软研究院4月份发布的一项重要研究,GPT-4还因其“核心心智能力”、“获得专业知识的主题范围”以及“能够执行的各种任务”而被誉为“通用人工智能的火花”。

通用人工智能,或强人工智能,仍然是一个假设场景,但人工智能可以自主运行甚至超越人类的智慧。比如想想《2001太空漫游》或《银翼杀手》。

这既令人兴奋又令人不安。

加州大学伯克利分校人类兼容人工智能中心主任斯图尔特·罗素告诉半岛电视台,“值得注意的是,核武器、太空旅行、基因编辑和可以流利地用英语交谈的机器都曾经被认为是科幻小说。但现在它们真实出现了。”

(路透)

“认真对待”

那么人工智能离真正建立自己的思想还有多远?

罗素问微软研究报告的主要作者塞巴斯蒂安·布贝克,他声称GPT-4已经显示出人工智能的迹象,以及聊天机器人技术是否可以开发自己的“内部目标”。他在电子邮件中说道,毕竟,“它被训练来模仿人类的语言行为,这是由有目标的人产生的”。

“‘答案?’‘我们不知道。’”

罗素引用了他2019年出版的著作《人类兼容:人工智能和控制问题》中的一个例子,指出“根据未知的原则运作”并且“可能会或可能不会追求自己的内部目标”部署如此强大的技术是“不负责任的”。

在书里,罗素使用一个假设场景来论证:一个“未来的超级智能系统”,以最好的意图分配任务,仍然可能引发危机。他设想了一种情况,即要求基于人工智能的系统尽快寻求治愈癌症的方法。每3秒就有一人死于癌症。罗素在描述这种情况时说道,几个小时后,人工智能驱动的机器已经阅读了所有“生物医学文献并假设了数百万种可能有效但以前未经测试的化合物”。

那就是危险开始的时候。

罗素表示,“几周之内,它会在每个活着的人身上诱发了多种不同种类的肿瘤,以便对这些化合物进行医学试验,这是找到治愈方法的最快方法。太糟糕了。”

对于生命未来研究所信函的另一位签署人和蒙特利尔学习算法研究所的科学主任约书亚·本希奥来说,这些关于人工智能系统真正能力的悬而未决的问题是我们努力超越GPT-4等系统的理由。

他表示,“确实没有足够的研究来很好地处理我们是否还安全,或者它是否非常危险。作为一个关心人类的科学家,如果你告诉我,对于可能具有高度破坏性的事情存在很多不确定性,我认为我们应该小心。我们应该认真对待它。”

2019年8月29日,特斯拉首席执行官埃隆·马斯克出席在中国上海举行的世界人工智能大会 (路透)

或者只是数学问题?

英国律师事务所奥斯本·克拉克人工智能和机器学习客户团队负责人约翰·拜尔斯的看法略有不同。

他告诉半岛电视台,“我们还没有处于人工智能发展意识的阶段。它在很大程度上是一种技术工具。它正以指数方式变得越来越强大,但归根结底,它实际上仍然是一个非常聪明的数学问题。”

他表示,当前的人工智能系统非常擅长关联模式,并作为统计引擎。他指出,例如,ChatGPT可以找出统计上用户最有可能在其界面中键入内容的下一个句子。

拜尔斯称,但是“那不会让你参与有感觉的对话,我认为在我们达到某种有意识的人工智能水平之前,我们会一直处于开发周期中。”

尽管如此,拜尔斯也担心人工智能的影响,并同意开始对其进行监管的必要性。

他还认为,关于人工智能未来的决定不应该只留给科技行业。

他说道,“是否暂停这项技术当然不能由埃隆·马斯克决定。一方面,他告诉人们应该暂停,另一方面,他正在推出对各种人工智能业务的投资,而且他显然正在部署配备人工智能的团队。这有点虚伪。”

那么,如果不是行业,那么谁应负责监管人工智能?

拜尔斯很清楚这个答案。

他指出,“应由国家和社会决定如何调整这些技术,而不是企业。它们不能单靠市场力量推出。”

OpenAI首席执行官山姆·阿尔特曼于2023年5月16日在华盛顿特区国会山的参议院司法小组委员会关于隐私、技术和法律的听证会上作证,题为“监督人工智能:人工智能规则” (路透)

监管者位处何处?

眼下,考虑到变化的飞速发展,州监管机构正在积极追赶并就具体立法应该如何制定的问题进行辩论。

中国正在引领潮流,几乎为每一项新进展制定了专门的法规。去年,中国国家互联网信息办公室推进了所谓的“算法注册”,随后在2023年初对深度合成或“深伪技术”进行了监管。

4月份,中国发布了迄今为止最全面的新规则草案,以规范生成式人工智能产品,以确保它们符合“社会主义核心价值观”,以便让科技公司为任何事故负责。不过,评论员认为这些规则可能难以执行。

与此同时,欧盟采取了更广泛的方法,将建立在其已经严格的个人数据保护法的基础上。拟议的人工智能法案旨在根据感知风险对人工智能进行分类,即分为三类:可接受的、高风险因此需要监管的,以及十分危险以至于必须禁止的技术。

加拿大和巴西似乎正在采取与欧盟类似的方向,推动规范人工智能技术的可接受使用。在美国,联邦政府的行动似乎更为缓慢。然而,美国的个别州,如伊利诺伊州、科罗拉多州、加利福尼亚州和弗吉尼亚州,已经主动监管某些种类的人工智能,例如面部识别和生物识别数据管理。

专家认为,世界其他地区将关注这些为人工智能制定法规的早期尝试,了解哪种方法似乎最有效。这反过来又可以决定其他国家的行动。

Bellingcat创始人艾略特·希金斯使用人工智能创建的图像显示了2023年3月23日周四与唐纳德·特朗普和纽约市警察发生的一次虚构的小冲突。这些非真实的详细、耸人听闻的图像是使用复杂且广泛使用的图像生成器生成的 (美联社)

来自人类的、人工智能以外的威胁

但也有分析人士认为,真正的危险不是人工智能技术本身,而是使用它的人和公司,以及他们如何使用它。

总部位于英国的Humanising Autonomy的增长营销经理瑞亚·潘迪亚,该公司试图在开发人工智能软件时采用“以人为中心”的方法,他表示现在需要对技术的使用设置界限。

她告诉半岛电视台,“目前主要存在的人工智能包括一些生成式人工智能,而现在它只是一种工具。但它确实是一个非常强大的工具。它变得越来越厉害。所以使用它的人只需要对界限有更多的控制。”

她指出,现在是时候“关注公司如何使用它了,比如它们有多自动化,以及他们有多少决策是由机器做出的”。

其他专家也存在同样的担忧,即使他们对当前的人工智能能力的看法存在分歧。

伯克利的罗素告诉半岛电视台,个人的私人利益应该排在更大的道德准则之后。技术应该与立法相适应,而不是相反。

他说道,“我认为,监管机构的首要关注点应该是保护个人和社会。如果人工智能系统开发人员不能满足安全性和可预测性的必要标准,那是他们的问题,而不是我们的。”

这在很大程度上是因为,现在的人工智能虽然没有感知力,但已经通过了图灵测试,这意味着它可以愚弄一个人以为它是人类。

蒙特利尔大学的本希奥指出,即使没有人工智能,“我们也已经有了通过电子邮件和其他方式进行的喷子、社交媒体和网络攻击。但他们是键盘后面的人类,就像巨魔一样,这些巨魔军队的规模不可能那么大。”

他表示,相比之下,“人工智能驱动的系统可以大规模复制。所以我特别担心破坏民主的稳定。”

3月下旬,调查性新闻集团Bellingcat的创始人艾略特·希金斯分享了一张美国前总统特朗普在纽约被捕时倒地的照片。这是希金斯为了好玩而创造的深度伪造技术图像。但这张照片迅速传播开来,引发了人们对人工智能可能在动荡的政治环境中误导数百万人的担忧。而此前,在这种动荡的政治环境中已经发生了暴力袭击,例如2021年1月6日特朗普支持者在美国国会大厦发生的骚乱事件。

专家警告称,事情可能会变得更糟糕。人工智能还可以让像Cambridge Analytica这样的丑闻看起来古怪,这是一家在2016年大选前从社交媒体收集美国选民数据的咨询公司。

本希奥表示,与大多数其他工业部门不同,除了一些与隐私相关的标准之外,公众在很大程度上没有得到关于潜在人工智能危害的保护。

他说道,“迫切需要建立比我们目前更进一步的治理框架,这个框架基本上什么都没有。”

这是一场与时间的赛跑。这是一场与机器和技术的竞赛,尽管它们受到其他限制,但它们有一个方面特别擅长,那就是速度。

来源 : 半岛电视台