机器与伦理问题:关于“有意识”人工智能的新辩论

一组哲学、伦理学和人工智能专家争论一个人造实体是否已经被赋予了感觉和意识 (盖帝图像)

“人工智能技术正在变得有意识,”一位谷歌工程师断言,并因此被解雇。此事引发了硅谷之外关于这个不再只是科幻小说的话题的争论。

在细节方面,员工布莱克·勒莫因本周末在Medium网站上发表的一篇文章中写道,LaMDA,谷歌致力于创建的“聊天机器人”信息程序,“完全清楚他想要什么以及他认为自己作为一个人的权利。 ”

这一观点得到了广泛的回应,无论是来自科技巨头还是来自科学界。回应有两个极端,一端认为这过于荒谬,而另一端则认为这为时过早。

基于“机器学习”(Machine learning)的程序是根据处理意识或身份概念的数据集“训练”的,因此能够给人一种误导的印象。

语言和机器

机器无法形成表达以前不存在的概念和过程的新术语,而哲学家、作家甚至技术专家使用不同的创造性方式来推导和生成表达新思想或技术所需的词。另一方面,根据半岛电视台网之前的一份报告,机器缺乏这种需要很强分析能力的创造性方法,即使是技术概念。

机器无法传达伟大的文学作品中的文字美和精神,因为作家的表达独创性是发明美丽的隐喻来唤起强烈感情的特殊技巧,这往往是辛勤创作的结果。即使机器能够在某些领域取代译者,文学翻译仍然是熟练译者的专属特权,机器只能有效取代以“机械”和非创造性方式翻译的“译者”。

由于缺乏了解世界各地不同文化的机器,他们往往无法掌握特定文化表达背后的复杂性,也无法将其转化为目标语言中的对应词。语境对机器来说起着迷惑作用,而译者为人类服务并帮助传递意义。

无视道德

苏珊娜·施耐德学者指出,“访问互联网的程序可以回答任何问题”,但这一事实并不能证明上述说法是可信的。

在佛罗里达大西洋大学创立研究中心的施耐德不支持对谷歌工程师实施的惩罚。她指出,谷歌倾向于“忽略与道德相关的问题”,然而“有必要就这些棘手的问题进行公开讨论”。

“数百名研究人员和工程师与LaMDA进行了交谈,但据我们所知,他们都没有向我们发表过这种断言,他们也不认为LaMDA具有像布莱克那样的人类特性,”谷歌发言人布赖恩·加布里埃尔说。

加拿大多伦多大学哲学教授马克·金威尔说,从匹诺曹到电影《她》(与聊天机器人的浪漫关系的故事),复活非人类实体的想法“一直存在于我们的想象中”。

他表示,“因此很难确定我们想象中的可能与实际存在之间的距离。”

传统上,人工智能是根据图灵测试来评估的,如果测试者在与计算机建立对话时没有意识到他不是在与人交谈,那么机器就“通过了”。

但根据金威尔的说法,“人工智能很容易在2022年实现这一目标”。

计算机语言学专家艾米莉·本德说:“当我们在面前发现我们所说语言中的一系列单词时,我们认为我们认识到了说出这些句子的灵魂。(因此)甚至科学家也能够为人工智能程序赋予个性。”

意识和感受

北卡罗来纳大学计算机科学教授沙尚克·斯利瓦斯塔瓦解释说,“例如,使用抑郁症患者可能作出的对话中进行训练,可以让人工智能更像神经症患者”。

如果聊天机器人将类人机器人与超逼真的面部表情相结合,或者如果一个程序正在写诗或作曲,就像今天一些程序一样,我们的生物感官很容易被愚弄。

艾米莉·本德说,我们正在围绕人工智能进行媒体炒作,“很多钱都投入到了这个领域。所以这个领域的人们觉得他们正在做一些非常重要的事情,他们不一定有足够的距离来判断事物。”

那么,我们如何确定一个人造实体是否已经被赋予了感觉和意识呢?

“如果我们成功地用电子芯片取代了神经组织,那将表明机器可以有意识,”苏珊娜·施耐德说。

苏珊娜补充道,由埃隆·马斯克创立的初创公司Nuralink在制造用于医疗目的的脑植入物方面取得了进展,但有必要“确保人类作为与人工智能相关的文明的未来”。

因此,这位亿万富翁又属于一种担心控制权可能转移到具有卓越能力的机器手中的愿景。

然而,马克·金威尔认为事实恰恰相反。

如果有一天一个独立的实体似乎能够掌握一种语言并“在特定的环境中自行移动”,他有偏好和弱点,“重要的是不要将他视为奴隶,而是努力保护他。”

布莱克·勒莫因可能无法让任何人相信LaMDA程序是有意识的,但他重新引发了一场辩论,这场辩论在本质上变得越来越政治化,并且不再那么幻想。

LaMDA想要什么?工程师回答说:“他希望谷歌将人类利益放在首位,并被视为员工而不是谷歌的财产。”

来源 : 半岛电视台 + 法国媒体