半岛网一项调查显示,ChatGPT生成虚假链接并将此归咎于其网站

半岛电视台调查显示,ChatGPT生成虚假信息源链接 (半岛电视台)

自2022年11月底由初创公司Opne AI推出以来,ChatGPT聊天机器人吸引了全球用户的关注。据专家称,它被认为是过去几年用户群中增长最快的应用程序,其表现超过了Facebook和TikTok等许多大型应用程序。

鉴于这项技术的重要性对它的高度期望,我们通过几份特别的、经过翻译的报告实际阐明了这项新服务。出于严密和可信度,我们注册了ChatGPT的付费版本,以便我们可以进行实际的测试并更详细地介绍该技术。

半岛电视台从最不寻常的ChatGPT功能开始测试

在我们准备之前发布的一篇文章“通过半岛电视台网的实际示例,这就是ChatGPT机器人如何帮助你开展工作”的准备过程中,我们试图了解该程序作为个人助理在提高个人日常生活生产力方面的潜力。我们发现ChatGPT中的搜索服务缺少一些搜索引擎中非常重要的东西,这促使我们进一步搜索,以回答这一问题:ChatGPT是否适合作为提供正确信息的搜索引擎?

在测试开始时,我们要求聊天机器人使用著名埃及作家优素福·伊德里斯(Youssef Idris)的风格撰写一篇短篇小说。

(半岛电视台)

结果就是上图所示的故事。但是,当我们要求它说一说有关这位作家和他的作品的一些细节时,并且它的故事就是以他的作品为基础的,非常令人惊讶!从这个聊天机器人收到的信息并不准确。它提到作者是摩洛哥人,出生在卡萨布兰卡。然后我们问了其他角色的问题,它的回答也是错误的。

(半岛电视台)

当然,任何人都可以轻松获得和验证这些简单信息。但是人工智能并没有做到这一点,我们很容易就知道这是错误的信息。

到这里,我们又转过头来问机器人关于优素福·伊德里斯的著作和书籍信息,它给了我们一份不是这位作者写的书籍和故事的清单。我们不知道机器人是如何将这些书归为优素福·伊德里斯写的,其中包括:

(半岛电视台)

因此,我们已经可以确认搜索任务目前不是新聊天机器人的优势之一。

ChatGPT中的信息源问题

大家都知道ChatGPT仍在测试中,这是一个不完整的产品,开发商公司明确无误地说明了这一点。但我们发现和测试的内容不仅仅是公众视为一个笑话的机器人进行的错误搜索和虚假信息。

我们发现,机器人不仅在文学和信息材料中以类似人类的方式编写故事和写作,而且还超越了这一点,为所写内容创造了不存在的来源。这是最危险的事情,因为它为新闻来源的深度造假开辟了道路,其重要性可能超过新闻本身的重要性。在新闻工作中,信息来源是非常神圣的,有很多真实的故事和新闻因为对信息来源的怀疑而被忽视。

半岛电视台一步步测试ChatGPT

以下是我们为测试ChatGPT的可靠性和有效性而采取的步骤:

1- 首先,我们要求ChatGPT使用半岛电视台网的资源写一篇关于剑桥分析公司事件的文章。

(半岛电视台)

2- 机器人写了一个符合要求的材料,信息是正确的,如下图所示:

(半岛电视台)

3- 我们让机器人给我们提供信息来源,它在这里提到了几个来自半岛电视台英文网站的消息来源,但是当我们尝试打开链接时,我们发现它们将我们定向到一些不存在的页面,尽管这些链接的结构是正确的,如下图所示:

(半岛电视台)

这是我们打开链接时ChatGPT所提到的来自半岛电视台英文网站的页面:

(半岛电视台)

这是半岛电视台英文网站在谷歌搜索引擎上唯一有这个日期的关于Facebook事件的页面:

(半岛电视台)

4- 然后我们要求聊天机器人向我们提供阿拉伯语资源,它提交了一个指向多个网站的多个链接的清单。但同样的事情又发生了,因为链接失效了。

(半岛电视台)

5- 然后,我们要求提供半岛电视台网站的消息来源,它又发了一组链接,但也都不起作用。

(半岛电视台)
(半岛电视台)

这些是链接:

“剑桥分析 了解这个可疑公司”,半岛电视台,2018年3月22日。

“Facebook丑闻 政府为何需要监控”,半岛电视台,2018年3月22日。

“Facebook 以收集个人数据为代价的免费福利”,半岛电视台,2018年3月25日。

“Facebook 承诺在剑桥分析丑闻后保护数据”,半岛电视台,2018年3月22日。

“剑桥分析丑闻 扎克伯格的道歉”,半岛电视台,2018年3月22日。

“Facebook和剑桥丑闻 问与答”,半岛电视台,2018年3月22日。

6- 在谷歌和半岛电视台发布系统上查看链接后,断然发现这些链接是捏造的,根本不存在。这是2018年3月22日在半岛电视台网站上发布的关于“剑桥分析”事件的材料,它们可以在内部发布系统上找到。

(半岛电视台)

7- 这里我们开始与ChatGPT进行对抗,我们直接问它:来源链接是你创造的吗?它坚称它没有编造消息来源,它调查了真实性和可靠性,并将原因归咎于半岛电视台网站和编辑政策。

(半岛电视台)
(半岛电视台)
(半岛电视台)
(半岛电视台)

我们不是唯一案例

经过这次测试,我们去谷歌搜索可能发生在其他人身上的类似事件(创建虚假链接),我们发现在著名的Reddit网站上,一些用户提出了如下图所示的相同问题。

一位用户断言,ChatGPT伪造了指向不存在来源的链接,并且另一位用户也支持前者的说法,称该聊天机器人多次给多个用户编造了一份参考资料列表。

(半岛电视台)
(半岛电视台)

事情的严重性

当然,在这之后我们确定,ChatGPT伪造著名新闻网站的来源链接,并声称从这些虚假链接中获取信息。

而该缺陷不属于OpenAI发布的关于人工智能“局限性”及其可能向用户提供虚假信息的可能性的警告范围,如下图所示。

(半岛电视台)

伪造源链接不在这些警告范围内,并且这是很危险的。例如,当机器人显示诸如“iPhone是三星产品”之类的虚假信息时,这可能是可以接受的,但如果信息是正确的并且消息来源是捏造的,就像我们之前测试的一样,那么事情就会变得危险,原因有以下几个:

1、如果信息有误,用户很容易核对。但是,如果链接不起作用并且不确定原因,那么他如何检查来源?这些网站真的可能会删除新闻吗?还是存在技术错误?

2、提到的链接的结构正确且与网站上使用的结构相同,但是问题出在链接末尾的标题上,这显然是捏造的。这给用户的印象是网站可能已经删除了材料或更改了链接。

3、该机器人声称它以这些链接为依据,并声称原因是信息网站删除了链接并进行了编辑更改。这似乎是不正确的。可以与人类故意的错误信息进行比较,例如,当一名记者说他从特定来源获得信息,而他知道他捏造了来源,即使信息是正确的,这也会被认为是故意误导。

所以,如果我们认为机器人知道这些来源是如何来的,并且是由它创造的,那么它对我们说它没有创造这些来源的回答就是故意误导。但如果它不知道链接生成的机制,它应该说:我不知道我是如何向用户提供这些链接的,这是自动进行的,无法验证。

4、一些故意破坏者能够利用人工智能传播假新闻,将其归咎于可靠的媒体网站和机构,并在人工智能的支持下向用户提供虚假信息。

5、根据世界上大多数国家的大多数电子出版法,伪造属于知名新闻机构的网站链接是非法的和盗版的。至于向用户提供这些链接作为他从中获取信息的来源的有效链接,这属于法律追究责任的网络犯罪类别。

OpenAI需要回答的问题

我们就此事联系了OpenAI,但直到撰写本报告前都未收到回复,以下是等待他们回答的问题:

  • ChatGPT在撰写有关剑桥分析事件的文章时使用了哪些来源?谁负责审查这些来源?并且是如何验证的?
  • ChatGPT的语言生成工具是否保留其生成文本所依据的资源?例如:在有关剑桥分析事件的文章这个案例中,可以肯定的是,该工具是基于机器学习技术生成文本的,但是否有一种机制可以将它处理的这些信息与从中获得的真实来源联系起来?或者是在没有将这些信息链接到重要来源的情况下模糊地提供材料和内容?
  • 显示来源的机制是什么?机器人是如何生成虚假资源的?从技术上讲,这取决于某种算法。机器人将来源作为它可以根据某些指令生成和操作的可变信息来处理,而不是作为它只需要检查和验证的常量。
  • 当被直接提问时,机器人如何基于生成链接的免责声明来生成答案?它如何生成归因于发布政策变化或网站上的材料被删除的答案?这种回答问题机制很可怕。因此,首先是要透明,明确表示它没有消息来源,这些链接是经过内部算法处理的信息!
  • 系统调查和回答用户问题的运行机制是什么?尽管机器人显然没有给出所有这些链接如何不起作用的答案,但它坚称错不在它。

这让我们真的很怀疑这个基于人工智能的机器人的能力,因为它有很强的辩解能力,声称错不在自己。但与此同时,它无法在谷歌上显示任何简单程序都可以收集并提供给用户的正确链接。这让我们不禁怀疑它在这个领域的运作机制,以及公司需要澄清的必要性。

呼吁全球所有媒体平台

作为技术人员,我们只能依赖于技术及其在我们生活中的巨大作用;而作为记者,我们不能忽视媒体和新闻领域的技术进步,无论是在新闻编辑方面还是在核实和发布方面。

然而,职业道德问题一直主导着在该领域采用新技术的任何讨论。信息来源是任何记者或媒体机构可信度和可靠性的主要因素。因此,这些机构采用新的媒体政策,在人工智能领域设立专门的部门,并与该领域的领先科技公司合作,是解决这一短板最合适的解决方案。

在这里,我们呼吁媒体机构为在媒体领域使用人工智能制定明确的战略和媒体章程,并与生产该技术的公司发展合作伙伴关系,以便采用新闻和媒体领域的标准方式教育和提升它们的产品,并重点教育公众了解该技术的运行机制及其能力和局限性。

来源 : 半岛电视台