Facebook的阴暗面:为什么通信平台无法对抗错误信息?

健康领域虚假新闻的负面影响不仅限于心理问题,还会造成直接损害,直至死亡。因此,我们不禁要问,这种错误信息传播的原因,究竟是人类喜欢刺激和阴谋论的天性,还是此类新闻发布的平台在这场灾难中发挥了作用?为什么Facebook不愿意删除误导人们的名人账号?为什么该平台允许错误信息在极端政治分子聚集的群组和页面中传播?更重要的是,为什么YouTube、推特和Facebook平台会阻止这些领域的研究人员访问分析现象所需的所有信息?!

Facebook最近因允许错误的医疗信息在平台上传播而受到诸多抨击。一些泄露的内部文件表明,Facebook可能比我们之前想象的更糟糕,它故意对这些信息视而不见。这些错误信息是焦虑的主要来源。一项研究发现,从Facebook接收信息的参与者比从主流媒体接收信息的参与者更有可能抵抗疫苗接种。

作为社会和公民媒体的研究人员,我相信我们对错误信息如何在互联网上传播的理解至关重要,但事情总是说起来容易做起来难。简单地计算社交媒体平台上的错误信息会给我们带来两个未回答的主要问题:首先,用户遇到这种错误信息的可能性有多大?其次,这些信息是否可能对用户产生不同的影响?

Facebook的影响

2020年8月,阿瓦兹基金会(一个关注人权问题并披露错误信息的非营利平台)发表了一项研究,指出Facebook负责检测错误信息的算法对公共健康构成重大威胁。他们发现分享误导性健康信息的来源——大约82个网站和42个Facebook主页,每年的浏览量约为38亿。

乍一看,这个数字可能会让您感到惊讶,但同样重要的是了解如何以数学方式处理这个问题。如果我们将38亿视为分子,在这种情况下,我们需要计算分母来理解浏览量的含义,如果我们认为潜在分母是29亿,即Facebook上每月活跃用户的数量,我们平均会发现每个用户至少会遇到来自这些来源的一条误导性信息。

但事情并不是这么简单。根据电子邮件营销领域的研究人员估计,Facebook用户每天在该平台上花费19至38分钟。如果我们假设19.3亿活跃用户,每人每天至少看到10个帖子,我们可以简单地计算Facebook上这些误导性帖子的传播率。将上述两个数字乘以一年的天数(365),我们得到7.044万亿,我们将其作为我们之前提到的38亿次浏览的分母,简单来说,分子除以分母为0.05%,即误导性帖子的百分比。

我们宣布这些页面上内容的浏览量为38亿,是涵盖了所有内容,包括有用的内容。基于我们之前得出的误导性帖子占比不超过0.05%的结论,这可能会让我们想知道:我们是否真的应该担心每个用户至少遇到一次的错误信息的普遍性,或者是否可以放心Facebook上99.95%的帖子不是来自阿瓦兹警告的页面?

什么值得担心

其实以上这些我们都不用担心,真正值得担心的是这些信息的分发机制。所以我们想知道,是否Facebook的每个用户都会随机遇到误导性的健康信息,还是具有选择性的话题重点关注那些拒绝接种疫苗或正在寻找“替代健康”信息的人,使他们成为接触此类内容最多的人?

为了解释这一点,另一项针对YouTube上极端主义内容的研究提供了一种了解错误信息分发的方法。该项目主要研究展示极端主义和白人极端主义内容的算法。研究人员得出结论,种族主义内容集中在已怀有种族主义观点和种族怨恨的美国人中,而YouTube的算法可能会强化这种现象。

打击网络仇恨言论中心发表了一项题为“大流行剥削者”的研究,该研究调查了Facebook上30个反疫苗群组,结果显示,只有12位名人利用这些群组劝说人们不要接种疫苗,他们对在社交媒体平台上传播的大约70%的误导性内容负责,最著名的3人传播的内容占这些内容的一半左右。但是,再一次,重要的是要问:Facebook允许多少个反疫苗群组存在?遇到这些群组发布的此类信息的用户百分比是多少?

这些研究并不是为了研究内容分发机制和试图找出真正的比例,而是提出了一些重要的问题,例如:“如果研究人员真的能找到这些内容,为什么社交媒体平台不能识别并删除它们,哪怕Facebook仅删除数十个账号就能够解决70%的错误信息问题?这个疑惑一直持续到8月下旬,当时Facebook终于开始删除12个反疫苗活动家和名人账号中的10个。

以美国制片人戴尔·德莱迪为例,他是Facebook上最著名的反疫苗活动家之一。德莱迪的问题不在于吸引新的追随者来对抗疫苗,而在于Facebook用户在其他网站上看到他的帖子,并将这些内容带到Facebook上分享。正如我们所看到的,不仅是12个人在宣传误导性健康信息,而是盖网站的数千名用户与他人分享这些信息。因此,事情变得复杂。封禁数千名Facebook用户的账号比禁止十几个反疫苗活动家要困难得多。这就是比例和内容分发对于了解网络错误信息蔓延至关重要的主要原因,这使研究人员能够对这些行为的普遍性或罕见性以及谁在共享它提出疑问。

如果数以百万计的用户有时会遇到一些关于健康的错误信息,那么与这些帖子相关的警告标志可能是有效的。但如果这些信息的来源是积极搜索和分享这些内容的较小群体,警告标志就会失去作用。试图通过计算错误信息而不考虑分发问题来理解错误信息是由于好意遇上了恶意阻碍,没有一家社交媒体网站允许研究人员准确计算网站上某些内容的流行程度。

如何使用Crowd Tangle (社交网站)

例如,Facebook对大多数研究人员施加了限制,只允许他们使用Crowd Tangle等工具(Facebook推出的用于监控公共信息和了解信息传播方式的最新搜索工具之一),但该工具专为计算内容浏览量设计,没有比例和分发方法。同样,大多数社交媒体平台都遵循与Facebook相同的路径,推特明确禁止研究人员计算其用户数量或他们在一天内分享的推文数量。YouTube在让研究人员更难查看网站收到多少视频方面同样严格,以至于谷歌经常要求求职者估计YouTube收到的视频数量,以评估他们的计算能力。

最近,这些平台的领导者声称他们的工具虽然存在问题,但对社会有益,然而,如果他们让研究人员有机会自己验证这一说法,他们的论点会更有说服力。随着社交媒体的影响变得更加普遍和占主导地位,大型科技公司可能会面临越来越大的压力,要求它们披露更多有关其用户和共享内容的数据。假设这些公司确实做出了回应并允许研究人员访问更多信息,它们是否允许他们进行精确计算以了解内容的分发方式?如果它们拒绝,是因为害怕研究人员最终会发现什么吗?


本报告翻译自《大西洋月刊》,不反映半岛电视台编辑立场。

来源 : 半岛电视台