风险来临:我们将如何对抗人工智能生产的虚假新闻?

LONDON, ENGLAND - AUGUST 04: A robot poses as Westfield prepare to host an interactive artificial intelligence storytelling event for kids at a pop-up indoor park on August 10 at Westfield London, August 4, 2016 in London, England. (Photo by Jeff Spicer/Getty Images for Westfield)
人工智能发展迅速,因此需要开发反制技术[盖蒂图片社]
上个月,特斯拉公司创始人伊隆·马斯克支持的人工智能初创公司“Open AI”宣布了一项新的人工智能技术,并声称其非常危险,没有将之开源的计划。
 
这项被称为“GPT2.0”的人工智能,“仅仅”是进行文本生成,报道称,它能够生成非常接近人类语言的连贯文本段落,以至于它能说服人们相信,写出这些文本的是实实在在的人。
 
要使用“GPT2.0”,用户仅仅需要在算法接受命令之前为之启动文档,然后它就能够以非常令人满意的方式完成任务。例如,给算法提供一段新闻报道中的社论性文字,它将给你生成“引号”等诸多细节。
 
根据洛克·德洛米勒在数码趋势网站上发表文章称,人工智能世界中这样的工具,使得虚假新闻越来越普遍。一旦机器智能与人类明显缺乏的“智慧”结合起来,传播虚假信息,就将造成严重的误导。
 
“终结者”
 
幸运的是,来自麻省理工学院、IBM公司下属沃森人工智实验室以及哈佛大学的研究人员,能够开发一种帮助检测这种文本的人工智能,可以帮助我们找出那些由机器生成的新闻。
 
作者将这种名叫“GLTR”的新型人工智能比喻为“终结者”,它被设计来寻找其他的致命性的机器人,这一称呼取自施瓦辛格的代表作电影《终结者》。
 
正如开发者所发布的项目代码,像“GPT2.0”这样的文本生成工具,为那些致力于生成虚假的资料、评论、新闻文章等内容的丑恶各方,开辟了有效的途径,以影响公众舆论。为了防止这种现象的发生,我们需要开发侦别这种机器生产的文本的有效技术。
 
 “GLTR”使用的模型本身,正是“GPT2.0“用以生成虚假文本的基础,这项技术通过观察部分文本,然后预测算法此后可能选择生成的连续文本。基于这一点,GLTR可以判断这些文本是否是由机器生成的。
 
这种新工具将在互联网上面向用户开放。今后,如果有人告诉你,你的写作像是机器写成的,那么,这项技术就是你证明他说得不对的机会。当然,新的检测算法目前是基于英语的。
 
到目前为止,我们仍然很容易区分人类书写和由机器生成的文本,因为它的措辞过分正式,或者写作水平非常低级,且没有任何意义。但是,这种情况很快就会发生变化,尽管如此,该项目的开发商认为,这些的工具将变得非常有必要。
来源 : 外交政策