我们怎样才能避免人工智能灾难?

机器人在关于人工智能、机器人和政治概念的国际会议上发表演讲 (Shutterstock)

人工智能虽然对提高人类生活水平有好处,但如果使用不当,也会带来很大的危害和风险。因此,必须制定法规和控制措施来遏制它,以避免由此引发的灾难。

两位人工智能领域的专家在美国《外交事务》(Foreign Affairs)杂志最新一期联合发表的文章中就此话题发表了自己的看法。

“新美国安全中心”人工智能治理与研究中心政策主管马库斯·安德林(Marcus Anderong)和他的同事、该中心执行副总裁保罗·沙尔(Paul Scharr)在文章中解释称,人工智能革命已经开始,表现为面部识别技术、文本生成以及帮助学生准备研究论文,还有将科学推向药物发现和核聚变的极限。

风险和警告

正如文章所证实的那样,人工智能给人类带来的机遇是巨大的,如果其项目设计和管理得当,它可以为改善社会状况做出很大贡献。

但据这篇文章所称,人工智能也存在巨大风险,因为它实际上增加了虚假信息的传播,延续了歧视,并使国家和公司更容易进行间谍活动。

人工智能未来或许能够创造出致病生物体或入侵敏感基础设施。

事实上,负责人工智能发展的科学家已经开始警告他们在这一领域的创新充满了风险。几乎所有科学实验室的负责人在5月给他们的一封信中敲响了警钟,称“降低人工智能导致的灭绝风险必须成为全球的优先事项,以及流行病和核战争等其他社会风险。”

发出警告几个月后,包括美国总统乔·拜登在内的政策制定者会见了该行业的负责人,敦促他们采取新措施,防止人工智能可能造成的事故和损害。

ChatGPT聊天机器人

应对这些风险的方法

专家安德林和沙尔承认,追踪人工智能带来的风险并确定可以采取哪些措施来解决这些风险是很困难的,因为人工智能对当代社会造成的危害是昨天创造的。

两位作者补充道,大多数先进设备并未得到广泛使用或理解。为了应对风险,一些专家呼吁停止最先进的人工智能系统的开发。

然而,这些系统模型对于花费数十亿美元使其难以冻结其开发活动的公司来说实在是太有利了。政策制定者可以而且应该帮助指导该部门的发展,并使公民做好接受其影响的准备。根据《外交事务》的文章,他们可以开始控制谁有权使用训练领先人工智能模型的先进芯片,确保“恶意”行为者无法开发出更强大的人工智能系统。

文章接着称,各国政府应制定法规和法律,确保人工智能系统的开发和负责任地使用。“如果应用得当,这些法规将不会限制人工智能的创新。”

但政府应该“在最危险的人工智能系统广泛使用之前”争取时间。

两位专家建议世界各国花些时间让社会免受人工智能带来的诸多风险的影响,他们必须采取广泛的保护措施。例如,找到方法帮助人们区分什么是人工智能和什么是人造内容,通过检测和限制实验室黑客行为向科学家伸出援助之手,并开发网络安全工具,使发电厂等关键基础设施处于适当管理之下。

机器学习是一门人工智能的科学

社会准备

文章作者安德林和沙尔认为,面对这些挑战,需要政策制定者和科学家发挥巨大的创造力,并迅速完成赋予他们的任务。“超强大的人工智能系统开始传播只是时间问题,而社会还没有为此做好准备。”

文章接着质问人工智能的危险程度。两位作者评论这个问题时称,“真实而可怕”的答案是无人知道。

人工智能软件的功能在于它可以帮助程序员创建可以逃避防病毒软件的恶意软件。

而也许人工智能的一个危险在于它可能使暴力“民主化”,使各种“邪恶”行为者更容易制造伤害。

《外交事务》文章警告称,虚假信息只是社会必须防范的人工智能危险的一部分。科学家还需要弄清楚如何防止人工智能模型启用生物武器攻击。

政策制定者可以开始颁布法规,禁止DNA制造商向未经授权的客户运送与危险病原体(或潜在病原体)相关的DNA序列。并且政府必须支持DNA制造商努力识别潜在危险的基因序列。

来源 : 美国媒体