“机器人法官”:人工智能会影响法院判决吗?

“机器人法官” (社交网站)

随着人工智能在人们生活许多领域内的广泛应用,科学界正在进行一些有关该技术的严肃讨论,包括在授予模拟人类行为的机算机算法以影响法院判决的权限时的伦理维度。

人工智能被认为具有诸多优势,例如可以加快司法程序并使常规程序自动化。而在法律领域内,这类应用程序已经处于实验的最前沿,并且已经开始在世界不同地区得到检验,尤其是在中国、加拿大、爱沙尼亚和马来西亚。

根据阿纳多卢通讯社的报道,在爱沙尼亚,已经可以通过“机器人法官”来评估一些小规模的案件,而加拿大也推出了“调解机器人”,此外还有中国的“人工智能法官”,马来西亚的“人工智能仲裁系统”,这些都已经使算法在司法系统中占据主导地位成为了现实。

早在2019年,中国互联网法院的互联网诉讼服务中心,便开始使用人工智能软件辅助法院的立案决策以及常规法律程序,包括案件的提交与跟进。

同年,爱沙尼亚也开始在法庭上使用人工智能增强型机器人应用程序,尤其是在审查和分析法律文件,以及处理总物值低于7000欧元的案件时。

另一方面,马来西亚自2022年开始在该国部分地区的法院内使用基于人工智能的司法系统实验性应用程序。

尽管将人工智能纳入司法系统,有助于从财务成本上使那些积压的案件得到更为一致且有效的判决,但是,当前争论的焦点在于,这些规定和应用程序是否拥有法律伦理层面的健全性。

伦理监督最为重要

阿纳多卢通讯社采访了伊斯坦布尔梅迪波尔大学的法学院讲师艾哈迈德·阿拉维·图尔克巴格,后者认为,人工智能的伦理监督应当受到特定原则的制约,而其中最为重要的是:人工智能应当是透明的。他还补充称,这是一项必须受到绝对控制的条件。

对此,图尔克巴格解释称,人工智能有能力作出令人意外的决定,他还强调,计算机算法所作出的决定,必须处在人类的能力范围之内。

但是他又强调,由算法作出的法院判决,必须能够接受人类智能的审查,并且有可能通过类似于防病毒应用程序的那类程序,来很好地控制这些算法。他还补充称,这类程序可以审查常规用途或者特殊用途的人工智能程序的运行情况,并提高其伦理可靠性。

美国人工智能与数字政策中心(非营利组织)已经向美国联邦贸易委员会提起投诉,要求暂停使用由人工智能开发商“OpenAI”开发的最新版本的聊天机器人应用程序“GPT-4”。

该中心指控“OpenAI”存在欺骗行为,并且违反了《不公平贸易行为法》以及与人工智能产品指令相关的规定。该中心还强调,“GPT-4”应用程序存在欺骗用户的情况,并且对用户隐私以及公共安全构成了威胁。

该中心声称,“OpenAI”开发的人工智能产品,并不符合美国联邦贸易委员会在其指令和法规中规定的透明度和问责制标准。

人类智能

另一方面,图尔克巴格表示,如果对人工智能作出的判决提起上诉,那么该案件应当被移交上级法院,并由人类智能进行处理。

他还补充称,“即使我们接受了人工智能的可靠性,但是从法律和伦理的角度来看,人类本身的因素也不应当被忽视。基于此,人工智能应当根据其所处理问题的重要性来对数据库进行大规模的扫描。”

图尔克巴格指出,在计算机算法的工作中存在一个积极的层面,即人工智能可以开发出一套层次结构,使其应用​​程序能够在对这些案件采取任何法律措施之前,将其与此前处理过的同类案件进行快速比对。

图尔克巴格还解释称,人工智能将会重复其过去曾在类似案件中作出的判决,但是,在一些重要的案件中,例如人工智能在自动驾驶汽车发生严重交通事故时的行为和作用,则仍然是科学界和工程界正在激烈讨论的最重要的纯伦理问题。

来源 : 阿纳多卢通讯社

广告