- 智能化司法工作理论实践与创新发展
- 黄松涛主编
- 3871字
- 2024-09-26 14:04:06
现代司法审判中人工智能的缺陷与完善
黑龙江省鸡西市鸡冠区人民法院 宋 扬
人工智能在司法审判中的应用日益增多,在起诉受理、立案、送达、开庭审判、庭后裁判文书与电子卷宗整理阶段等都有所体现。它的应用提高了办案质效,节约了司法资源;有效地预防冤假错案的发生,推动司法公正;监督司法工作者,透明裁判,预防腐败。同时也带来了许多问题:冲击了个人信息自决权,侵犯个人隐私;算法黑洞的运算影响法律的公平正义;冲击了法律工作者行业,影响未来律师就业率。为了更好地让人工智能服务好司法审判,我们要加强人工智能下个人隐私权的保护,加强对人工智能技术开发者的培养来完善算法的运行,同时要加强司法工作人员的主体地位,把人工智能作为辅助系统,更好地践行以审判为中心的制度改革。
一 现代司法审判中人工智能应用的缺陷
(一)人工智能易侵犯个人隐私
人工智能系统应用的是数据的输入与分析,这就难免会对个人信息造成泄露,造成对个人权利的侵犯。个人信息包含着当事人不愿他人知道或者他人不便知道的隐私信息,主要有:个人登录的身份、电子邮箱地址、个人信用和财产情况、网络活动踪迹等。面对人工智能的发展,提供便利的同时也加大了个人信息泄露的风险。如何保护智能时代下个人信息隐私成为日益突出的一个问题。
(二)人工智能中算法黑洞会影响公平正义
算法是人工智能的核心要素,代表着人工智能决策的逻辑结构,对自主决策的过程和结果具有不可忽视的作用。尤瓦尔·赫拉利在其著作《未来简史》中认为,相比于认为判案的主观性以及其自身能力的局限性,算法系统作为一种精细化、具体化和绝对刚性的规则,将最大限度地保持案件判决的公平性。但人工智能容易出现偏见,其原因就在于算法。算法实质是指以数学方式或计算机代码表达的意见,其设计、数据的适用都由设计者、开发者自主选择,然而如果他们不了解法学、政治学和社会科学的相关内容,他们就不能完整地理解这些规则深层次的含义,也不能将这些规则代码可能产生的负面影响降到最低,那么设计者、开发者在选择的时候就可能将自己的偏见嵌入算法系统。如果刚录入的数据就出现偏见,那经过一段时间的数据训练后,算法得出的结论就是带有偏见的,这就会影响司法公正。另外,以算法的结果来定断容易形成绝对形式的理性的法律观,算法数据是死的,对法律服务工作者许多能动的实践活动根本不能充分理解,据此作出的裁判预测,有可能忽略了法律适用中的关键变量,用貌似确定的东西掩盖实际上的不确定性,形成误判,影响司法公正。
(三)人工智能影响未来律师就业率
人工智能将人从简单重复性劳动和数据计算中解脱出来的同时,也会影响未来初级律师的就业率,律师助理等职业可能会渐渐消失。2014年,北卡罗来纳大学法学院教授德纳雷慕斯和弗兰克莱维通过研究自动化在大型律师事务所中的应用后发现,如果全部采用新的法律技术,在未来十年内从事法律行业的人将减少13%。通过这个数据可知人工智能的应用必然会冲击法律行业未来律师的就业率。从目前的形势来看,人工智能对律师的重复性以及初级性的工作具有替代作用。这就对于未来的初级律师形成了严峻的挑战,凭借传统的法学知识可能难以从事法律行业,不学习可能会为时代所抛弃,难以就业。
二 对现代司法审判中人工智能的完善与建议
对人工智能在司法裁判下前景的分析,让我们意识到人工智能所带来的便利与效率,但同时也为我们的法律工作带来了困扰。霍金说:“我们别无选择,我认为人工智能的发展本身就是一种存在问题的趋势,而这些问题必须在现在和将来得到解决。”面对蓬勃兴起的人工智能和大数据技术,我们不能墨守成规,而应该充分利用,以实现最大化人工智能的社会效益。
(一)加强个人信息隐私权的保护
1.公民增强自我防范意识。隐私权的保护是人工智能时代的法律难题,智能革命不断深入发展的过程,也是隐私安全风险增大与法律保护强化的过程。我们处于智能化的时代下,联网的情况下就会产生信息的流转,例如电信诈骗的出现,不少不法分子可能会钻此时法律漏洞的空子来盗取公民的信息进行违法利用,因此我们在进行法律救济时对于一些智能化的手段要细心甄别,确认是法院检察院的正当途径时再进行信息的确认,提高自己的防范意识,对智能手段存有警惕之心。
2.法院检察院要加强对公民个人隐私的保护。对于掌握的公民个人信息要加强设备和技术投入,把握好公民个人隐私权和知情权的分寸,科技的应用要限制在法律的框架内,不能将提高办案质效的人工智能凌驾于侵犯公民的合法权利上。要开发专用的软件和系统,在技术上做好内部的防御,设立防火墙保护,提高安全保障水平,确保法院检察院内部系统的安全稳定运行。
3.国家政府要加强人工智能方面的立法。我们的法制体系要加强网络、电信隐私保护的专门立法,最终形成以民法典为主,以专门保护隐私的法律为辅,给以人民运用人工智能手段来寻求司法救济的最大的安全感。同时要鼓励发展大数据背景下的隐私保护技术,同时开展大数据普及教育、培育大数据时代的隐私权意识。面对科技技术与个人权利产生冲突的情况下,我们一方面要做得到承认人工智能带来的便利,并推动这一司法裁判领域的进步,认识到我们会在这样的背景下牺牲一部分的个人权利;另一方面也要看到人工智能本身带来的个人权利受到侵犯的法律问题,现如今就需要法律界与人工智能界的共同探究努力,早日在这两者之间找到一个折中和平衡点。
(二)完善算法运行,提高算法数据以及算法训练数据的质量
1.对数据偏见建立一套算法审查制度。我们可以参照国外的做法,建立由经验和资质的法官、检察官、律师以及人工智能、伦理、法学等领域的专家组成审查委员会,不定期地进行对算法数据的审查,以保证算法的公正和合法性。在第一步算法输入的时候就由算法审查委员会对算法的数据进行第一步的筛选,然后在算法进行数据训练的时候进行二轮筛选,审查其是否符合法律与伦理的要求,对有偏见的数据作出必要的矫正,防止其对数据产生污染,导致结果的不合理。对于不符合标准的算法设计,可以要求程序员对此作出自然解释,并追究其相关责任。这种制定相关规则来约束算法开发者、设计者的行为能保证他们的行为规范,为精准的算法输入带来了保障。
2.促进法律界和人工智能界人才的交流。面对算法的偏见,审查委员会的学者们需要学习人工智能算法的知识来更好的监督审查算法数据,而开发者、设计者也要学习掌握更多的法律知识和实践能力,在开发设计时更适应司法裁判的规律。这也就是郑弋提出的设想“人工智能社会的宪法”,这样的设想需要的是法律人与人工智能开发者、设计者之间的合作,使算法进入法律,使法律进入算法,最终达到人工智能的系统符合人类的伦理和法律。
3.对人工智能辅助审理过的案件多加总结。对于一个案例的深加工处理,能使算法数据充分得到训练,深入挖掘到其案件背后的数据价值,对以后更好的服务人民、审判案件具有深刻的意义。
4.加强司法工作人员的主体地位。智能辅助办案系统不替代线下刑事诉讼活动,也不替代司法人员独立判断。虽然“阿尔法狗”战胜了围棋冠军李世石和柯洁,但只能说明人工智能可能拥有着强大的计算能力,并不能就此说明人工智能战胜了人类的大脑。虽然传统心理学所设定的人类智能的定义已经开始被人工智能所超越。无论是我们原先所认为的学习能力、记忆能力、判断能力、分析能力,还是我们人类曾经引以为豪的战略、博弈、决策、全局、运筹等思维能力,都已经慢慢被人工智能赶上来,但人工智能远不能具备人类思维的创新与活跃。人类的智慧是经过长久的学习思考积累沉淀而来,人类是集合感觉、意识、品味、兴趣、信仰等的有机的复杂体,人类能通过学习与思考改正自己的错误,寻求解决问题的办法,而人工智能只能根据人为数据的更改达到改变,因而对于司法裁判来说人类的主体地位具有重要的意义。
(三)法律服务工作者提高自我的水平,迎接人工智能的挑战
1.法律工作者们要勇于接受新技术和新模式。提升自我,增强自己的知识能力水平,学习研究人工智能的应用,为未来人工智能与司法裁判结合的工作做好充分的准备。虽然之前有研究表明律师助理被自动化的概率达到94%,引发了法律工作者的担忧。所以,人工智能在司法裁判领域的深入应用是必然趋势,律师行业的从业人数将会减少,特别是初级律师将大量减少,但人工智能并不会取代法律工作者的地位,只是进行辅助化的工作。因而,我们法律工作者并不需要去抵制,而是要学会利用,加强培养查询法律文书、运用人工智能相关软件的能力。
2.国家政府应在全国的高校中融入人工智能下的法律课程。在这一方面,最先引领潮流的是美国斯坦福大学在1984年开始组织的人工智能与法律研讨课。目前我国许多政法学院虽然开设了python等课程,但尚未形成人工智能课程体系化建设。在2017年7月8日国务院发布的《新一代人工智能发展规划中》,提出打造“人工智能+”经济、社会、管理、标准、法律等横向复合型人才,鼓励高校在原有基础上拓宽人工智能专业教育内容,形成“人工智能+X”复合专业培养新模式。在未来,法学院校要加强学生在计算机、云计算与大数据等方面的训练,为迎接人工智能下司法裁判的现代化做好准备。同时政府也要在发展人工智能方面加大投入,吸收更多的人工智能人才参与立法、司法、行政等工作。
大数据时代下,人工智能为司法裁判现代化带来了便利,提高了质效,推进了以审判为中心的诉讼制度改革,为法律服务工作者们带来福音。但在这个人工智能与现行社会伦理道德与法律规范矛盾的情况下,我们要抓紧建立完备与人工智能发展相适应的制度,提防算法黑洞,保护合法权利,让人工智能在司法裁判领域实现最大化的社会效益,真正实现智能的司法裁判现代化。