人工智能的司法应用困境及完善路径
The Dilemma and Improvement Path of Judicial Application of Artificial Intelligence
DOI:10.12677/ds.2024.109378,PDF,HTML,XML,下载: 3浏览: 34
作者:曾祥鑫:河南理工大学文法学院,河南 焦作
关键词:人工智能算法司法数据价值Artificial IntelligenceAlgorithmJudicial DataValue
摘要:人工智能的发展给司法领域带来的影响愈发明显。人工智能的司法应用可提升审判效率、促进同案同判的实现、在一定程度上保障司法公正,但同时也带来了挑战。目前人工智能司法应用存在司法数据质量偏低、算法歧视、责任承担、算法黑箱、数据安全等突出问题。因此,需要加强司法数据的管理、提高司法数据的全面性、真实性、准确性,从事前预防和事后监督两方面规制算法歧视,明确人机责任承担、坚持法官在判案中的主体地位,提升算法的公开性和可解释性,加强数据安全监管,以促进人工智能司法应用走出困境。
Abstract:The impact of the development of artificial intelligence on the field of justice is becoming more and more evident. The judicial application of artificial intelligence can improve trial efficiency, promote the realization of the same case and the same sentence, and to a certain extent guarantee judicial justice, but it also brings challenges. At present, the judicial application of artificial intelligence has outstanding problems such as low quality of judicial data, algorithmic discrimination, liability, algorithmic black box, and data security. Therefore, it is necessary to strengthen the management of judicial data, improve the comprehensiveness, authenticity and accuracy of judicial data, regulate algorithmic discrimination in terms of both prevention and supervision, clarify the responsibility of man and machine, insist on the subjective status of the judge in deciding cases, promote algorithmic openness and interpretability, and strengthen the supervision of data security, so as to promote the judicial application of AI out of the dilemma.
文章引用:曾祥鑫. 人工智能的司法应用困境及完善路径[J]. 争议解决, 2024, 10(9): 8-15. https://doi.org/10.12677/ds.2024.109378

1. 引言

随着我国科技水平的快速发展,人工智能成为人们街头巷尾谈论的热门话题之一。人工智能与各个领域的结合推动了各个领域向网络化、数字化、智能化方向发展,人工智能 + 司法当然也不能置身事外。2016年,时任最高人民法院院长周强首次提出建设“智慧法院”。2017年,最高人民法院印发《关于加快建设智慧法院的意见》提出以信息化促进审判体系和审判能力现代化。2022年,最高人民法院发布《关于规范和加强人工智能司法应用的意见》(以下简称《意见》)提出要进一步推动人工智能同司法工作深度融合,全面深化智慧法院建设,创造更高水平的数字正义。我国正在大力推动人工智能在司法领域的深度融合,并且在具体应用过程中形成了“百家齐放、百家争鸣”的格局。目前,最高人民法院及部分地方法院推出了智能辅助办案系统,如北京市高级人民法院的“睿法官”智能研判系统、上海市高级人民法院的“206”刑事案件智能辅助办案系统、河北法院“智审”系统以及最高人民法院的“类案智能推送系统”等等[1]。这些智能办案辅助系统极大地提高了办案效率、质量和水平,推进了司法体制改革的进程。但是,在人工智能司法应用的具体过程中也引发了新的问题和挑战。因此,本文以人工智能的司法应用的作用为切入点,分析目前人工智能司法应用过程中存在的司法数据质量偏低、算法歧视、责任承担、算法黑箱、数据安全等问题,并进一步提出相应的解决方案。

2. 人工智能司法应用的作用

2.1. 提升审判效率

随着我国法治建设的不断深入,公民的法律意识有了大幅度的提高,这就导致了诉讼案件的爆炸式增长。在2018年~2022年期间,地方各级人民法院和专门人民法院受理案件逐年增加,总计达1.47亿件,12023年全国各级法院受理案件更是高达4557.4万件,同比增长15.6%。2这个案件数量是十分巨大的,导致法官人均办案数量快速增长且居高不下,尤其是基层人民法院,一名基层法官每年要处理几百件案件。虽然我国正在积极探索多元化纠纷解决机制、案件繁简分流机制、法院审判改革机制等司法效率提升机制[2],但是仍不能有效改变人少案多的现状。人工智能的司法应用为这个问题提供了新的解决路径,通过人工智能解决一些重复性、流程性的工作,可以将法官从繁琐的、重复性的工作中解救出来,使法官在证据认定、法律适用等关键环节中拥有足够的时间和精力,这样就能极大的提高审判效率。众所周知,法官大部分的时间是花费在审判案件和裁判文书的写作上。以文书撰写环节为例,目前我国法院正在积极推动电子卷宗随案生成和深度应用,对于线上立案的案件,直接通过系统生成电子卷宗,对于线下立案的案件,通过扫描、转录等方式生成电子卷宗。在案件审理过程中,智慧审判系统能够自动分析并提取的电子卷宗中的案件信息,然后生成通知书类的简单程序性文书。在法官起草裁判文书时,系统能够自动选择文书模板、识别电子卷宗后填写当事人信息、案件事实、诉讼请求等基本信息,随后在系统数据库案例中找到类似案件的裁判要旨和裁判尺度,生成裁判文书,在法官审核且确认无误之后便可以盖上电子章,发生效力。目前,苏州的“未来法官助手”系统已经可以在两分钟内初步完成裁判文书主要内容,完成度高达70%,再经过法官修改阅核、盖上电子签章后便可向当事人发放判决书[3]。所以人工智能的司法应用极大的缩短了案件办理时间,提高了审判效率,缓解了基层人民法院的裁判工作压力。

2.2. 促进类案同判的实现

由于各个法官的水平、能力、个人习惯、道德素养等的不同,同案不同判现象也经常发生,甚至同一个法院的判决都存在很大的差异,极大的影响了司法公正的实现。近年来,最高人民法院制定了《最高人民法院关于统一法律适用加强类案检索的指导意见(试行)》《最高人民法院关于完善统一法律适用标准工作机制的意见》《最高人民法院统一法律适用工作实施办法》等多个规范性司法文件,对统一法律适用、裁量权行使进行了较为具体的规范。与此同时,人工智能的司法应用既有了较为明确的依据,又有了较为具体的需求:即人工智能的司法应用能解决类案不同判的难题,法官对于案件可以通过检索案情特征、争议焦点、案由、引用法条等信息找到类似案件的判决结果,再根据案件的具体情况做出判决,这样也可以保证结果的确定性和可预测性。对于法官来说,这也是一种监督方式,如果法官做出与类似案件的判决差距较大的判决,那么就必须加强说理和论证。目前,部分地方各级人民法院利用大数据技术建立起类案不同判预警系统,此系统根据案件情节特征从案例数据库中自动匹配到类似案例,并据此计算出类案判决结果,为法官裁判提供参考,如果法官的判决结果与系统推算的判决结果发生重大偏离时,系统将自动预警,这样不仅可以统一裁判尺度、促进司法公正实现,而且法官量刑提供较为全面的数据支持,在一定程度上规范了法官的自由裁量权,防止法官滥用权力,推动量刑科学化、合理化建设[4]

2.3. 保障司法公正

司法是维护社会公平正义的最后一道防线,司法是否公正直接影响到公民对法律的信仰。我国法律已经对法官、检察官、律师等法律职业人员提出了明确且严格的职业伦理要求,但在实践中,一些法官经受不住诱惑,利用自己手中的权力干预司法活动、操控司法结果,破坏了司法公正及司法公信力。人工智能的应用可以有效地控制这种情况发生,通过大数据可以记录并查询到法官的司法行为、司法活动,促使司法过程的公开、透明,减少司法腐败的发生,有效避免别有用心的人利用关系、金钱、人情等干预司法结果,影响司法公正。此外,在现实生活中还有一些律师会专门分析法官的爱好、习惯、经历等,然后在法庭辩论时就可以有针对性的辩论,从而达到自己所预料的判决结果。人工智能不具备人类所拥有的感性思维,同样就不会被各种利益关系所影响,判决结果一般也就会更加公正、客观,可以有效的保障司法公正,维护公平正义。

3. 人工智能司法应用的困境

3.1. 司法数据质量偏低

数据是人工智能司法应用的基础,如果样本数据的真实性、客观性、全面性存在问题,那么基于司法大数据而衍生的类案推送、裁判结果预测、文书自动生成等辅助审判功能可信度将大大降低,人工智能司法应用的优势也就大打折扣了[5]。首先,司法数据缺失问题尚未解决。目前,涉案企业合规不起诉的案件、检察机关酌定不起诉的案件、民事调解案件等案件不上传至中国裁判文书网,这些无法在数据库中检索到的案件导致司法数据不完整。此外,部分判决书中,法官既没有对量刑结论进行详细解释,又未在判决书重载明对案件有影响的案外信息。当样本数据不够全面时,判决的结果也会受到影响。其次,数据标注也是一种主观的选择,数据标注是司法知识图谱构建的重要基础[6],而知识图谱绘制往往并不是自动的,其需要法律专业人员和算法设计人员等展开手动的内容分类、节点选取、特征标注等工作。上海“206”系统采用了人工标注和自动标注两种方式,但是自动标注的内容也需要经过工作人员的确定,所以不管哪一种方式,最终都还是由人工确定,但是标注难免会掺杂人的主观判断,导致结果会因人而异,最终影响人工智能裁判结果的准确性和全面性。最后,由于地域差异、政策变化、法律修订等因素,会导致某些样本数据具有地域性、时间性等限制,如果不加以区分也容易导致裁判结果的准确性受到影响。

3.2. 算法歧视问题

将人工智能引入到司法领域的目的之一就是克服法官个人原因所导致的歧视和偏见,但是算法本身也可能存在歧视的问题,如果做出判决的程序有问题,那么判决的结果也会有问题。算法歧视对司法公正的影响比人为歧视更加深刻,人工智能的复杂算法对于法官而言是法律知识之外的盲区,这种不为人知的算法往往会支配司法裁判的生成并具有一定的权威性[7]。美国威斯康星州诉卢米斯案就使用了一种带有歧视的算法系统——COMPA[8]。COMPA风险评估系统基于对被告的讯问以及从被告犯罪史中获取的信息,对被告的累犯风险进行评估,法院再根据这个量刑辅助系统进行判决。但是在后来,有研究发现这个算法系统存在歧视,ProPublica分析发现,该算法在预测罪犯累犯概率方面的正确率达到61%,但在预测暴力累犯概率方面的正确率只有20%[9]。算法歧视的形成机制主要表现为以下三种:1) 样本数据的不全面或者不具有代表性而导致的采样偏差。样本数据的质量直接影响判决的结果,如果在采样时就存在偏差,那么其所产生的结果也必然会存在偏差。2) 算法设计者个人的偏见或歧视。算法是由技术人员编写的,在编写过程中技术人员可能会将自己的歧视写入算法之中,这样也会导致算法的歧视。3) 算法本身具有在运算过程中出现偏见或歧视问题。这种一般是因为设计人员本身能力问题导致在运算过程中出现了程序漏洞。算法歧视问题具有隐蔽性的特征,一般也难以发现,而且一旦运用到具体的案件,这种潜在的歧视就会不断的重复,对司法公正会产生巨大的影响。

3.3. 责任承担问题

司法大数据辅助审判在一定程度上影响了法官审判权的独立行使,为司法责任的落实设置障碍。虽然《意见》中规定“司法责任最终由审判者承担”,但并未在责任认定与承担方面作出详细配套的规定。我国的司法裁判智能化并不是由人工智能裁判代替法官裁判,人工智能始终是处在一个辅助裁判的位置上,我国的司法责任制改革就是让审理者裁判、由裁判者负责,所以,当最终的裁判结果有错误时,审判者是责任承担者。但是,仅仅一句让审理者裁判、由裁判者负责并不能解决现实的复杂问题。因为现在的人工智能司法应用与以前的法官直接裁判大相径庭,以前的法官直接根据事实认定和法律依据判决,其具有较大的自由裁量权,所以理应承担司法责任。但是,在人工智能司法应用中,法官的自由裁量权已经受到了较大的限制。但是,人工智能司法应用一旦出现问题,责任如何承担或分配主要存在以下问题:其一,人工智能系统中存在算法黑箱、算法歧视等问题导致案件判决错误时,能否完全让审判者承担责任;其二,司法机关可否追究人工智能系统的研发者、设计者的责任;其三,当人工智能系统与法官均存在问题时,责任如何划分等。

3.4. 算法黑箱问题

算法黑箱问题是众多学者对人工智能司法应用批判最多的问题之一。算法机制的不透明性,使人们难以直接地了解人工智能在做出具体决策时的运算依据与逻辑。党的十八大以来,各级人民法院一直在努力深化司法公开,让权力在阳光下行使,但是算法黑箱严重侵蚀司法的透明度,为裁判公信力增加了风险,也使公民对司法的权威性产生怀疑。算法的不透明性大致存在三种情形:一是因为算法涉及到商业秘密而不能公开。系统研发公司花费了大量的人力、物力、财力研发了智能辅助裁判系统,如果将产品源代码、运行程序公布与众,那么公司的盈利将无法得到保证,也会打击此类公司进行科技研发的积极性;二是因技术不成熟而产生的不透明;三是因人工智能算法内部的复杂性而产生的不透明[10]。目前的人工智能辅助裁判系统一般都具有类案推送功能,但是法官不具有人工智能方面的专业知识,不了解系统推送的原理,也就无法知道推送的案件的关联性和可参考性大小。在刑事案件中,如果法官借助人工智能算法进行量刑,当事人对量刑结果不服,其所享有的救济权利,会因为“黑箱”问题受到一定程度影响,导致当事人的救济权利难以得到实质性行使和保障。所以不论是将人工智能运用到辅助量刑还是预防犯罪中,公民都难以对其进行有效的监督,这样也会影响到公民对判决结果的可接受性和对司法权威的信任。

3.5. 数据安全问题

人工智能的司法应用是以收集数据为前提的,司法机关收集的数据会涉及到个人隐私、商业秘密、国家秘密等重要信息,如果对这些信息不加以保护或者保护不到位,那么很有可能对个人、公司及国家的安全产生重大影响。当前,数据隐私泄露情形主要有以下三种:第一种,技术服务商泄露隐私数据。由于法院缺乏专业的技术人员,所以智能办案辅助系统的建设就需要跟专业的技术服务商合作。在合作过程中,技术服务商不可避免的获取到大量的关于公共的或者个人的私密数据,这些数据的安全性难以保证,很容易就导致技术服务商利用这些数据跟他人交易的情形发生。第二种,法院泄露隐私数据。智能办案辅助系统研发出来之后,就会在司法的各个环节应用,可以接触隐私数据的司法工作者也众多,隐私数据泄露风险也较大。如果司法工作者故意或过失导致私密数据泄露,不仅对当事人的隐私安全造成威胁,还影响司法公信力。第三种,黑客或病毒攻击导致私密数据泄露。每年黑客入侵系统、获取数据的犯罪案件都数不胜数。司法机关掌握的私密数据更多,私密性更强,若发生黑客或病毒攻击造成数据泄露的情形,则给社会和个人带来的损害难以估量。人工智能司法应用过程中如何保证当事人的私密数据安全性已经成为人们当下亟待解决的问题。

4. 人工智能司法应用的完善路径

4.1. 强化司法数据管理

数据是人工智能运行的基础,如果数据存在问题,那么运行结果也会出现问题。面对我国目前司法数据存在的问题,首先在数据源头阶段,一方面要扩充司法数据储备,建立统一的司法大数据库[11],司法机关间的数据要及时互通、共享,保证数据库中的样本数据数量。数据汇聚重点由案件结果数据向案件办理过程数据延伸,重点突出法律推理的过程[12]。另一方面,要建立数据库案例的遴选机制[13]。目前我国的裁判文书网上的判决书质量参差不齐,有些判决存在明显的错误,比如在深圳市福田区人民法院的一则执行裁定书中将“江苏省南京市”错写成“安徽省南京市”3,这种明显的错误在裁判文书网中可以发现很多,所以需要建立数据库案例的遴选机制,审核上传到数据库中的每一份判决书,要保证判决书的质量,以此提高判决的准确性。对于涉及国家秘密、商业秘密、个人隐私的判决书,最高人民法院新上线的全国法院裁判文书库支持全国法院干警在四级法院专网查询检索裁判文书,这样即使涉及到不适宜公开的判决书也可以通过法院专网供其他法院参考,保证了数据的全面性。4其次,在数据录入阶段,一要建立数据上传追责机制,每个技术人员需要对自己上传的数据的真实性、准确性负责,如果上传或标注数据存在错误,那么上传数据的人要承担相应的责任。二要加强对人工智能技术人员的伦理教育,[14]让每个技术人员树立正确的价值观,严禁具有歧视性的技术人员从事数据录入工作。最后,在数据维护阶段,要加强司法数据的鉴定、抽查工作,定期检查数据库里的数据。对于司法数据库中的数据信息及时的进行筛选,避免有些数据因为法律修改、政策变动而不适用,确保数据质量的可靠性;对于有些长时间未被使用的数据要及时清理[15]

4.2. 规制算法歧视

规制算法歧视可以从事前预防和事后监督两个方面进行。在算法系统应用到司法领域之前,需要保证系统中数据的准确性、真实性,数据需要经过专业人员的筛选,在数据的收集阶段就保证数据没有歧视或偏见。设计者的主观偏见可能不会完全消除,这就需要设计者坚持算法中立的原则。首先,事前预防可以从技术上建设开源社区,使用开源的方法来审查和分类大数据,开发消除偏见的程序[16]。其次,可以建立算法审查机制,由专业人员组成审查小组,对算法进行审查,对于算法中的变量,比如性别、年龄、家庭住址、犯罪记录等因素进行审查,确定这些变量是否存在偏见的问题,是否存在权重配置不合理的问题。对算法应用的每一个环节都要进行反复核验,使其尽可能的不受个人无意识的偏见或者歧视的影响,保证司法公正[17],维护司法公信力。此外,对于不常见的案例甚至极端的案例要格外关注,使算法能够尽可能的应对各种情况。最后,建立追责机制,对于故意使算法存在歧视情况的人追究民事甚至刑事责任,通过立法的方式预防因故意导致算法歧视的情况发生。明确算法设计者、算法使用平台和算法审核或监督人的法律责任[18]。在监管方面要设立专业的监督机构,由法学专家、计算机专业及社会人员组成,既保证专业性又保证民主性。

4.3. 明确责任承担及分配问题

目前我国司法应用的人工智能仍属于弱人工智能,人工智能只是处于一个辅助地位,最终的权力仍掌握在法官手里,所以原则上由审判者承担责任并没有问题。但是,当因为人工智能系统存在问题导致案件判决结果有误时,不应当再一味的让审判者承担责任,而应当分情况进行责任分配。目前,根据功能的不同,可以将人工智能司法应用分为两类:一类是作为提高效率的司法工具,如法律信息检索系统、在线立案、文书生成、网络庭审等;一类是作为辅助法官决策的司法工具,如辅助量刑系统、类案推送系统、裁判建议系统等[19]。如果是人工智能系统在提高审判效率方面存在问题,那么由法官承担全部责任。因为此时法官的自由裁量权并未受到影响,其应当对自己的判决负责。如果人工智能系统在辅助法官决策方面存在问题,那么应当将人工智能系统的研发者、设计者、维护者共同纳入到司法问责的体系中[20]。对人工智能系统的研发者、设计者、维护者存在故意或者过失导致人工智能系统在问题的情形,让其与法官共同承担责任,责任大小由人工智能系统在判决中影响力大小决定,如果坚持法官承担全部责任也会导致法官对人工智能的不信任,也不利于智慧法院的建设;对于人工智能系统的研发者、设计者、维护者都没有过失,而是系统其自身在运行中产生的问题的情形,人工智能系统的研发者、设计者、维护者无需承担责任,由存在过失的法官承担责任。因为这是人工智能发展的代价,如果对研发者、设计者、维护者要求承担的责任过多,也不利于人工智能司法应用的发展。如果人工智能产品存在质量问题,法官作为人工智能系统的直接使用者,在因产品质量问题承担司法责任后,有权要求人工智能产品开发、销售的相关主体进行赔偿[21]

4.4. 提升算法的透明性和可解释性

算法公开也是发现算法错误、进行权利救济的前提,所以应当建立一种合理的、有限度的算法公开制度。算法公开的内容应当包括运行原理、影响因素、判断标准、源代码等可能涉及到影响算法公正的各个方面。算法公开的对象应当仅限于相关机构和法院,一方面是为了保护商业秘密,防止有人利用公开的算法制作类似的系统,侵害人工智能研发公司的利益;另一方面是为了防止有人利用公开的算法入侵人工智能系统,篡改数据信息。此外,算法具有极强的专业性,即使完全公开,对于没有专业知识的法官来说,依旧是无法跨越的门槛。在信息化、智能化时代的今天,法院应当积极培养复合型人才,这样才能在审判中掌握主动性。算法可解释性是指算法的运算过程和结果能够向用户等解释并为人所理解[22],通过人机互动、知识图谱等方式增加数据的可解释性,进而对数据的合理性和合法性进行判断。算法公开和可解释性也可以在一定程度上减少算法歧视和算法被人为操控的可能性。

4.5. 加强数据安全监管

人工智能时代已经来临,人工智能的司法应用也是不言而喻的发展趋势,所以必须要建立一个完整的司法数据保护机制来维护个人隐私、商业秘密、国家秘密。首先,建立相应的问责机制,对于因技术服务商过错导致数据丢失、泄露、篡改时,要对其进行追责。司法工作人员也要对技术服务商的行为进行监管,定期进行安全检查,防止私密数据泄露情形发生。此外,以高标准选择技术服务商,严格审核技术服务商的资质。其次,加强法院数据库安全建设,定期对数据库安全进行检查和维护,聘请专业人员建立防火墙,提高网络流量的安全性和可信性。对于涉及到个人信息、商业秘密、国家秘密等重要信息,进行加密处理,防止被篡改。最后,法院要加强数据库访问权限的管理。严格限制可以访问数据库的司法工作人员,每个可以访问数据库的司法工作人员都必须使用自己的账户及IP地址。这样发生数据泄露时,可以快速查找到泄密人。

5. 结语

我国的智慧法院建设目前已经取得显著的成果,人工智能司法应用也在朝着高水平、高层次方面发展,如何让人工智能有效地发挥作用也是一直令人困扰的问题。时代的潮流总是向前发展,人工智能在司法应用中所存在的问题是不可避免的,但并不是不可解决的。以后要始终坚持以实践为导向,直面人工智能司法应用中的各种问题,并探索相应的解决方案,努力推动司法智能化建设,提高司法效率。但是,人工智能司法应用也对原有的司法伦理观念产生冲击和挑战,出现了人工智能系统对其辅助性地位的僭越。在未来,需要进一步地探讨人工智能司法应用场景和范围,建立相应的规范机制。

NOTES

1参见《2023年最高人民法院工作报告》。

2参见《2024年最高人民法院工作报告》。

3参见《裁定书错误表述“安徽省南京市”深圳市福田区法院:严肃追责》,载央视网2023年12月05日,https://news.cctv.com/2023/12/05/ARTIyayE0feboiw8aa1m1Fxh231205.shtml

4《最高人民法院办公厅关于建设全国法院裁判文书库的通知》法办〔2023〕551号。

参考文献

[1] 宋旭光. 论司法裁判的人工智能化及其限度[J]. 比较法研究, 2020(5): 80-92.
[2] 王文玉. 司法人工智能: 实现裁判正义的新路径[J]. 大连理工大学学报(社会科学版), 2022, 43(6): 100-109.
[3] 丁国锋. 苏州法院运用AI打造“未来法官” [N]. 法治日报, 2024-04-10(001).
[4] 王玉薇, 高鹏. 人工智能算法司法应用的发展隐忧及完善路径[J]. 学术交流, 2023(11): 69-83.
[5] 蔡立东, 郝乐. 司法大数据辅助审判应用限度研究[J]. 浙江社会科学, 2022(6): 52-62, 156.
[6] 马长山. 司法人工智能的重塑效应及其限度[J]. 法学研究, 2020, 42(4): 23-40.
[7] 宋灵珊. 司法智能化改革的地方试验及其完善路径[J]. 东南学术, 2023(3): 225-234.
[8] 江溯. 自动化决策、刑事司法与算法规制——由卢米斯案引发的思考[J]. 东方法学, 2020(3): 76-88.
[9] 刘妍. 人工智能的司法应用及其挑战[J]. 河南财经政法大学学报, 2022, 37(4): 136-145.
[10] 周媛, 张晓君. 人工智能司法的可解释性困境及其纾解[J]. 财经法学, 2023(2): 3-20.
[11] 牛犁耘. 人工智能的司法应用与法理审视[J]. 河南师范大学学报(哲学社会科学版), 2023, 50(5): 56-62.
[12] 江苏省高级人民法院课题组. 数字经济背景下人工智能的司法应用[J]. 法律适用, 2023(5): 144-151.
[13] 秦汉. 人工智能司法裁判系统的学理反思[J]. 北方法学, 2021, 15(3): 119-120.
[14] 刘国华, 沈杨. 人工智能辅助司法裁判的实践困境及其应对策略[J]. 学术交流, 2021(9): 42-52, 191-192.
[15] 张玫瑰. 司法裁判中人工智能应用的限度及规制[J]. 政法论丛, 2023(5): 115-129.
[16] 魏斌. 智慧司法的法理反思与应对[J]. 政治与法律, 2021(8): 123-124.
[17] 李婷. 人工智能时代的司法公正: 价值效用与风险防范[J]. 江苏社会科学, 2023(1): 111-125.
[18] 张妮, 蒲亦非. 司法智能裁量系统: 问题、措施及趋势[J]. 四川大学学报(自然科学版), 2023, 60(2): 183-194.
[19] 葛金芬. 司法人工智能应用中法官的渎职风险及其刑事责任[J]. 湖南社会科学, 2023(3): 94-103.
[20] 张凌寒. 智慧司法中技术依赖的隐忧及应对[J]. 法制与社会发展, 2022, 28(4): 180-200.
[21] 张琳琳. 人工智能司法应用的责任归结困境与解决路径[J]. 当代法学, 2023, 37(5): 100-111.
[22] 郑曦. 生成式人工智能在司法中的运用: 前景、风险与规制[J]. 中国应用法学, 2023(4): 81-93.

为你推荐

Baidu
map