10月30日,第二届“数字法治与社会发展”高端论坛成功召开。本次会议由来自全国多所高校的专家学者、司法实务界专业人士以及互联网公司相关部门的负责人与会,并就“数字司法与数字法治”“数据治理与信息保护”“算法治理与数字正义”“数字转型与制度重塑”等主题展开了深入研讨。
第三单元“算法治理与数字正义”由《求是学刊》执行主编李宏弢主持。
中国政法大学数据法治研究院张凌寒教授发言的题目是“智慧司法中技术依赖的隐忧及其应对”,阐述了技术在司法决策、智慧司法建设发挥的作用,技术和司法之间的互动关系以及如何勘定技术嵌入司法权的边界。
在人工智能驱动性的智慧司法变革中,出现了从技术辅助到技术主导的趋势。在具体决策上,技术不仅仅对于证据收集、存证和采信提供了便利,还对法官产生了决策上实质性的影响。智慧司法系统建设中,比如类案检索已经成为最高人民法院对法官制度性、系统性的要求。技术依赖会带来一些隐忧与挑战,包括机器决策、算法决策可能对人类决策产生侵蚀,司法机关在平台基础建设中对于技术和技术公司存在依赖。这种依赖可能对权力专属原则带来挑战,缺乏对系统输出结果的监督功能,不利于责任的分配。
由此,需要勘定技术嵌入司法权力的边界,首先,应该有对于信息的控制机制。司法裁判相关信息应该有准入和流出控制机制。其次,具体司法决策层面,要注意人类“算法”和机器算法合理分工。司法决策算法的设计理念,要本着人文主义的设计理念,同时要注意架构设计与频次更新。在司法决策领域应该更注重各自决策优势,否则会使得人在环中流于形式。在司法问责里,应该考虑将研发者、设计者、维护者以其他的问责方式纳入司法责任制框架中。明确技术系统和人类共同的司法问责,还应该避免使技术成为人类推卸责任的对象。
对外经贸大学法学院张欣副教授做了“算法公平的多维视角与实现机制”的发言,她指出算法公平在不同国家不同文化范围内呈现出了不一样的样态,需要关注算法公平的类型与实现机制。
算法公平有不同维度,从基于主体的算法公平可以分为个体算法公平和团体的算法公平,从基于参与者的算法公平可以分为平台上的供给侧、需求侧还有侧面利益相关者算法公平,此外还有基于主观感知的算法公平、基于算法生命周期的算法公平。算法公平的实现层次,可以从设计、运行、输出三个角度探讨,以及从短期、中期、长期探讨算法公平的实现周期。运用多元规制理论,并将公平治理做成全链条统一化的体系。
在算法公平的实现周期上,短期、中期、长期有不同的目标。短期算法公平治理需要企业加入,企业需要建立算法公平目标体系,要完善数据公平治理和创建公平解释机制。在中期的算法公平治理中,目前欠缺一系列算法治理工具,包括算法公平审计,算法影响评估和算法公平认证制度。长期算法公平治理,需要提升公民的数字伦理认知。未来需要创造在企业和多元主体之间、政府和企业之间、政府之间的多元、多层次协同框架。
华东理工大学法学院讲师肖梦黎报告的题目是“算法行政责任的'分布式'重建”,回应了算法行政责任的认定问题。她首先阐述了算法行政责任体系建立的切要性,算法行政中存在着不同主体间多重委托关系、科层关系、外包合同关系等,分布式主体可能催生责任鸿沟。
在政策语境下采取的是分离的责任承担路径,建设数字政府和管理的、运营的,责任是分开的。是一种行为协同但责任分离的表述,与分布式主体联合行为的实践存在张力。而采取科层制、集合责任,在现实中面临难以穿透的实施困境。她进而提出分布式的新型责任体系,第一是参与互惠式全流程监管,要求程序上的完整性,补充事实评估的过程,并在归责时要考虑风险分配与收益的双重对称性。第二,分布式责任的原理机制在于,数字时代是分布式、去中心化的,主体有多重委托、协同关系,行为分布性决定了责任的分布性。第三是基于分布式义务的责任体系配置,以依赖关联的体系而不是因果关联的方式或者普遍关联的方式进行配置。
分布式责任的归责体系分为三个层次,一是点对点分布式责任划定,明确承担责任的情况与连带责任的责任划定。二是协同公法、私法等各个层面的共识。三是激励结构的形成,打通经济机制与声誉机制,最后形成分布式责任的规则。
上海政法学院李泽副教授报告的题目是“数字能力鸿沟的法治化弥合”,谈了三个方面的问题。
一是数字能力鸿沟的时代挑战。个体之间数字能力会有差异,数字能力的差异体现为数字能力鸿沟,其表现形式分为接入沟、使用沟和意识沟。
二是基于数字能力鸿沟的权利困境。第一个表现是技术赋权不均衡性,主要体现在政府、企业和个体之间的技术上的不均衡,形成了技术利维坦,对第五权力两者之间不均衡状态。第二个表现是能力鸿沟有自我强化机制。能力鸿沟本身具有马太效应与叠加效应,个体在自然能力上的差异越大,相应在数字能力上的差异也可能随之扩大。第三个表现是权利能力和行为能力的张力。公民在日常生活中对公共事务参与享有权利能力,但由于数字能力的缺乏,导致现实生活中无法从事某些行为,而逐渐被边缘化。第四个表现是对尊严和平等价值的消解。数字能力缺乏或不足的个体的尊严会受到侵蚀,也会面临越来越多不平等的对待。
三是塑造普惠共享的数字社会秩序。第一要提高数字素养。要面向所有公民,并以实践能力为导向提高数字素养。第二,加强算法治理。要增强算法的透明度,提高算法的正确性,另外规制算法使用过程中的误用和滥用,坚持数字向善理念。第三,构建保障机制。数字能力鸿沟的消除需要全方位的保障机制。第四,塑造数智人文生态。在坚持数智人文基本原则基础上,要塑造普惠共享的数智生态。
南京大学法学院助理研究员李晴以“论自动化行政的正当性基础”为题做了分享,她认为应当在区分非逾越系统和逾越系统基础上分类讨论正当性,提出了以是否逾越法律授权作为类型化的标准,讨论自动化行政。
判断自动化行政是否逾越法律授权,可以进一步细分为两个要件:一是组织要件,即自动化系统是辅助还是替代,二是自动化行政过程中是不是对公民权益产生了新的干预,从而把自动化行政两分为非逾越和逾越系统,对于逾越系统基于组织和行为要件再进一步细分为辅助干预系统、替代授益系统和替代干预系统。
对于非逾越系统,提供普遍可持续的专家意见,补强行政活动的正当性。其正当性基础通过行政机关自我审查即可,不需要再有新的授权。对于逾越系统,要进行类型化的建构。辅助干预系统可分为初级辅助系统与间接干预型的系统,初级辅助系统主要涉及对个人信息权益的处理和收集,经过法律、行政法规、地方性法规、政府规章授权可以引入。间接性干预型系统,除了涉及对于信息的收集和处置,还涉及对于相对人程序性权利的减损,应当经由法律、行政法规或者地方性法规的授权,规章没有权利授予正当性。替代性授予系统的本质是用个人信息置换程序义务的俭省,只要相对人同意,可以引入。替代干预系统是由自动化系统代替行政主体履行国家相关干预职责,需要重新按照被替代行政权设定规范,重新进行授权。
评议人《探索与争鸣》杂志叶祝弟主编指出,本单元的话题可以归结于人与技术、社会与技术的关系问题。如何在数字法治建设中考虑到所有人的权益,让数字社会更有温度,需要凝心聚力进行攻关克难。自动化行政中的个人信息过度收集和超目的使用等问题需要引起重视。算法正义的本质则是对人的尊重。在法治建设中,重新审慎对待人的主体性、捍卫人文精神可能是一个根本性的问题。
评议人《国家检察官学院学报》郭云忠副主编首先肯定了算法治理与数字正义的重要性,而后对发言人的报告进行了详细的点评,给出了很有价值的思考方向,包括对命题本身的反思、结论的可行性与必要性的思考,以及结合时代的特点决定具体的治理方式等。(石剑君)
责任编辑:冯嘉莉