主讲人:蒋惠岭
(视频请关注上海市法学会视频号)
蒋惠岭:同济大学法学院院长、教授。同济大学法学院院长,同济大学特聘教授。中国应用法学研究所所长,中国审判理论研究会秘书长。主要研究领域:司法制度、行政法、诉讼法、法理学等。出版专著、译著或主编著作多部,发表文章百余篇。曾在最高人民法院工作的33年,从1994年起参与司法改革工作,主持或参与了四个《人民法院五年改革纲要》的起草,参与中央司法改革方案的研究制定,并亲自承担了多元化纠纷解决机制改革、司法公开制度改革、审判权力运行机制改革、司法职业保障、法官职业道德等多个司法改革项目。
当前,世界正面临百年未有之大变局,社会治理面临的形势也异常复杂。党的十九大时就提出了“智慧社会”的概念(也称为智能社会),并对智慧社会的治理提出了要求。
我们对于当前社会治理模式的选择,有两点需要特别提及:
一是智能社会的环境是“工业4.0”时代的产物。这个新的时代带来了人的存在方式、生活方式、思想观念、行为方式、治理模式以及社会生产和社会生活等种种巨变。
二是在法治轨道上推进国家治理体系和治理能力现代化。这是习近平法治思想的重要内容,也是我国第二个“一百年”的主要奋斗目标。法治是治国理政的基本方略,法律是治国之重器。其中,智能社会的治理同样要在法治的框架下进行设计。
智能社会的形态与传统社会存在重要差异,在治理方式方面也有不同。在智能社会发展、培育的不同阶段,治理方式也体现出不同特点。
一个国家、一个社会的治理,需要依靠多个体系,虽然结构比较复杂,但各自发挥作用。例如,国家治理的法治与德治相结合,基层治理的法治、德治、自治相结合,治国理政中的“党的领导、人民当家作主、全面依法治国相结合”等等。
对于智能社会或智慧社会的治理而言,可以由以下四个体系构成,以实现治理目标。
一、技术标准
与传统社会一样,智能社会中依然以人与人之间的社会关系为主,但其中充满了科学技术的要素。各种技术要素相结合从而形成产品的存在,是以技术标准为依托的。没有技术标准,就无法形成、存在技术产品或技术形态。因此,技术标准是对于技术形态和技术产品的规范,是技术进入社会的“立身之本”。如果没有技术标准,进入社会之后便没有评价的基础依据,由此形成的社会规范会缺乏科学的支撑。
二、政策指引
当一项科学技术处于初始以及发展过程中时,首先需要的可能不是法律的规范和约束,而是政策的指引和导向。而在以现代信息技术为基础形成的智慧社会环境中,如何操作、运行、指导各项技术的发展,特别是如何应对和处理因此而发生的各项具体变化,从产业发展、产业治理、社会治理乃至国家治理层面上看,通常也首先是政策的主导和影响。对于人工智能产业以及以人工智能为基础的各种产品、应用来说,该行业以及国家经济整体和社会整体必须对布局、力度、方向、基础、应用等作出合乎科技规律、产业结构、经济增长、社会秩序、人民福祉的安排。这就是我们所说的政策指引。上海市发布的《人工智能产业指引》以及《关于全面推进上海城市数字化转型的意见》等,都是在以政策体系实现对人工智能以及智慧社会的治理功能。这一点,在美国、欧盟也适用基本相同的治理模式。
三、伦理约束
今年2月,外交部发布的《全球安全倡议概念文件》呼吁,“加强人工智能等新兴科技领域国际安全治理,预防和管控潜在安全风险”。这是将人工智能的伦理治理以及相应的法律治理提升到了国际安全高度,从而预防和管控各种因人工智能而产生的潜在安全风险。在过去的近十年中,中国、欧洲、美国以及人工智能行业、各大信息科技公司,都先后制定了多项伦理准则,其目的就是从人类道德、文明、良知、善恶等角度,首先为人工智能发展乃至智慧社会的治理确定良心上的边际,进而以此约束相应的行为。
作为职业人士,无论是法治专业人员还是科技人员,都知道职业伦理或行业伦理的重要性。对于这些人来说,最重要的并不是沿着法律的框架行事,而按照该行业、领域、群体共同接受的伦理准则行事。
2021年,我国发布了《新一代人工智能伦理规范》,提出了人工智能各类活动应遵循的六项基本伦理规范,即:
(一)增进人类福祉。坚持以人为本,遵循人类共同价值观,尊重人权和人类根本利益诉求,坚持公共利益优先,改善民生,共建人类命运共同体。
(二)促进公平公正。坚持普惠性和包容性,切实保护各相关主体合法权益,促进社会公平正义和机会均等,尊重和帮助弱势群体、特殊群体。
(三)保护隐私安全。充分尊重个人信息知情、同意等权利,依法正当处理个人信息,保障个人隐私与数据安全,不得侵害个人隐私权。
(四)确保可控可信。保障人类拥有充分自主决策权,确保人工智能始终处于人类控制之下。
(五)强化责任担当。坚持人类是最终责任主体,明确利益相关者的责任,全面增强责任意识,在人工智能全生命周期各环节自省自律。
(六)提升伦理素养。积极学习和普及人工智能伦理知识,客观认识伦理问题,不低估不夸大伦理风险。
伦理治理的依据一般都是柔性的、自愿遵守的。尽管标准很高,但经常被人称为没有牙齿的老虎。实际上这种认识未必正确。因为此时需要检验伦理准则的“实施机制”是否有效。在有效、有力的实施机制之下,违反智能社会伦理准则的行为实际上是无法存续下去的。
四、法律治理
法律是处理人类社会关系中具有法律内涵的那部分关系的依据,是人的行为的最低标准。或者说,在法律规定的范围之内,社会活动的空间还是很大的,但是,空间很大并不是没有治理、没有约束。前面所说的技术标准、政策引导、伦理约束,都是相对独立的治理体系。而只有到了触犯人类共同的行为标准并产生法律上的后果、应当承担法律上的责任时,法律治理才发挥作用。
在以人工智能为基本技术支撑的智能社会中,很多法律问题已经表现出来。无论是人工智能产品引发侵权时的法律责任的承担,还是人工智能产品形成的创作作品的知识产权问题;无论是数据应用过程中引发的个人信息保护难题,还是数据出境引发的国家安全隐患;无论是算法中存在的无意识或有意识的歧视或算法黑箱,还是在智能社会背景下的新形态用工的法律关系认定;无论是机器智能引发人机冲突时过错划分,还是机器人法律主体地位的独立程度……这些都需要在人类共同认可的法律原则的指导下,匹配目前最适合的法律规范作出解释,或者在条件成熟时制定直接适用的法律规范,这些都法律治理的主要任务。
在法律治理体系中,司法审判总是处于十分关键的地位。尽管司法具有天然的“保守性”“被动性”,但它是将抽象法律原则、法律规范具体应用于特定的法律纠纷中并得出法律判断结论的一种机制。所以,应当在关注制定新的立法的同时,要特别关注司法制度的改革和完善。要培养法官在智能社会中适用法律的能力,提高法官解释法律时的包容度、前瞻力,将法治原则应用于智能社会新环境。
有一种说法,技术力量是人工智能产业的油门,而法律是刹车。这种比喻未必恰当,但它说明了一个道理,即:法治是智能社会治理的最低标准,司法是公平正义的最后一道防线。智能社会的秩序安宁,智能社会成员的权利,都应当在法律的呵护之下。
当然,智能社会的这四种(子)治理体系并不是相互孤立的。特别是伦理约束和法律治理在很多情况下是相互重叠的,只是所约束行为的严重性、后果不尽相同,两种规范对相关行为敏感度有所区别。实际上2021年的《欧洲数字化行动方案》既是对智能社会治理的伦理准则,也可以作为人工智能产业的政策指引。应当说,这四种治理体系的最终目标是一致的,它们在发生作用的过程中,分别侧重于不同的价值,从而适应人类文明和产业发展的需要,适应秩序安宁和权利保护的需要,适应创新发展的需要。
当然,这里所说的治理体系仍然处在发展、成长过程中。随着对智能社会属性认识的加深,人类一定能够全面提升治理能力,并创造出更有成效的治理方式和治理体系。
《东方法学大讲堂》由上海市法学会特约供稿,专题统筹:秦前松。
责任编辑:楚予