教育部主管、PG电子·(中国)官方网站主办
本文发表于《新文科教育研究》2023年第2期;因篇幅限制,注释从略,引用请以刊物原文为准。
作者简介:
胡弘弘,PG电子·(中国)官方网站研究生院院长,法学院教授,宪法学与行政法学博士生导师;湖北省第十三届人大常委会委员、人大法制委员会副主任委员,湖北省地方立法研究与人才培养基地暨湖北地方立法研究中心负责人,中国法学会宪法学研究会常务理事,中国法学会立法学研究会常务理事。获得第六届全国法学教育奖三等奖、中国法学会优秀成果奖二等奖、湖北省特殊津贴专家、湖北省优秀共产党员、湖北省教学成果奖特等奖、双一流学科“南湖名师”、学校“师德标兵”等多项荣誉。带领团队完成多部地方性法规的制定和修改工作,多次参与国家法律征求意见稿的论证。主持完成多项国家级、省部级课题,发表学术论文80余篇。
田骥威,PG电子·(中国)官方网站法学院宪法学与行政法学专业博士研究生、湖北地方立法研究中心研究助理。
目次
一、ChatGPT模型应用于备案审查的场景展开
(一)在备案审查启动环节的应用
(二)在具体审查过程中的应用
(三)在审查处理及后续环节的应用
二、ChatGPT模型应用于备案审查的挑战
(一)ChatGPT模型应用于备案审查的相关问题
(二)ChatGPT模型应用于备案审查的潜在风险
三、ChatGPT模型应用于备案审查的发展路径
(一)基本原则:明确ChatGPT模型辅助地位
(二)制度构建:强化ChatGPT模型应用规制
(三)技术升级:推动ChatGPT模型迭代研发
(四)人才供给:培育融通复合型人才
结语
摘 要:人工智能是推进国家治理体系与治理能力现代化的重要技术推动力。当前规范性文件备案审查工作存在由信息化建设向智能化功能拓展的趋势,而ChatGPT的出现则为备案审查智能化提供了新的技术契机。ChatGPT模型可以适配丰富的应用场景,在规范性文件的备案审查启动环节、具体审查环节以及审查处理等环节均存在应用空间,能够极大地满足备案审查质量和效率提升的现实需要。但是以ChatGPT模型为代表的新一代人工智能仍然易于引发相关技术难题以及人工架空、价值引导、数据与算法控制等方面的风险。可通过明确辅助原则、强化技术应用规制、推动技术升级和优化人才培养等面向,为ChatGPT模型应用于规范性文件备案审查提供相应的路径选择。
关键词:备案审查;ChatGPT模型;人工智能;技术赋能
ChatGPT是美国OpenAI发布的一款自然语言处理模型,中文全称为生成型预训练转换模型。相较于传统的人工智能工具,ChatGPT所引发的广泛关注很大程度上是因为其展现出了高度拟人化的特征,并将技术和人性需求间建立起有机链接。从ChatGPT所展现的技术能力来看:ChatGPT模型具有较强的语言理解能力,其发挥了当前大规模数据集的优势,在理解语言这一人类传递信息重要媒介的基础上,能够输出符合人类需求和习惯的内容;ChatGPT模型具有出色的长文本生成能力,在分解人工指令的同时通过自回归生成的方式进行任务“创作”,并能够做到基本的逻辑自洽,即使是跨语言种类的任务也能够应对;ChatGPT模型具备高度拟人化的对话能力,尤其是在多轮对话当中仍能够联系上下文进行语义理解,并能够保证较高的对话质量;ChatGPT模型在知识性答疑当中保持了较高的准确性,在疑难问题的解决与开放域知识的解答中实现了效率和质量的统一。此外,ChatGPT在信息抽取能力和整合能力方面也实现了极大的技术进步,甚至在计算机代码编写与长文章撰写等方面表现得也毫不逊色。因此,ChatGPT模型实现了对人机交往障碍的跨越,让人类绕过了学习计算机语言的基础环节,使用者只需要输入简单的自然语言指令即可获得想要的答案。正因如此,ChatGPT的用户量在短时间内急速增加,国内外各大企业也纷纷入场,并宣布推出ChatGPT类产品。可以预见的是,ChatGPT的出现将对国家治理、社会生产生活以及个人行为产生重要影响。
在人工智能的具体应用层面,近年来人工智能辅助立法、执法、司法业已引发广泛讨论,甚至在个别领域和场景已展开了相关实践。在规范性文件备案审查工作方面,随着全国统一的备案审查平台已经建成,地方备案审查平台建设的跟进,备案审查已出现由信息化向智能化拓展的趋势,部分地方已经先行一步。例如,2014年天津市人大常委会与北大英华公司合作,共同研发了具备人工智能雏形的规范性文件备案审查系统。又如2019年广东省人大启动备案审查信息平台二期建设,并已将备案审查信息化纳入广东“数字人大”建设范围。而ChatGPT的出现则为备案审查迈向智能化提供了新的契机和强力的技术支持。ChatGPT模型作为人工智能发展最前沿的成果,忽视其展现的智慧能力显然已不符合实际。而尝试将其内化并嵌入规范性文件备案审查,不仅能够适应国家治理的发展大势,也能够为提升备案审查工作成效注入科技能量。值得注意的是,ChatGPT虽然属于技术热点,却不是解决所有问题的万能灵药。ChatGPT模型可以适用丰富的场景,同时也可能产生相应的问题和风险,故而应当立足当前并着眼未来,为深化ChatGPT模型的运用提供可行的发展路径分析。
一、ChatGPT模型应用于备案审查的场景展开
ChatGPT在数据分析、语言处理、多轮对话、文本生成等方面具有强大的功能,其在通用领域的出色表现反映出当前的AI技术已经具备了较为显著的强人工智能特征。因此应将其置于规范性文件备案审查的具体环节和情景中予以展开,以展示技术应用的理想化运作图景。
(一)在备案审查启动环节的应用
ChatGPT模型的嵌入可以有效搭建备案审查的筛选机制。有没有发展出完备的备案审查门槛机制是影响备案审查制度实效性的一个重要问题。从规范性文件的备案层面看,按照有件必备的要求,备案环节本身并不应设相应门槛,实现全覆盖是备案审查制度努力的重要方向。但从具体工作流程上看,有件必备还是应符合若干条件,例如该规范性文件应属于备案审查之范围,满足文件齐全、格式正确等形式标准,同时要符合时限要求等。这些初级性且不包含价值判断的审核工作交由人工智能辅助,会更利于查漏补缺,保证后续审查工作的顺利开展。
从规范性文件的审查层面来看,筛选机制则会显得更为重要。目前,主动审查和专项审查可以由审查主体进行自我把控,而被动审查、移送审查则必须通过相应工作机制的设计保证效率性要求。从数据来看,过去五年由公民、组织提出的审查建议高达17769件,其中2018年1229件,2019年226件,2020年5146件,2021年6339件,2022年4829件,国家机关虽然目前较少提出审查建议,但在特殊事项上也有体现。然而从当前备案审查的现状来看,人员力量方面,截至2019年,全国人大常委会专职从事备案审查的工作人员仅为13人,31省(区、市)平均每省3.3人,每市2人,每县1人,《法规、司法解释备案审查工作办法》规定的3个月的审查时限也从侧面反映出人员力量不足与审查耗时较长的问题。由于我国审查建议的提起不以具体的司法执法案件作为前置条件,在公民法治素养日趋增强、审查建议逐渐增多的态势下,技术分流的手段将对备案审查效率的提升颇有助益。一方面,从当前展现的技术能力看,ChatGPT模型可以较为轻松地识别审查对象,除了对基本的法律规范层级构成认知外,对于属于实施性立法、先行性立法、自主性立法的均可以进行语词分析,而对于已经废止或修改的法律则可以直接通过数据网络提取的方式识别。同时,由于我国备案审查制度呈现出多元特征,对于接收的规范性文件,ChatGPT模型还可以对不属于自身审查范围的文件做出移送审查的提示。另一方面,ChatGPT模型的内容识别优势有利于在备案审查中对有效建议进行筛选,对不符合审查启动要求的进行排查。在筛查过程中预先查看审查建议内容的重要性在于,审查建议必须明确具体,这包括审查对象必须明确以及审查的基本理由和依据必须提出等内容。ChatGPT模型在大语言模型的加持下,可以分析审查建议内容的构成要素,通过逐序排查和联系上下文的语词理解,形成可视的量化分析,及时排除空泛的审查要求,并生成不启动审查程序的反馈意见。而对于已经针对相关法规或司法解释进行过审查的建议,则可通过审查建议数据库对比的方式识别,避免重复审查的情况发生。此外,备案审查承载着间接的宪法监督功能,当前法规、司法解释及其他有关的规范性文件虽然较少直接涉及宪法问题,但依宪立法问题具有举足轻重的地位。正因如此,《法规、司法解释备案审查工作办法》中明确规定了涉及宪法问题时,宪法和法律委员会以及法制工作委员会必须进行主动审查,并提出书面审查意见。故而,ChatGPT模型在预训练学习时,应当对涉及宪法的问题提前进行标注学习,辅助人工在初筛时滤出涉及宪法的有关建议,并作重点研究。这一过程也将有助于提升宪法实施的权威。
(二)在具体审查过程中的应用
有备必审是备案审查制度中的核心环节,无论是依职权主动审查、专项审查,还是依申请审查、移送审查,属于备案审查范围的规范性文件在经过备案程序后,通常都会在具备审查启动条件时进行具体的审查工作。
1.通过预训练将审查标准融入ChatGPT模型
立法审查具有专业性、政策性、法律性等多重特点,人工智能要想像人类一样做好备案审查工作,则必须要了解审查标准。大数据支撑是ChatGPT模型进行预训练学习的基础,但如果不施加一定的标准,植入预备算法模型,则法律大数据就仅在信息存储、调取层面存在意义。我国在审查实践中逐渐发展出合法性、合宪性、政治性、适当性四类审查基准,对规范性文件展开智能化审查将直接体现ChatGPT模型对这些审查基准的准确应用。其一是合法性审查。从审查实践来看,合法性审查是规范性文件备案审查的首要标准,这主要源自依法立法的要求。与其他审查标准相比,合法性审查较为偏重对规范性文件的形式合法性审查,也即立法的外观、形式、效力等方面应达到相应品质。不和上位法相抵触是经由宪法和立法法确认的判断立法合宪合法的重要原则,也是ChatGPT模型在预训练中需要重点理解和学习的内容。但不抵触原则仅从语义上看涵盖面较窄,ChatGPT模型还要对超越该语义范围的“违反”“不一致”“超越”“扩张”“限缩”“变通”等词汇进行语言模型梳理,从而避免在合法性审查中忽略立法设定的特定情形。总之,语义分析和逻辑推理的运用是形式合法性审查的主要方式,对于人工智能而言这恰恰是其优势所在。其二是合宪性审查。在法律规则层面,由于规则的具体性,ChatGPT模型通过合法性审查的训练即可获得明确的审查结果。但是,宪法原则和宪法精神在规范文本中通常没有得到具体展开,这就需要ChatGPT模型通过规范认知、理论学习等方式理解党的领导、人民主权、尊重和保障人权、社会主义法治和民主集中制等宪法原则,在具体审查过程中,对涉及宪法问题进行提示。其三是政治性审查。《法规、司法解释备案审查工作办法》第三十七条规定:“对法规、司法解释进行审查研究,发现法规、司法解释存在与党中央的重大决策部署不相符或者与国家的重大改革方向不一致问题的,应当提出意见。”对此,全国人大常委会法规备案审查室直接将其解释为“政治性”审查标准。当前政治性标准更多反映的是立法与改革的互动,而除了语言分析外,ChatGPT模型所采用的通用数据库将提供更多实践素材,有利于辅助判断改革实践趋势,进而说明立法与改革的适配性。其四是适当性审查。通常而言对规范性文件并不作内容适当的审查,否则会在一定程度上侵蚀法的安定性。但仅仅是立法逻辑上符合合法性与合宪性等要求,并不能保证法律获得较高的接受度和可执行度。因此,此时可引入ChatGPT模型,对明显不适当的问题进行辅助说理,对于现实情况的重大变化等不适当情形提供相应数据。在此基础上,ChatGPT模型可做出权衡,从而在适当性审查时判断某一问题正当性、必要性以及可行性,并输出相应意见。
2.ChatGPT模型在具体审查中的运作方式
首先,在完成基础数据建模以及预训练的前提下,应当先对ChatGPT模型提出相应的人工指令,指令的内容应当至少包括审查要求和审查对象两个核心要素。应当注意的是,在开展专项审查时则需要在审查要求中添加审查领域和相关依据等内容,而在依申请审查时可以通过ChatGPT模型中首轮对话的方式,对审查建议进行分解并注明重点。其次,则是基于人工指令的模型内部运作。在这一过程中,根据语词出现频率,ChatGPT模型将会通过关联词爬取,获得大量法源依据、政策依据和其他基础数据,进行比对和概率分析,做出类型化整理。同时通过对齐的方式校准审查基准算法模型,记住人工审查的习惯偏好,让机器审查行为符合人类的行为预期。最后,在对话输出端,ChatGPT模型通过自身的语言生成模型完成编辑审查意见、理出资料汇编、生成相关表格等工作。对于存疑和难以生成的问题,由于ChatGPT模型具有错误认知和坦白的能力,在处理合法性、合宪性、政治性、适当性等审查问题时如果遇到不能解决或存疑的情形,ChatGPT模型将会对相关问题进行标注提示,从而引起人工注意,而人工可以通过再对话的方式输入新的引导指令,以尝试解决存疑问题。
(三)在审查处理及后续环节的应用
审查处理通常存在三种情况:一是经审查并未发现存在与宪法法律抵触,且不存在政治性以及明显不适当问题的,应当结束审查,并向特定主体反馈理由、公开信息;二是经审查虽发现问题,但问题主要局限于理解歧义、执行不当或者其他倾向性问题的,一般可以函告提醒制定机关,或者提出有关意见建议;三是经审查确认存在与宪法法律相抵触,或者不符合政治标准或明显不适当的,则先由制定机关自己纠正,不纠正或拖延纠正的再由审查机关进行纠正。由于审查处理环节的人为色彩较重,那么ChatGPT模型能否辅助审查处理工作?从实践中看,即使相关立法存在应予纠正的问题,但纠错方式也多以柔性为主,制定机关通常都能尊重审查意见,并提出修改或废止的时限计划。但是,审查与纠错之间并非机械的衔接,实践中会更多地需要审查机关和制定机关进行沟通互动,以防止审查结论的片面性。因此,ChatGPT模型可以发挥其多轮对话反馈的优势,预先设计询问问题,将制定机关的反馈作为新的指令条件带入已有的审查框架内,实现对审查研究意见的完善。同时应当注意,在制定机关未通过柔性机制自我纠正的情形下,审查建议将导致后续反应,也即相关立法的修改、废止。但是审查机关的审查结论也极有可能存疑或者出错,因此在ChatGPT模型的应用中,应当在正式的审查建议发布前,细化其说理标准,反对人工智能模棱两可以及不确定的回答,从而预防审查结论存在偏差。此外,在审查相关立法时,不同主体可能持有不同意见。例如,立法法规定可以由宪法和法律委员会与有关的专门委员会、常务委员会等工作机构召开联合审查会议,不同主体可能难以就相关审查标准达成一致,此时ChatGPT模型则可作为评估应用,为审查结论的采取提供意见支持。最后,备案审查工作中往往存在大量的共性问题,ChatGPT模型的适用将有利于建立动态的智能监督,汇总相应问题,从而提升整体效率。
二、ChatGPT模型应用于备案审查的挑战
ChatGPT模型具有非常广阔的应用前景,但是与其他技术一样,ChatGPT也存在利弊两面性。为了有助于进一步完善并妥善运用ChatGPT技术,必须正视ChatGPT模型与备案审查结合可能带来的挑战。
(一)ChatGPT模型应用于备案审查的相关问题
1. 法律大数据较为匮乏
法律大数据是在立法、执法、司法过程中形成或依法获取的重要数据集资源,同时也是驱动法律人工智能应用深度学习和训练的前提。与司法大数据相比,和备案审查相关的数据则显得体量较小,数据样本较少。2016年全国人大法规备案审查信息平台的正式上线,以及2021年国家法律法规数据库的正式开通,在一定程度上助推了备案审查的信息化、数据化,但是与智能化要求下的法律大数据建设还存在较大差距。原因在于,法律法规等基础数据的上网只是完成了备案审查智能化的初始任务之一,要实现ChatGPT模型的人工对齐,则还要学习备案审查具体如何开展,而这些往往需要具备一定规模的备案审查案例数据、审查建议数据、审查反馈数据等多元数据才能实现。从实践中看,2020年全国人大常委会法工委出版了《规范性文件备案审查案例选编》,并在备案审查工作报告中提出了探索建立备案审查案例指导制度,这些实际上已为进一步丰富备案审查数据提供了契机。但是,当前涉及立法,尤其是备案审查的法律大数据总体上仍然匮乏,在一定程度上制约了ChatGPT模型应用的精度和适配性。
2.专业问题理解力不足
当前,ChatGPT模型在回答开放域知识以及常规问答时均取得了显著进步,但是在面对专业领域知识时则会表现得力有不逮。主要原因在于,法律知识谱系未能与人工智能获得有效结合。一方面,法律知识谱系在当前尚难达成共识,对同一问题会存在多种具备可解释性的学说和观点,ChatGPT模型在进行学习时难以解决知识分歧,必须通过多重人工标签予以解决。另一方面,ChatGPT模型与法律知识谱系相结合必须实现智能转化,也即让人工智能具备法律思维能力和逻辑推导能力。体现在备案审查过程中,则是让ChatGPT模型理解法律体系、法律类型、法律规范构成、法律规范效力等基本法原理,同时理解并适用相关审查基准,从而构建起备案审查神经网络。而这些工作除了由法律专家进行设计,同时还要有人工智能专家进行计算机代码转化和算法建模,故而仅依靠ChatGPT的基础语言模型是难以理解复杂的法律问题的。总之,备案审查既不是创制规则,同时也严格区别于司法中的法律适用,只有归纳好备案审查的逻辑范式和语言范式并做出智能转化,才能提升ChatGPT模型的专业能力。
3.应用程度相对受限
有学者指出,大数据、云计算等智能技术更适合形式审查方面的应用,而在合理性等实质问题的判断中功效则会相对有限。对此,ChatGPT模型的深度拟人化特质是否可以解决人工智能实质判断力不足的问题呢?从目前ChatGPT所展现的能力来看,由于存在价值预设,ChatGPT实际上具备一定的合理性认知和判断能力。但是,备案审查往往也是由于实际情况产生了变化所引起的,ChatGPT模型作为人工智能主体并不具备灵活的角色和具体感知能力,对客观情况的把控难以延伸到像人类一样的感知觉,只有通过知识和信息的及时更新才能保障其对合理性判断的精确度。但由于知识和信息的更新速率较慢,同时备案审查具有严格的时限要求,在此情形下依靠ChatGPT模型进行判断反而会难以保证基本的效率性。因此,当前的人工智能并不能直接对人类社会进行监测和观察,必须通过数据媒介理解客观情况之变化,对于需要人类直接出场的任务,人工智能仅能辅助处理部分工作。
(二)ChatGPT模型应用于备案审查的潜在风险
一项技术的社会后果不能在技术生命的早期被预料到,但当技术已经成为整个经济和社会结构的一部分时,对它的控制将变得十分困难。科林格里奇困境的提出预示了科技的风险性与控制难题。因此,当ChatGPT技术嵌入具体应用场景时,应当尽可能早地预测其可能存在的技术风险。
1.人工架空风险
利用ChatGPT模型辅助备案审查在提升效率的同时也容易导致对技术的过度依赖,易于滋生人工的惰性,使人工审查走向架空的极端。一方面,ChatGPT模型提供的技术捷径存在较大的吸引力,会弱化审查主体的工作能力和工作欲望。从目前ChatGPT模型的应用现状来看,除了初级的以及格式化的工作外,一些创造性工作也开始面临技术侵蚀的问题。其中尤为受关注的是教育教学领域,有调查数据显示,美国89%的大学生已开始使用ChatGPT完成课程任务。此外在代码编写、艺术创作、文书写作等方面,ChatGPT模型也展现出惊人的能力。但是ChatGPT模型表现得越智能,人机之间往往就越容易形成此消彼长的零和博弈。当人工智能发展到极为成熟的条件下,人们往往不自觉地会想要通过技术捷径到达彼岸。当前ChatGPT模型虽然在专业领域表现得不尽如人意,但是在未来图景中,随着大数据与云计算的进一步发展,人工智能的触角将延伸至人的基础感官,感知觉知识很可能会构成人工智能技术跃迁的新的奇点,那时ChatGPT模型所生成的审查结论以及研究意见将会更具精确性、效率性。然而,“技术上瘾”会弱化人的独立思考和判断能力,法律规定的审查主体的独立思维能力必然会因之受到严重影响。另一方面,人工怠惰的风险不仅在于人类本身不积极主动行使审查权,同时也会导致审查权的虚置以及职能主体的虚位。立法审查权是宪法和法律赋予特定主体的国家权力,具备显著的支配性特征。但是ChatGPT不断迭代更新在带来便利时,也会支配人的活动,使审查权与审查过程在一定程度上服从机器的输出内容。这无疑弱化了审查机构的权力行使,对审查结论的权威性是一种损害。
2.价值引导风险
从ChatGPT模型输出的内容来看,其自身存在一套评判是非好坏以及道德与否的价值标准。这种人为倾向性主要是基于人工对齐和人类反馈的强化学习(RLHF,Reinforcement Learning from Human Feedback)机制产生的。实际上机器本身并不存在价值判断的实际需求,在工具主义视野下其既可以设计计算机病毒,也能够创造积极收益,这些都取决于人类的利用倾向。而法律本身必然蕴含一定的价值,任何规范都可能附加了特定的目的和价值,用以说明法律想要保护什么、鼓励什么、追求什么以及惩罚什么。在我国最直接的体现则是社会主义核心价值观入法的要求,这是价值与规范相结合最直接的例证。在备案审查过程中,公序良俗与社会主义核心价值观构成了规范性文件明显不适当的重要情形,而公民权利义务的设定以及现实情况的变更往往也需要与立法的内在价值相结合才能获得检验。即使是在形式合法性审查情景中,也不能完全排除价值的影响。因为法律规则既有可能是明确的,同时也有可能是疏阔的,同时人类的语言在不同语境下具有多语义特征,法律解释存在多种可能,有时则有必要回溯到目的与价值解释的轨道中获得证成。但是ChatGPT模型的价值标准需要在训练和人工完善中获得形塑,数据规模、质量与人工植入的效率都会影响ChatGPT的价值成熟度,这也就导致其极易在审查过程中投射出不良价值导向。
3.数据与算法控制风险
一方面,ChatGPT模型可能引发新一轮的数据争议。目前,生成式人工智能应用的兴起和发展主要由市场主导,尤其是被掌握海量数据,具备算法、算力研发的大企业所掌握。例如,百度研发的文心一言,阿里的通义千问,以及谷歌旗下的Bard聊天机器人,等等。ChatGPT模型的训练虽然也从大规模数据集中受益,但是却造就了若干个大型“数据利维坦”对数据信息资源进行支配。在未来的发展过程中,ChatGPT模型要想更进一步嵌入备案审查,就必须提升技术精度,向高真度拟人化跃进,使自身像一个法律专家一样解决备案审查中的各类问题。这同时也意味着数据资源必须要进一步扩充,形成较为完整的数据画像。其中,个人信息将会存在被过度爬取的倾向,借由官方出场,对个人信息收集的限制可能会受到规避。另一方面,ChatGPT模型仍然面临算法黑箱的困扰。其一,可解释性不足是ChatGPT模型的一大内生性缺陷。ChatGPT虽然实现了自然语言的生成,但是对于审查主体而言,其并不知道审查结论生成背后的逻辑,对于算法的程序、要素等内容缺乏把控。其二,偏好的人为制造可能会导致算法正义的遮蔽。这种偏好可以通过数据的选用达成,也可以通过人工对齐的方式对结果进行修正。这样,在备案审查,甚至是前期的立法过程当中,ChatGPT模型的控制主体则可以通过数据算法调整的方式影响国家立法的存废。这对于国家制度的科学性、适配性和稳定性而言无疑是一种重大威胁。
三、ChatGPT模型应用于备案审查的发展路径
近年来,实现人工智能的创新发展与应用逐渐上升为国家战略高度,也深刻影响着国家治理体系与治理能力。ChatGPT模型虽然存在种种问题和不确定性风险,但其并不是留之无用、弃之可惜的鸡肋技术。在人工智能、大数据等技术日新月异的背景下,越是提前布局谋划,就越能够在今后的研发与运用中率先取得突破。因此,应当保持积极与理性的态度,逐步推动ChatGPT技术走向规范性文件备案审查以及其他法治实践当中。
(一)基本原则:明确ChatGPT模型辅助地位
机器与人类在处理相关工作时并不是非此即彼的关系。完全弃置人工智能的应用将会导致巨大的技术浪费,不利于提升整体工作功效,而将工作完全交由人工智能来独立处理,则会侵蚀人的主体地位,加剧人类和人工智能间的紧张关系。应当认识到,ChatGPT模型在备案审查中的应用存在技术适用边界,只有保持技术适用的理性态度,才能趋利避害,实现人机合作共赢。因此坚持人工智能在备案审查中的辅助性原则尤为必要。辅助原则也被称为有限原则,核心内涵是避免对人工智能的过度依赖,而将其定位为辅助工具。采用辅助原则的原因是多方面的。一方面,当前ChatGPT模型的技术成熟度尚且不足,专业领域的问题还不能得到有效回答,贸然将其应用于专业性、政治性等特征的备案审查当中极易出错。另一方面,如前所述,ChatGPT模型的适用存在潜在的技术风险,数据与算法的不透明以及价值嵌入的不确定,都会使其在独立运行中产生诸多难以预见的问题。最重要的是,人不能被机器结论所取代而成为机器的附庸,使人的独立性地位遭遇消解。对此,在辅助原则的指引下,ChatGPT模型应当遵守相应的准则。其一,ChatGPT模型可以从事规模化、形式化、重复性的工作,由于该类工作量大、耗时多,仅具有基础的逻辑推理难度,人工智能在处理效率上具备优势。类似于意见汇总分析、参考资料整理、数据图表可视化分析、重点数据追踪等工作均可交由其处理,对于该类工作,人工可不做过多干预。其二,ChatGPT模型为人类提供了一种新的分析工具、数据提供工具、内容合成工具以及对话工具,在当前和未来虽然可能逐渐完成智能化迭代,提供更加专业性的审查研究意见,但是其仍然属于建议主体、数据提供主体而非决策主体。原因在于,ChatGPT模型虽然可以模仿人脑思维,建构神经网络算法框架,但却难以生成意识,不可能真正像人类一样工作。同时,ChatGPT作为技术模型不可能成为责任主体,故而在决策层当中,只能由人类起到决定性作用。其三,ChatGPT模型输出的所有结果必须要由人来判断。人工智能是在利用人类知识,而不是真正理解知识。除简易工作外,涉及复杂逻辑推理、经验运用等方面的工作,则需要人类出场判断。
(二)制度构建:强化ChatGPT模型应用规制
人工智能的发展机遇与挑战并存,必须通过构建相关制度与机制才能保障人机交互走在健康发展的轨道。一方面,要做好ChatGPT模型底层支持技术的规制。首先应当是继续健全完善数据管理制度。一是要做好数据的分级分类,ChatGPT模型在训练和使用中,应当做好通用数据和领域数据的分类,以保证输出端的专业性,而在领域数据中则应按照立法、司法、执法等不同专业场景进行细化。同时,由于核心数据、重要数据、一般数据的分类以及开放数据与限制开放数据的界别,应当保证数据的分级开放接入,对限制开放数据根据必要性、适当性等原则予以适度开放,并兼采相应的脱敏措施。二是要逐渐打破法律大数据壁垒,实现法律数据向法治数据的转型,为此应建立立法、司法、执法数据的数据资源共享制度,这既能为备案审查中的说理论证提供更为全面的素材,同时也能够为其他法治问题的解决提供更加宽阔的渠道。三是要做好数据安全保障。数据安全已上升到国家主权层面,数据篡改以及恶意清洗数据等行为都会导致备案审查结论失真,从而影响国家法律制度的科学性、稳定性。因此必须在数据采集、存储、运输及共享的全过程确保数据应用的安全性。其次则是完善算法管理制度。算法决定了数据利用方式、指令理解方式和输出的内容,是人工智能的核心架构。为防止算法黑箱引起的解释性问题、歧视性问题,有必要对ChatGPT算法进行有效管理。为此,实践中已探索了算法备案制度,以提升人工智能技术要素、技术逻辑的透明性。而除了单纯向有权机关备案外,还应当注重加强人工对算法的审核制度建设。其中,应当重点加强安全审查、技术伦理审查等内容,开拓精细化审查标准,防止算法漏洞、算法偏好、算法道德缺陷等问题对备案审查工作造成不利影响。
另一方面,要完善规制生成式人工智能应用的专门制度。2022年11月国家网信办、工信部和公安部联合出台了《互联网信息服务深度合成管理规定》,时间与ChatGPT的正式推出基本一致。2023年4月国家网信办发布《生成式人工智能服务管理办法(征求意见稿)》则带有更为强烈的针对性,显然是对ChatGPT类应用的规范回应。但是,从已出台的和即将出台的规范性文件内容来看,其主要目的一方面是支持和鼓励人工智能的发展,另一方面则是对相关合法性问题、管理性问题及有关要求进行明确。总体而言,这些文件反映的主要是政企关系的互动,侧重于鼓励、监管方面的要求。但是在国家运用人工智能治理立法、执法、司法等问题时,相关制度则付之阙如,对于能不能应用人工智能,人工智能的应用范围、应用限度、应用失范责任等问题尚未予以回答。因此,建议在国家层面尽快出台人工智能在立法等领域应用的相关意见,为在备案审查工作中应用ChatGPT模型奠定政策基调,并在研究成熟时适时制定相关制度和标准,使ChatGPT在国家治理中的应用不只停留于讨论范畴。
(三)技术升级:推动ChatGPT模型迭代研发
加强技术创新和升级,不断提升ChatGPT模型的可用性、可靠性是拓展其应用范围的努力方向之一。首先,应加强生成式人工智能的技术自主与技术合作。当前我国在人工智能技术发展领域虽然处在第一梯队,但是以基础语言为代表的原始创新较少,从模型设计到具体应用都存在一些技术薄弱环节。然而不论是在应然层面还是实然层面,对于ChatGPT,我国都不应当采取技术拿来主义,坚持技术自主应当成为首要要求。在备案审查场景中,贸然移植国外技术,极有可能会因制度背景和意识形态等差异引起立法上的政治风险,对法律规范的审查无疑会造成潜移默化的不利影响。因此,ChatGPT技术的发展必须走自主道路,同时可探索政府、企业、研究机构合作的方式,凝聚多方研发力量。其次,应当大力加强专业数据库建设。充实法律大数据库是提升ChatGPT模型法律专业能力,实现技术能力升级的有效手段。为此需要建立专门的法律知识库、语料库、案例库、关联词库,逐步实现多库合一。同时,专业数据库的建立将使ChatGPT在知识层面、规范层面、实践层面搭建起认知法律经验、识别法律逻辑的知识图谱,让机器基于知识图谱学习并挖掘数据本质,最终实现让机器真正像法律专家一样解决备案审查工作中的各类问题。最后,应当进一步优化ChatGPT模型的学习能力。基于人类反馈的强化学习让ChatGPT模型的拟人能力获得了大幅提升,因此在备案审查甚至是复杂的立法工作前,应当引入法律专家与法律实务工作者进行训练打分、人工微调,协助其强化学习。此外,ChatGPT模型的学习能力应当建立在正确价值伦理的指引之下。ChatGPT所输出的内容往往是基于数据理性和人为偏好对齐得出的结果,而为了避免ChatGPT的价值背离,应预先植入社会主义核心价值观等内容并进行训练测试,同时建立起相应的反诱导机制,以免机器产生不自觉的错误。
(四)人才供给:培育融通复合型人才
目前,我们正处在全球科技创新进入空前密集活跃的时期,人工智能领域获得飞速发展,以ChatGPT为代表的新一代人工智能的出现甚至被誉为革命性的技术进步。在当前的发展趋势下,人工智能在法治领域的应用图景已不再遥不可及。人才是创新驱动发展的原动力。但在实践中,专门从事备案审查工作的人才较少,而由于专业壁垒和知识鸿沟,既懂人工智能又懂法律的人才更是凤毛麟角。因此,要实现法律与人工智能的结合,就必须在人才储配和培养方面实现破局。一方面,应当着力培育“法律+人工智能”的融通型人才。2020年《新文科建设宣言》中指出,要积极推动人工智能、大数据等现代信息技术与文科专业深入融合,积极发展文科类新兴专业。2023年中办、国办联合印发了《关于加强新时代法学教育和法学理论研究的意见》,其中明确指出要发展科技法学、数字法学等新兴学科。在这一背景下,必须认识到培育新型人才方是长远之计。因此,要推动法学和计算机科学、电子信息、人工智能与大数据专业的双向互动,补齐基础知识短板,促进跨学科体系建设、跨院校人才合作培养。在专业互动与合作培养模式下,不仅会培养大量的人才,同时也有利于人工智能法学发展更贴合于ChatGPT发展的现状和趋势,而ChatGPT应用的开发则更符合法律的专业化要求。另一方面,应当加强对现有法律人才与人工智能技术的结合。现有法律人才往往具有深厚的理论功底与实践经验,在ChatGPT学习、训练、对齐等方面,现有人才能够修正机器存在的不足;而且直接从事审查工作或其他法治实践的人员,对ChatGPT模型应用体验的反馈将具有重要的参考意义。
结 论
中国式现代化是法治保障的现代化,同时也是科技引领的现代化。近年来,“人工智能+法律”的议题逐渐成为理论界与实务界关注的重点,这说明法治现代化与科技现代化并非两个相互割裂的问题,必须从整体视角出发认识到规制技术和运用技术的双重重要性。因此,备案审查能力建设除了包含制度与机制建设、人才队伍建设等基本内容外,还需要借助科学技术这一辅助性外力。ChatGPT的出现催动了人工智能技术迈向新的台阶,在大语言模型的加持下,人工智能所描绘的理想图景将进一步走向现实。法律与人工智能相结合是适应智能社会发展趋势的重要体现,有利于实现法律工作的智能化和人工智能治理的法治化。但是,每一次技术革新都是机遇与挑战并存。在规范性文件备案审查领域,既不能盲目乐观地拥抱技术,也不能对新兴技术避之不及,而是应当秉持客观辩证、趋利避害的态度,致力于推动备案审查更加高效和智能。从当前ChatGPT的表现来看,其在人机多轮对话、文本深度合成、开放域知识性答疑等方面均取得了较大突破,而在专业知识领域当中则存在力所不及之处。同时在可预测的范围内,人工智能在实现赋能备案审查的同时,也会存在相关应用问题和潜在的技术风险。这就要求我们必须明确ChatGPT模型应用于备案审查等法治工作领域的发展路径,进一步推进人工智能技术升级及其应用规制,逐渐将我国的智能化法治实践推向新高度。
【引用格式】胡弘弘 田骥威:《论ChatGPT模型在规范性文件备案审查中的应用》,《新文科教育研究》2023年第2期,第31-44页。