毕文轩 | 生成式人工智能的风险规制困境及其化解:以ChatGPT的规制为视角

发布者:马钰珺发布时间:2023-06-25浏览次数:228

作者:毕文轩(东南大学法学院讲师,东南大学人权研究院助理研究员,法学博士)

出处《比较法研究》2023年第3期



目次

一、生成式人工智能工作原理及其引发的法律风险

二、对既有规制方式的质疑
三、生成式人工智能法律风险规制的症结与出路
四、结语


摘要:以ChatGPT为代表的生成式人工智能技术产生,在极大地提升人们工作效率的同时,也在相关领域带来了诸多法律风险。这种风险具体表现为:数据使用风险、生成内容滥用风险、算法滥用风险以及其他风险。目前我国虽然已经初步具备了有关人工智能的基本治理框架,但相关的理论以及实践仍在治理主体、治理规范设置、治理手段以及治理规则适用等方案上存在不足。生成式人工智能的出现,凸显了科技进步迭代过程中产生的“破坏性创新”现象,这也倒逼我国当前的人工智能治理模式需要从回应型治理、集中型治理向敏捷型治理转换。这要求我国在总体上坚持包容审慎的治理态度,具体包括从法律层面的制度构建、软法规范层面的填补式风险治理以及通过监管沙盒实现敏捷型风险治理等三方面来完善现有的人工智能风险治理体系,在技术创新与风险治理之间寻求平衡,从而实现数字经济的健康持续发展。
关键词:生成式人工智能;风险规制;ChatGPT;敏捷型治理;试验性监管

  生成式人工智能(Generative AI)是指基于算法、模型、规则生成文本、图片、声音、视频、代码等内容的技术。其是一个无监督或部分监督的机器学习框架,并通过使用统计学、概率等生成人工遗迹。不同于以往的人工智能,生成式人工智能不仅能够提炼信息,还可以通过利用现有的数字内容检查训练实例创建人工遗迹并学习其模式和分布。ChatGPT作为生成式人工智能的典型,其语言模型由OpenAI公司开发。从2018年至今,OpenAI已陆续推出GPT、GPT-2、GPT-3、GPT-4以及图像预训练iGPT等模型,并迅速火遍全球。包括DeepMind、谷歌、商汤、阿里等国内外科技企业也都开发了自己的语言模型并对大模型进行了全面的布局与投资。


  生成式人工智能在给公众带来惊喜的同时,也带来了许多新的法律风险。例如,有用户投诉称自己之前在ChatGPT里输入的隐私信息被其未经许可擅自传播给其他用户,还有许多用户表示ChatGPT生成的内容有时会犯很多常识性错误等。由于ChatGPT等生成式人工智能的惊艳表现得益于其经过海量的数据投喂训练以及内部的算法操作,而在这一过程中所存在的数据安全、算法滥用等隐患就引起社会各界的广泛关注和担忧。为了促进生成式人工智能的发展并规范其使用,我国网信办于2023年4月11日发布了《生成式人工智能服务管理办法(征求意见稿)》(以下简称“《办法》”)并向全社会公开征求意见。该办法共21条,涉及到适用范围、生成式人工智能定义、责任主体认定、数据合规要求以及算法安全评估等多方面的问题。本文将就生成式人工智能使用过程中可能存在的法律风险及化解思路进行逐一分析,并结合新近出台的《办法》的规定,就生成式人工智能的风险规制与监管路径选择进行系统阐释,以期更好地为促进生成式人工智能产业的安全有序发展提供前瞻性建议。


01

生成式人工智能工作原理及其引发的法律风险


  (一)生成式人工智能工作原理阐释


  生成式人工智能目前包含两种类型:生成式对抗网络(Generative Adversarial Network, GAN)和生成式预训练转化器(Generative Pre-trained Transformer, GPT)。其中,GAN是常用的生成建模人工智能技术,其运行需要使用生成器和判别器两个神经网络的共同作用。GPT则是通过使用大量公开的数据来阅读并生成类似人类的文本,其被设计用来根据给定的提示或上下文语境生成类似人类的文本。为了更好地理解并阐述ChatGPT的法律风险及其化解策略,本文将对ChatGPT的基本工作原理作简要剖析:


  ChatGPT是一个由OpenAI训练的大型语言模型(LLM Large Language Model),其是大模型在NLP领域不断发展的一种结果。根据OpenAI官方介绍,ChatGPT的生成机制分为如下四个阶段(见图1):(1)对人工智能进行数据喂养来锻炼其自动生成后续文本的能力。通过让人工智能在海量数据中学习文字接龙,并将人工智能的回答与语料中下文的内容做对比。(2)收集人类数据并进行监督。研究人员让人类就一些问题写出答案,并将这些问题和答案交给GPT学习并优化其模型,以引导人工智能往人类期望的方向作答。(3)收集对比数据并训练奖励模型。研究人员让GPT对特定问题给出多个答案,并由人类来对这些答案的好坏做排序。基于这些评价数据,研究人员训练出一个符合人类评价标准的奖励(reward)模型。(4)强化学习算法针对奖励模型优化策略。这一阶段人工智能在进行自我学习的过程中,同时不断地根据奖励模型的反馈来优化自身的产出结果,以实现通过GPT的自我学习与优化。


图片

图1 ChatGPT的生成机制原理


 (二)生成式人工智能引发的潜在法律风险


  根据对生成式人工智能技术原理的剖析,生成式人工智能所带来的法律风险主要包括如下四类:


  1.数据合规风险


  我国当前的数据合规体系是建立在以网络安全法为代表的网络安全体系、以数据安全法为核心的数据安全体系和以个人信息保护法为核心的个人信息保护体系之上,三者共同构建了我国的数据合规法律体系框架。数据的合规要求数据处理者在处理数据时应保障数据安全、网络安全和个人信息安全,并采取必要措施,以确保用户数据处于合法使用和获得有效保护的状态。生成式人工智能在我国法律体系下数据合规风险具体体现在如下四方面:


  (1)大模型训练阶段的数据来源合规风险。ChatGPT等生成式人工智能在初期需要收集大量的数据进行训练,根据获取这些不同来源的数据可能存在下述风险:①如果ChatGPT获取的数据来自于对公民个人信息的汇集(例如人脸、指纹等),根据《中华人民共和国个人信息保护法》(下文简称“《个人信息保护法》”)第13条的规定,处理个人信息之前需要取得信息主体的同意。但在具体的数据训练环节,期待开发者对每个用户都做到知情同意几乎是不可能实现的。那么,知情同意困境与促进大模型开发训练之间存在的合规风险就亟待解决;②如果ChatGPT获取的个人信息来自于开放的公共数据,此时大模型开发者虽然可以根据《个人信息保护法》第27条的规定处理已公开的个人信息,但对于其利用个人信息进行训练是否属于“合理范围”以及是否会对“个人权益有重大影响”仍存在极大的不确定性和合规隐患;③ChatGPT在训练阶段获取的个人信息还可能存在违反“最小范围”要求的风险。根据《个人信息保护法》第6条的规定,处理个人信息应当限于实现目的的最小范围。虽然OpenAI的隐私政策指出,其所有收集的数据都将仅用于合同指定目的,但其中既未明确用于合同指定目的的数据是否包括存储在其模型中的数据,也没有对其中涉及到的个人信息是否真的全部用于ChatGPT训练使用作出实际承诺,这无疑会增大数据合规风险;④ChatGPT的大量训练数据来自于对受著作权法保护作品的挖掘,考虑到我国当前著作权法的合理使用条款仍采取法定主义,类似文本挖掘行为等很难构成合理使用,如果开发者没有获得作者的授权,那么该行为将可能导致对作者著作权侵权;⑤如果ChatGPT获取的网络数据来自于开发者通过爬虫手段自行获取,也同样存在很大的合规风险。一方面,通过爬虫手段爬取用户信息可能因为手段的使用对目标业务和站点造成影响,并违反我国网络安全法第27条有关禁止个人非法获取个人信息的规定;另一方面,该行为也同样可能构成不正当竞争,因为根据最新的《中华人民共和国反不正当竞争法(修订草案征求意见稿)》第18条的规定以及我国近年来的相关判决,经过网络运营者智力劳动成果投入而形成的数据产品属于受保护的财产性权益。如果ChatGPT训练的数据是从已声明禁止第三方爬取数据条款的网站收集的,则该等数据可能被认定为企业的竞争性财产权益,擅自爬取行为可能违反反不正当竞争法相关规定而导致合规风险。


  (2)大模型运行阶段的数据使用合规风险。在ChatGPT使用阶段的风险主要包括:①数据泄漏风险。用户可能会向大模型中披露个人信息、商业信息甚至是商业秘密等,通过ChatGPT的工作机理不难发现,用户在使用过程中的输入和交互信息也同样会被用于其的持续迭代训练,那么如何保障这些信息安全就存在很大的隐患。虽然OpenAI声明会采取适当的安全保障措施(如匿名化、加密等)来提高数据安全性,但根据报道显示相关的数据泄露风险仍然可能已经发生。②用户个人信息删除权行使困难。虽然OpenAI的隐私政策中规定了用户拥有对其个人信息的查阅、更正以及删除权利等,但考虑到请求生成式人工智能系统删除数据的复杂性特征,对于开发者能否真正删除个人信息的存在痕迹并满足现有合规的要求仍具有很大不确定性。③数据跨境流动的法律风险。当国内用户使用ChatGPT时,有关信息会传输至服务提供商的境外数据处理中心,再由应用反馈回复。在这一交互过程中,若用户将敏感个人信息传输至境外数据处理中心,此时后者是否需要针对个人信息的收集、存储进行具体的事前告知同意便存在难题。此外,如果国内某主体出于数据分析或信息统计等目的,将其收集的一定规模的个人信息传输至OpenAI境外数据处理中心,就很可能构成事实上的数据出境行为,如果未经审批许可将导致极大的合规隐患。


  (3)大模型再训练阶段的数据合规风险。由于用户与ChatGPT之间进行人机交互所产生的数据还可能会被用于大模型在未来的继续迭代训练,也即大模型的再训练阶段。如果这些交互数据中仍涉及大量个人信息或者商业数据,对其初次使用时所征求的用户知情同意范围显然不能涵盖再训练阶段的要求,需要再次告知用户并取得同意。但现实中很难期待企业可以坚持知情同意准则,相关合规风险仍不容忽视。


  (4)训练数据的准确性风险。由于ChatGPT训练的前期阶段,被投入数据的内容来自于开发者从网络中的获取与选择,由此便可能产生因数据的缺失或错误而导致最终呈现的内容不准确。具体而言,如果投入大模型中训练的数据无法保证能够涵盖所有可能的语言或命题,或者来自于网络公开环境中的数据如果存在有虚假的、误导性的或者错误的信息,那么当这些数据被输入大模型中加以训练就会导致其输出错误的结果。例如,如果ChatGPT在训练时使用的数据忽略或者歪曲了某些重要的历史事实,那么当有人对这些事实进行提问时将会从中获得错误的结果,并可能对其历史观的形成产生影响。因此,如不对生成式人工智能事前训练的数据质量加以监督,那么其所提供的不准确信息将会导致使用者的错误认知,尤其对于青少年等尚未建立正确价值观的群体而言,将会产生极大的负面效应。


 2.生成内容滥用风险


  生成式人工智能可以通过其强大的算力合成假文章、生成假新闻等制造各种事实性错误,此外,不法人员会通过利用深度合成技术生成的虚假信息,来实施侮辱诽谤、造谣传谣、侵犯个人隐私甚至是通过深度合成技术仿冒他人实施诈骗等行为,严重扰乱网络传播秩序和社会秩序,这些因人工智能生成内容导致的滥用风险给当前的网络治理工作带来了极大的困难。同时,随着当前生成式人工智能技术的迅速蔓延,实施上述深度合成伪造等内容滥用的产生和传播成本会显著下降,但相关的执法和监管成本却明显提升,这无疑加大了当前网络治理的难度,也为确定更加科学化、精细化的治理提出了更高要求。


 3.算法滥用风险


  其一,算法透明性与可解释性风险。生成式人工智能的运行离不开算法,而算法的实施又会带来“算法黑箱”。“算法黑箱”的产生源自于两方面原因:从内部视角上看,由于机器学习的本身技术特点,算法通过自我学习创制的规则在技术层面往往难以被自然人所观察并理解;从外部视角上看,由于算法决策的规则常常会被算法开发者所隐藏,故而其对于被决策的主体缺乏透明性,被决策的主体也就难以知道决策的过程和逻辑。为了解决“算法黑箱”所带来的负面效应,当前各国都在致力于大力推动企业的算法披露和公开,即要求算法服务的提供者披露、解释其算法的原理、逻辑及决策过程的义务同时,被决策者还可以要求对算法进行解释的权利。虽然算法的透明性要求在一定程度上缓解了算法服务提供者与被决策者在算法决策中的不平等地位,但通常情况下的算法透明度要求条款都比较抽象概括,缺乏更明确具体的指引,故而算法服务提供者往往不知道应当如何具体落实算法透明度的义务。此外,即便是算法主体做到了算法的透明公开义务,依然存在对于算法可解释性程度较低的问题。第一,由于缺乏统一的解释标准与解释主体,导致结果的可信度较低;第二,由于被解释的算法可能与隐私安全或者商业秘密相重叠,故而可被用来呈现的主体范围有限,导致解释效果不理想;第三,由于现有的应用领域有限,导致具备可解释性的人工智能算法仍然很少,不利于实践需要。


  其二,算法偏见与算法歧视。除了算法的可解释性风险外,由于数据偏见所导致的算法偏见或算法歧视现象也需要格外注意。如果生成式人工智能的前期训练的数据存在某种程度的偏见或者歧视,那么经由算法机制产生的回馈结果自然也会存在此种偏见或歧视,甚至生成式人工智能的使用还会进一步延续和放大此种负面效果。例如,来自代表性不足群体的学生可能会因为用于训练ChatGPT的训练数据偏向于某类人群而使他们的论文得到不公正的评分,可能导致这些在教育方面已经处于劣势的人群被更加边缘化。此外,ChatGPT等语言模式还可能会传播和放大歧视和偏见,这也是使用生成式人工智能不容忽视的又一风险。例如,如果用来训练它的数据对特定群体存在不利的偏见,在ChatGPT不断自我学习的过程中此种偏见就会被不断强化,可能导致这些人群遭受比以前更加严重的歧视。


  其三,算法模型与应用的滥用风险。对于算法模型及其应用的直接滥用行为具体表现为如下五种:(1)算法服务提供者在利用生成合成类算法自动合成各式信息,未作显著标识造成虚假信息的夸大传播;(2)算法服务提供者采用定向推送类算法在首页首屏、弹窗等,扎堆推送负面信息诱发社会恐慌和其他不良影响;(3)算法服务提供者利用排序精选类算法生成热搜、榜单等,片面追求流量,大肆炒作低俗恶俗等有悖社会主义核心价值观内容,败坏社会风气;(4)利用算法模仿特定人物的风格发布情书、辞职信、文章等写作或对话服务,造成公众混淆;(5)算法在开发和部署运行过程中存在影响他人利益或者社会公共利益的安全风险。当上述直接滥用算法模型的做法出现在生成式人工智能系统中,其所产生的损害和影响将会超过传统人工智能算法致害的范围,既损害了相关利益主体的合理利益,还对现有公共秩序和善良风俗造成了冲击,如不加以介入将会产生极大的风险隐患。


  其四,算法可问责性风险。在技术中立的背景下,算法往往由于价值缺失、设计缺陷或信任危机而产生严重的算法风险。但是,对算法进行问责就需要具体呈现算法造成的实际损害,并在算法实施者与算法侵害者之间建立必要的因果关系。因为虽然许多算法的具体行为可能会给公众利益带来一定的侵害,但这种侵害有时仅表现为一种可能性而并非现实发生,有时又仅仅是若干侵害原因中的一种,故而很难将其的实施与最终的损害之间建立起直接关联。此外,即便可以证明算法的实施与损害后果之间的关系,仍存在现实的操作困境,即如何规避算法开发者的商业秘密抗辩,并合比例性的实施算法的评估工作,而非为了评估频繁地中断算法的运行。换言之,对于生成式人工智能实施过程中可能产生的算法侵害而言,现有法律规范一方面缺乏必要的损害认定和归责机制,另一方面也缺乏一种对于算法进行持续性评估并将负面影响降到最低的风险防范机制,这就对大模型算法的最终可问责性成立带来了诸多障碍。


 4.其他风险


  (1)隐私保护风险


  在生成式人工智能的训练、应用和模型优化过程中所投放的数据中可能包含了公民个人信息或隐私,如果不对其加以必要的处理,则可能产生大模型对公民个人信息的误用或滥用,侵犯个人的隐私权益。具体而言,在大模型中训练数据给公民隐私带来的风险既可能产生于数据层面的不当使用,也可能产生于大模型自身层面的不当处理。在数据层面,除了训练的数据来源本身包含了大量未经脱敏或处理的个人信息外,还存在模型开发者故意购买使用包含他人隐私的数据并投入大模型中进行训练的情形,这种恶意滥用行为会导致生成式人工智能将公民个人隐私的侵害后果和影响范围进一步扩大。近来就有新闻报道称,部分ChatGPT Plus的用户数据可能被泄露,其中包括了用户聊天记录的片段以及用户信用卡的最后四位数字、到期日期、姓名、电子邮件地址和付款地址等信息。意大利个人数据保护局以没有就收集处理用户信息进行告知且缺乏大量收集和存储个人信息为依据,自2023年3月31日暂停了ChatGPT在意大利的使用,直到OpenAI与意大利个人数据保护达成协议,更新了隐私保护政策并设置了重新登陆的年龄验证后,4月28日ChatGPT被许可恢复在意大利的运营。这也更进一步证明了当前的生成式人工智能仍存在极大的隐私保护风险。此外,需要注意的是,生成式人工智能训练数据的“长尾效应”也同样会给公民的隐私保护带来巨大的隐患。所谓“长尾效应”是指原来那些不受重视、非主流但是种类繁多的产品累积起来,由于数量巨大,其产生的收益甚至能够超过主流产品的现象。该理论最早由著名的《连线》杂志主编克里斯·安德森(Chris Anderson)提出,并用来描述和解释诸如亚马逊和Netflix之类网站的商业和经济模式。事实上,该理论在生成式人工智能的训练场景下也依然适用。由于大模型的训练需要海量数据,这就导致用于训练的数据不但包含了许多位于“头部”明显易得的共性数据,还包含了诸多位于“尾部”在平日里被忽视的个性数据。但事实上,在后者这些数据中往往可能包含有大量的个人隐私信息,当前生成式人工智能的运作机制使得许多从前在互联网中早已被“忘记”的个人隐私信息再次被重新发掘出来并被二次使用,又加之大模型极强的自我学习和迭代能力,使得公民隐私的保护愈发困难。这也被学者称为,生成式人工智能时代我们已经失去了“被遗忘权”。而在大模型自身层面,其模型设计和推理能力都相较之前有了极大的提升,许多看似安全的信息在经过模型不断推理演算后也可能得到个人的隐私信息,由此使个人的隐私信息保护越发艰难。


  (2)导致数字鸿沟加剧


  数字鸿沟是用来理解“数字不平等”概念的一个重要视角,其是指不同社会经济水平的个人、家庭、企业和地区之间获取信息和通信技术(ICT)的机会以及他们使用互联网开展业务活动方面的不平等。具体表现为,处于数据鸿沟劣势方的国家、地区、团体、个人等完全或相对地被排除在数字技术的收益之外。因此,美国国家远程通信和信息管理局(NTIA)将数字鸿沟界定为“信息富有者与信息贫困者之间的鸿沟。数字鸿沟是形成数字不平等的关键因素,并影响着一个国家的社会发展和经济增长,无论是早期的接入鸿沟、使用鸿沟,还是当前的智能鸿沟,都对数字劣势方在就业、教育、社会政治联系以及健康等各种结果方面造成不平等的效应。随着生成式人工智能大模型的不断迭代更新,以算法鸿沟、技术鸿沟为代表的新数字鸿沟将引发新一轮的数字不平等,包括但不限于不公正决策、减少少数族裔或弱势群体的公共参与、加剧社会不公平、损害政府公众之间的信任以及降低模型的可靠性。这些技术鸿沟通常表现在技术主体之间以及技术主体与使用者之间。前者表现为各阶段数据技术行为主体出于自身利益考虑,对其他行为主体产生戒备,数据交流共享难以畅通;后者则表现为作为大模型技术作用对象的普通大众,将会面临极高的数字风险但却收益甚微。


  综上,生成式人工智能之所以可以实现更高层级的智能呈现,得益于对其提供的海量数据训练和模型的自学习能力。但恰恰是大模型在数据挖掘与机器学习的过程中,又会带来新的法律风险。


02

对既有规制方式的质疑


  (一)生成式人工智能风险规制的现状


 1.宏观层面:人工智能监管和治理规范已经形成初步框架


  随着学界和业界对人工智能认识的逐步提高,我国当前阶段对于人工智能的监管和治理规范已经形成了初步的框架,这具体表现在如下三方面:


  其一,在国家层面,由国务院、国家新一代人工智能治理专业委员会、国家市场监管总局、人力资源与社会保障部等陆续发布的《新一代人工智能发展规划》《新一代人工智能治理原则——发展负责任的人工智能》《关于平台经济领域的反垄断指南》以及《关于维护新就业形态劳动者劳动保障权益的指导意见》等相关人工智能治理的重要政策文件,作为国家顶层的政策架构为推动对人工智能实施有效监管和治理、深化创新驱动改革、促进高质量发展、推进国家治理能力和治理体系的现代化提供了有力的支撑。


  其二,我国当前已初步形成了包含法律、部门规章、地方性法规、国标、行业自律标准的多层次治理规范结构,形成了从中央政府到地方政府以及行业组织的分级别、多层次的治理内容框架体系,形成了包含强制约束力的制定法(硬法)与新型行业自我规制的自规范准则(软法)相结合的综合治理体系(见图2)。


图片

图2 我国当前阶段人工智能治理的内容框架


  其三,我国目前阶段对于人工智能的治理规范主要集中于确保人工智能的安全性、使用的透明性、算法的可解释性以及符合伦理性等方面。此外,由国家网信办、工信部、公安部等联合发布的《互联网信息服务深度合成管理规定》对于深度合成技术与服务的的主体责任和义务给予了进一步明确,这对于后期具体到生成式人工智能的规范治理而言具有重要的参考价值。


 2.微观层面:《办法》提供了更加明确的监管指引


  国家网信办发布的《办法》则从合规义务及责任、安全评估及算法备案、数据来源合法性、用户信息保护以及投诉接收处理机制等微观层面对生成式人工智能的监管提出了具体要求。《办法》作为继《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》之后的第三部监管特定技术服务的部门规章,有助于完善当前生成式人工智能的规制体系。其主要内容包括如下方面:


  一是对生成内容的复合性要求。《办法》第4条对生成式人工智能产品生成内容与提供服务提出了合规要求,即生成的内容要体现社会主义核心价值观,应当确保真实准确无歧视。而第16条则要求服务提供者对其生成内容标识。不难看出,《办法》针对生成式人工智能的生成内容提出了更为细化的要求,并将其内容与相关的主体进行了绑定,强化了特定主体对于生成式人工智能生成内容的责任承担。


  二是对提供服务的安全评估与算法备案要求。《办法》第6条对生成式人工智能产品提供前需要进行的安全评估与算法备案作了具体要求。其中,根据《具有舆论属性或社会动员能力的互联网信息服务安全评估规定》第3条所列举的五类需要进行安全评估的情形可知,是否需要进行安全评估的关键在于网络服务提供者是否具有较强的媒体、社交的社会属性。同样,《互联网信息服务算法推荐管理规定》第24条明确规定需要填报相应信息并完成算法备案的对象,也需要其具有舆论属性或社会动员能力。由此可见,《办法》实际是将生成式人工智能视为类似论坛、公众号等“具有舆论属性或社会动员能力的互联网信息服务”,并将其纳入相关的监管流程,以便后续具体操作的落地与执行。


  三是对训练数据的合规要求。《办法》第7条要求生成式人工智能提供者应对预训练与优化训练的数据来源合法性负责,即所训练的数据应符合我国网络安全法等法律法规的要求,不含有侵犯知识产权的内容,且提供者还要保证数据的真实性、准确性、客观性、多样性。同时,《办法》第11条就生成式人工智能提供者对用户信息的保护义务作了规定,如果训练的数据中涉及到用户个人信息,提供者应履行个人信息保护义务,并在使用前取得用户主体的同意。具体而言,生成式人工智能服务提供者不得非法留存能够推断出用户身份的输入信息,不能根据用户输入信息和使用情况对其进行画像或标签化用户特征,亦不可未经许可向他人提供用户的个人信息。


(二)利用现有法律规范进行规制的体系性漏洞


  虽然我国近年来出台了一系列有关人工智能的治理规范,甚至一些规范在全球范围内也是处于领先地位。但是,相比于来自现实层面的监管诉求,我国当前的规制体系仍然存在着许多不足和漏洞。


 1.在治理主体方面,监管主体过多且难以形成监管合力


  当前,我国对人工智能的监管主要呈现多头监管的现状,有关部门包括国家市场监督管理总局、国家互联网信息办公室、工业和信息化部、科技部等。如此设置当然是考虑到了人工智能所导致的风险会涉及多个领域,故而在不同领域实施监管并制定相应的政策自然需要以各部门的专业性作为依托。但是,过多的主体都参与到治理过程中会产生新的问题,例如监管的竞争与推诿,即对于可能存在潜在利益的事项各个部门可能会争相制定相应的监管政策,并积极推动执法工作;而对于情况复杂、涉及面广且潜在利益不足的事项,各个监管主体则可能会选择避而不谈。如此“九龙治水”的治理模式既无法为治理目的的最终实现提供全面的支持,还可能会造成治理资源的分配不均,不同监管规则冲突抵牾,进而影响行业竞争格局与公共利益。此外,虽然国家层面也通过成立人工智能治理专业委员会等机构来实现对多头监管矛盾的协调,但囿于该组织的级别及其非实体性属性,对于当前阶段的人工智能治理工作还无法实现实质层面的统一指导,也不利于实现人工智能的可信治理目的。


  2.在治理规范的设置方面,存在规范不完备、规定过于笼统或效力有限的问题


  首先,当前的人工智能治理规范尚不完备。例如,《办法》第4条虽然对生成式人工智能产品生成内容的准确性提出了合规要求,但由于人工智能服务的黑箱模型使得当前几乎不存在绝对有效的手段来控制人工智能服务的算法运行和生成结果,那么提供者自然无法完全确保生成内容的真实准确。如果要求服务提供者需要对每一条数据、生成内容的真实性进行审核,那么将给其带来极大的运营成本。同样,《办法》第5条虽然规定了生成式人工智能服务提供者的主体责任,即明确了生成式人工智能产品的技术研发商、应用开发商等、提供API接口等接入服务的提供商均需要为其生成的内容承担责任,但却并未对生成式人工智能服务的用户责任进行规定。这又会导致新的问题,因为即便生成式人工智能服务提供者履行了合规义务,但其并无能力做到对全流程的审查监管,从而避免用户利用其服务制造了侵犯他人权益的内容。如果其可以做到全流程的监管和审查,那此种监管审查本身又有可能会对用户的隐私或商业私密造成侵犯。又如,虽然《办法》第6条要求在生成式人工智能产品向公众提供服务前需要进行算法备案。但包括《互联网信息服务算法推荐管理规定》等在内的相关治理规范多是从算法治理的角度出发,强调算法在使用过程中应该进行安全检测、算法评估并要求算法服务提供者应当进行一定的算法备案。此种规范固然有利于对算法的监管,但对生成式人工智能所涉及到的算法可解释性问题方面的规范仍然欠缺,从而难以对治理实践进行明确指导。


  其次,当前的人工智能治理规范仍过于笼统。例如《办法》第4条虽然规定利用生成式人工智能生成的内容应当真实准确,但该条在生成式人工智能的使用过程中就存在一定的解释分歧,即数据处理主体对于数据的不完备使用行为是否需要其主观存在过错。具言之,用于大模型训练的数据可能并非总是完整的,若该大模型开发者不知情,那么生成式人工智能依据不完整数据训练所生成内容给当事人造成的利益损害是否可以直接要求其担责就存在争议。又如,《新一代人工智能伦理规范》要求人工智能在数据采集和算法开发中,要尽量避免偏见,努力实现普惠性、公平性和非歧视性。但对于应当如何评估是否达到了普惠性和公平性,或者应当如何就是否构成歧视进行认定却依然没有相对详细的参考,这给现实中的监管实施带来了困难。


  最后,相关治理规范的效力有限且约束力不足。当前的部分规范源于某个特定部门法的规定,对于非该法所调整主体实施的行为,其他监管机构能否类推适用就存在疑问。例如,我国电子商务法第18条规定电子商务经营者不得只向消费者提供根据其兴趣爱好、消费习惯等特征的搜索结果。该条旨在对电商平台基于用户消费数据形成的用户画像作定向推送行为进行规制,但由于该法调整的对象为电商平台和平台内经营者,而对于其他主体并无直接的约束力。那么,当生成式人工智能等其他主体根据用户数据实施了该种定向推送行为时应当如何规制?能否类推适用我国电子商务法第18条的相关规定?其依据又在何处?又如,现有的治理规则体系中包含许多国家推荐性标准,由于这些标准本身仅具有参考价值而不具强制约束力,那么监管机构在治理过程中就无法通过援用这些标准而有效约束相关主体。例如,国家推荐性标准GB/T 35273-2020《信息安全技术个人信息安全规范》首次给予个人生物识别信息特殊保护,并对其的收集、存储、传输、共享以及转让等行为进行了严格规范。但由于该标准的效力较低,如果没有法律的强制力保障实施,那么企业可能完全没有动力时刻遵守上述规定。


3.在治理手段方面,缺乏行政监管、司法审查与企业自治的协调和统合


  由于人工智能本身具有专业性和复杂性特征,故而对其治理就需要体现多主体的共同参与,需要依赖包括政府、行业组织、企业以及公众等多方主体参与,从而构建全面而有效的治理模式。具体而言,政府通常需要借助司法机关、企业、技术专家等的帮助,以形成技术优势与信息优势,而其中企业的自我规制发挥着重要价值。由于企业作为人工智能技术的投资者、开发者、使用者,其掌握了资金、技术、人才、市场等多方面的资源和信息,将其纳入到治理过程会极大地提高治理的效率。同时,由于人工智能企业在运转过程中既得到了国家层面的政策扶持,也利用了公众所让渡的个人数据,这也在一定程度上构成了其承担必要社会责任的基础。因此,需要企业主动发挥自我规制的作用,协助政府行政监管,推动人工智能治理规则与治理标准的构建,避免自身技术被滥用并造成公众利益的损害。此外,司法审查同样也是一个重要的治理手段。具体而言,公开的法院裁决,可以让公众更好地知晓某种行为的不法性,从而实现一定的威慑作用。同时,相比于行政执法“运动式”所带来的不稳定效果,司法裁判所具有的稳定性可以推动社会和行业树立正确的经营观和价值观,更好地重塑治理的价值目标。


  但我国当前阶段人工智能治理体系仍然是以政府行政监管作为实现监管目的的主要方式。虽然此种由行政机关独自实施治理的方式具有一定的高效性,但考虑到人工智能技术所具有的专业性和复杂性特征,相关企业所具有的企业社会责任以及司法审查的稳定作用,我国需要在制度层面进一步构建由“行政监管—司法审查—企业自治”所组成的三位一体的治理框架,并细化有关具体协作机制,以实现多层次、复合型的人工智能治理举措。


4.在治理规则适用方面,知情同意原则、目的限制原则与诚实信用原则存在适用困境


  在我国当前人工智能的治理规则中,相关法律对于人工智能企业获取个人数据的行为分别规定了知情同意原则、目的限制原则以及诚实信用原则,以期更好地保护公民的个人隐私和重要数据。但在现实中,上述原则的设置初衷始终与现实表现存在很大张力:


  知情同意原则在适用过程中会与技术应用的效率产生很大矛盾。作为获取公民个人信息的重要依据,知情同意原则受到了来自立法、司法和执法领域的广泛关注。我国网络安全法、个人信息保护法等法律法规均对该原则进行了规定,《办法》第7条也规定生成式人工智能训练的数据如果包含个人信息,应当征得相应主体的同意。该原则设立的法理依据是保护个人的知情同意权,个人有权对自己的数据信息进行处分。但在现实中,一方面要求企业履行事无巨细的完全告知在事实上几乎不可能实现,即便做到,也会大大增加企业经营成本与用户决策成本;另一方面,由于很多收集用户数据的场景本就具有非接触性特征(例如ChatGPT在前期训练过程中从网络获取数据),此种非接触性的使用会导致知情同意原则的适用陷入困境。因为如果要求每一次使用都必须建立在知情同意的基础上,那么技术的使用效率将会被大大降低,甚至可能会阻碍行业的创新,也不符合当前鼓励人工智能发展的政策导向。


  目的限制原则适用中所要求的目的不具有现实可预期性。根据《个人信息保护法》第6条的规定,目的限制原则要求企业在处理公众信息之前,需要明确其处理该信息的目的,即个人信息处理主体对于个人信息的处理就其实现的目的而言必须是适当的、相关的和必要的,其处理行为不能超出信息主体初始的授权范围。换言之,相关企业在使用公众个人信息之前需要首先明确其使用目的,并且对这些信息的使用不能超过其预先划定使用目的的范围。但在现实中,企业欲实现的目的通常具有一定的抽象概括性,且很多时候多种目的之间还可能存在一定的潜在关联,这就使得目的限制原则的边界十分模糊。同时,由于缺乏统一的标准,许多人工智能企业在使用公众个人信息时往往会通过切换不同场景的方式来实现对目的限制原则的突破,这也在一定程度上为目的限制原则的适用带来了很大困难。


  第三,诚实信用原则存在极易被滥用的风险。作为传统民法帝王条款的诚实信用原则,自其产生以来就存在过于笼统抽象、适用边界不清晰、缺乏对于现实的具体指导作用等问题,这些问题在当前人工智能企业的数据获取方面也同样存在。例如,应当如何判断企业获取个人信息的行为是否有悖于诚信原则,在不同场景之下对处理个人信息的诚信原则解释是否存在区别等依然有很大争议。由于缺乏必要的指引标准和类型化分析,贸然放开对诚信原则的适用控制,必然导致实践中大量纠纷向一般条款逃逸,从而导致诚信原则被滥用的现象产生。这不仅会影响执法相对方的合理预期,还会破坏监管双方之间的信任,损害法律的权威。


(三)比较法下生成式人工智能风险规制的经验镜鉴


  随着生成式人工智能技术的发展与运用,欧盟和美国也在监管层面对其予以高度重视,并相继出台了一系列法案用以规制其可能产生的风险。二者在人工智能治理领域既存在相似的经验,也存在不同的选择。


 1.欧盟:先规范后发展,稳步推动监管


  虽然目前欧盟对于生成式人工智能还没有统一的立法,但欧盟部分成员国已经对ChatGPT采取相应执法活动,这与欧盟长期以来对人工智能监管的谨慎态度相契合,即在治理层面首先注重防范其可能带来的风险,而后再逐渐倡导产业健康有序发展。就生成式人工智能的监管而言,2023年3月31日,意大利数据保护机构The Garante展开调查后发布公告,怀疑OpenAI在其人工智能应用程序中违反数据收集规则,对个人数据进行不准确处理并没有为13岁以下的用户设置相应用于验证用户年龄的过滤器,故而宣布暂时封锁ChatGPT。4月6日,法国数据监管机构CNIL受理了两起关于针对OpenAI公司及ChatGPT使用个人数据的投诉,分别涉及到ChatGPT收集个人信息的使用条件及数据的错误使用。4月11日,西班牙数据保护机构要求欧盟隐私监管机构评估ChatGPT的隐私保护水平。4月13日,欧盟EDPB成员决定成立一个专门的工作组来促进意大利数据保护机构对OpenAI的执法合作,并就数据保护机构可能采取的执法行动交换信息。具体到数据保护和人工智能技术的监管方面,欧盟一直前瞻性地走在立法实践的最前端。2018年3月,欧洲科学与新技术伦理组织发布的《关于人工智能、机器人与“自主”系统的声明》提出,欧盟要启动相关流程,为机器人技术和自主系统的设计、生产、使用和治理制定一个共同的、国际公认的伦理和法律框架。2018年12月欧盟委员会高级专家组发布的《可信赖的人工智能伦理准则(草案)》指出,人工智能所带来的总体收益要大于风险。2020年,欧盟委员会发布《人工智能白皮书》,尝试建立一个共同的欧洲监管框架,创建旨在提高公民技术信心的“信任生态系统”,并以“高风险”作为监管范围限定标准。根据该白皮书的规定,如果某领域属于使用人工智能应用具有重大风险的特定领域且在该领域使用人工智能的方式属于具有重大风险的使用方式,则会被认定为“高风险”的人工智能应用并要求遵循严格的要求。例如,要求应用于高风险领域的人工智能系统在每一个环节都要达到稳健准确、确保成果可重复、确保人类的适当参与。欧盟推出《人工智能白皮书》是希望通过不断实现科学突破,维护欧盟的技术领先地位并确保新技术在尊重人权的基础上,改善人们生活。此外,欧盟有关方面和微软、IBM等科技巨头也共同签署了《人工智能伦理罗马宣言》,讨论如何规范人工智能的社会影响,这是欧盟推动全球数字经济监管新标准的最新举措。该宣言指出,人工智能技术应尊重个人隐私,以可靠而无偏见的方式工作,考虑所有人的需求,并以透明方式运作,该宣言从侧面显示了欧盟对人工智能负面影响的担忧。2021年4月21日,欧盟委员会通过了《人工智能法》提案,该提案是全球范围内首部系统化规制人工智能的立法提案,细化了人工智能四级风险框架,通过禁止“无差别的大规模监控”来进一步保护个人隐私,重点针对高风险系统作出规制,并提出了较为完善的监管配套措施,为符合伦理的人工智能技术发展铺平道路。如果说欧盟《通用数据保护条例》《可信AI伦理指南》与《可信AI评估列表》的出台基本确立了欧盟地区人工智能发展的伦理框架,那么《人工智能法》《可信赖的人工智能伦理准则》和《人工智能白皮书》的出现,则标志着全球人工智能治理从伦理原则等软性约束,迈向全面且具有可操作性的法律规制阶段。


 2.美国:审慎监管以促进产业创新


  基于ChatGPT的巨大影响以及维持自身在人工智能领域国际领先地位的需要,美国对人工智能的治理则坚持相对开放的监管策略。在生成式人工智能监管方面,2023年4月11日,美国商务部下属的国家电信和信息管理局就人工智能系统的潜在问责措施征求公众意见,旨在建立人工智能模型的可信度、合法性和道德准则相关的审查制度。美国参议院多数党领袖查克·舒默积极推动人工智能技术监管的立法,以达成在安全、问责制和透明度的需求与促进人工智能创新之间的平衡。在人工智能的监管方面,美国也一直秉持相对开放的监管策略。具体而言,2019年,美国曾推出行政令《保持美国在人工智能领域的领导地位》,奠定了其在人工智能治理方面以强化全球领导地位为核心的总基调。2019年2月,美国总统特朗普签署《美国人工智能倡议》,该倡议提出要应对来自战略竞争者和外国对手的挑战,并确保美国在人工智能领域的领先地位。该倡议要求联邦机构将通过为不同类型的技术和工业部门的人工智能开发和使用建立标准,促进公众对人工智能系统的信任,该标准将帮助联邦监管机构制定和维护安全和值得信赖的新人工智能技术方法。该倡议还要求国家标准与技术研究所领导制定适当的技术标准,以建立可靠、稳健、可信、安全、可跨平台和可互操作的人工智能系统。2019年4月,美国推出了《算法问责法案》,要求对“高风险”的自动决策系统进行影响评估。该法对自动化决策(算法)的定义、管辖对象、高风险算法进行了具体的规制,并要求对自动化决策尤其是高风险算法进行影响性评估。根据该法案的规定,以下算法将被认定为高风险算法:由于算法的新颖性以及性质、范围、内容和目的,对消费者个人信息隐私和安全带来高风险的算法;带来歧视性后果的算法;基于个人的工作表现、经济状况、健康、个人偏好、地理位置和行为轨迹而作出的影响个人权利的算法;涉及相当数量消费者的种族、肤色、政治观点、宗教、工会身份、生物数据、健康、性别、性倾向、犯罪记录、逮捕记录的算法;系统性监测大型的公共场所的算法。2020年1月,美国发布的以第13859号行政命令为基础的《人工智能应用监管指南备忘录(草案)》基本确立了审慎监管的原则,给出了特定的政策指南和框架、试点计划和试验、自愿性共识标准等具体措施,体现了“鼓励AI的创新和发展”的理念。此外,美国还在同年出台了《国家人工智能倡议法案》,该法案提供了一个跨整个联邦政府的协调计划,以加速AI研究和应用并促进国家经济繁荣和国家安全。2020年5月,《生成人工智能网络安全法案》出台,该法案要求美国商务部和联邦贸易委员会明确人工智能在美国应用的优势和障碍,调查其他国家的人工智能战略,并与美国进行比较评估找出对应的供应链风险及解决方案,制定国家人工智能战略的建议。2021年5月,美国出台的《算法公正与在线平台透明度法案》从用户、监管部门和公众三个维度提出算法透明的义务要求。2021年7月,美国政府问责局发布《人工智能问责框架》,围绕治理、数据、表现和监测四个主题,并对其中涉及的关键实践做法、系列问题和问责程序等进行了阐释,以确保人工智能系统的公平、可靠、可追溯和可治理等。美国2022年公开的《算法问责法案》草案,要求企业在进行自动化决策以及重大的关键决策程序时,应当进行相应的影响评估,并向有关机关提供该等影响评估文件。影响评估应当分析对消费者可能造成的重大负面影响与改善措施,同时还覆盖了对系统当前与历史性能的测试和评估以及隐私保护、数据安全措施、决策的公平性、非歧视性等方向的评估。美国同年提出的《人工智能能力和透明度法案》,旨在通过改进人才招聘机制和更快地采用新人工智能技术来提高联邦人工智能能力。其中,联邦政府将AI定义为“美国国家战略的核心”要求。总体而言,美国虽然出台了许多有关人工智能促进和治理的法案,但其主要是采用企业自我规制和政府规制相结合的治理路径,并以《算法问责法》为引领创建了一系列在公共治理场景中人工智能应用的程序化问责路径。


  综上,欧盟与美国的制度探索为我国当下实现人工智能的良性治理提供了富有启发性的思路,但这些制度方案的实际效果还有待实践检验。结合我国当前的产业现状,我国的人工智能治理应当在坚持鼓励技术创新的同时侧重保护个人信息和防范风险,探寻具有中国特色的治理策略。


(四)生成式人工智能法律风险加剧的深层次原因剖析


  在生成式人工智能技术不断迭代更新的背景下,以数字技术为核心的数字经济正在蓬勃发展,但同时也带来了诸如数据安全、算法滥用等诸多风险。对于数字经济的风险治理模式,国际上通常存在回应型治理模式、集中型治理模式以及敏捷型治理模式等三种模式。由于我国当前还处于数字经济治理模式的转型过渡期,在选择何种治理模式实现对人工智能产业的治理政策方面仍然存在一定的分歧,进而导致在政策制定与监管执行方面仍存在较多冲突抵牾,这也是当前生成式人工智能法律风险加剧的深层次原因。因此,选择更加符合我国当前技术需求与经济发展的风险治理模式,才是引导科技向善、化解由此产生的风险的关键步骤。


  首先,回应型治理模式由于过于依赖市场的参与,不符合我国当前的治理需求。所谓回应型治理,主要是指在技术发展的早期阶段,监管机构为了促进技术的创新与发展而选择以回应现实问题的治理模式。换言之,监管部门只对现实已经发生的问题进行治理,其本质上属于一种事后治理的机制,给予了技术主体更多探索创新的空间。我国在2017—2020年期间对人工智能产业即主要采取了回应型的治理模式,推动人工智能的技术发展,形成非常有利于人工智能发展和创新的大环境,并且提供相关问题的引导性和规范性的措施。这一阶段监管政策整体呈现出包容的态度,针对国内出现的问题出台了一些软性规则,并且在科技部的推动下成立了新一代人工智能治理专家委员会,出台了新的人工智能治理准则。但是,回应型治理模式对于当前人工智能的治理也存在不足:一方面,因为该种模式通常仅在事后发挥作用而缺乏前瞻性,故而一旦发生严重的风险事故则可能会造成较大的后果;另一方面,回应型治理模式通常会将部分治理的权限下放给市场主体,但由于企业的组织架构和管理规范存在趋利性和单向性,这就导致许多技术风险无法得到妥善处理并出现更多的漏洞。很明显,回应型治理模式与我国当前所提倡的引导人工智能规范发展的理念有所出入,已不符合我国的现实需求。


  其次,集中型治理模式由于过于强调权力集中和统一执行,也不符合我国当前的治理需求。所谓集中型治理模式,是指有关监管部门为了应对风险不集中、不及时等问题,而采取加强行业整体监管,强调等级划分和权力集中,积极落实制度监督和制度保障的一种治理模式。该种治理模式更强调事先治理的必要性,体现了监管部门从追求技术高速发展到兼顾技术高质量发展的理念转变。总体来看,我国当前对人工智能的治理即属于此种集中型治理模式,一方面体现在我国数据安全法、网络安全法、个人信息保护法等法律法规的制定和实施;另一方面也体现在监管部门对人工智能等新兴技术产业的强监管态度,例如执法部门对于滴滴的数据安全审查、对于阿里“二选一”行为的处罚等均体现了此种集中型治理模式的特征。需要注意的是,虽然集中型治理模式可以较好地实现对技术风险的有效监管,但由于该种治理模式实行严格的事前干预机制,缺乏必要的监管弹性,可能会压制市场创新活力,提高整体的治理成本,并导致资本对科技的支持出现偏离。


  最后,敏捷型治理模式既考虑到技术的创新性也兼顾了监管组织的统一性,符合我国当前的治理需求。“敏捷”(agile)一词最早于1991年来源于制造业,它强调的是企业在生产制造过程中面对市场的急剧变化,通过快速自我调整以适应市场的能力。最初的敏捷治理主要体现在组织环境中为实现和改善战略竞争优势而采取的手段。而在2018年世界经济论坛中,敏捷治理(agile governance)被定义为“一套具有柔韧性、流动性、灵活性或适应性的行动或方法,是一种自适应、以人为本以及具有包容性和可持续的决策过程”,以重点强调敏捷治理的灵活性、适应性和可持续性。敏捷治理包括了内部外部的共同动员能力、动态性评估、整体作用影响、自下而上的集权程度、对变化的灵活响应、重点关注组织绩效和可持续性等要素,而其核心能力则集中表现为:快速感知能力、灵活响应能力以及持续协调能力。相比于回应型治理模式与集中型治理模式,敏捷型治理显然更符合我国当前阶段的人工智能治理工作。具体而言,为实现对我国人工智能的有效治理,监管政策的制定应当充分考虑人工智能发展背后所蕴藏的公平、效率、创新、自由的价值观和伦理基础;治理主体应当从单一制主体的监管模式向多元主体共治的监管模式转变;治理对象应当实施自下而上的分层治理模式,充分考虑到数据、算法、应用和企业之间的关系;治理环节需要从单一的事后监管转变为“事前监督—事中干预—事后审查”的全流程监管模式;治理的手段则需要更加丰富多样,除了具有强制约束力的法律规范外,还需要充分接纳行业标准与企业自律准则,从而真正实现人工智能产业治理的硬法与软法的有机结合。


  总而言之,人工智能的治理需要重点关注其基本价值观、治理体系、参与者、治理对象以及效果评价等五个方面要素。由生成式人工智能等新技术革命所带来的法律风险加剧的深层次原因在于,我国当前对于人工智能产业的治理模式与技术发展革新的现实需求并不完全契合。无论是回应型治理模式还是集中型治理模式都存在一定的缺陷,一味地沿用固有的治理模式并不符合当前阶段数字经济发展的实际需求。虽然很多治理问题本可以通过完善技术来化解,但当下人工智能发展所面临的最大矛盾便是:人工智能技术发展速度极快,但治理体系的更新需要按照既定程序而常常显得滞后,考虑到我国当前人工智能等新兴科技产业在全球所处的地位及其社会价值,敏捷型治理模式应当是更符合其发展规律且可以有效避免风险扩大的解决路径。


03

生成式人工智能法律风险规制的症结与出路


  生成式人工智能所引发的法律风险表面上是体现在数据使用风险、算法滥用风险以及隐私保护风险等方面,实质上却是合理配置科技发展与监管策略之间冲突的问题。该问题是数字科技融入大众生活之后所呈现的新问题,一方面涉及到如何保持对科技创新的持续促进,另一方面涉及到对技术弱势群体的利益保护。如何实现二者在现行法律框架下的有效平衡尚无直接对应的化解方案。由此,本文将对创新规制的经济学理论进行审视,明晰生成式人工智能风险治理问题的症结,并从相关新经济的规制经验中探寻可行的出路。


(一)正确认识并协调“破坏性创新”与“试验性监管”之间的关系


  生成式人工智能是一种“破坏性创新”,其对传统技术产品市场会造成全方面的影响。在经济学理论中,关于竞争与创新之间关系的经典理论首先来自于奥地利经济学家熊彼特所提出的“创造性毁灭”(creative destruction)理论。熊彼特指出,新产品的每位发明者基本上最初都处于垄断地位。对于任何所谓创新企业家而言,这个垄断地位才是他们首先向市场推出新产品和新方法的最重要的诱因。但久而久之,随着市场上效仿者日益众多,企业家对其竞争者原有的领先优势便会消失。按照熊彼特的说法,创新和效仿这一动态性过程构成竞争的真正本质。这也包括在市场上不断取代现有企业的新企业和产品。熊彼特把竞争描述为创造性毁灭过程。由于熊彼特并未就政府规制在创新发展进程中的角色及作用进行系统研究,其后的美国学者克利斯坦森在对该理论进行完善后,于1995年提出了“破坏性创新”理论。从技术上看,破坏性创新意味着不同于主流技术但却被当前市场所看重的属性。当破坏性创新被首次引入时,不一定会受到主流用户的认可但却可能获得广泛非传统用户的青睐,随着时间的推移,具有破坏性创新的技术会比之前的技术性能属性得到极大的改进并在主流市场收获竞争力,之后代替传统的技术成为新的主流技术。从时间维度上看,破坏性创新其实是一个过程,包括了新技术对旧技术的冲击、竞争和替代。换言之,“破坏”是指对现有的主流技术、主流消费者、主流市场竞争规则或现有企业主导地位的破坏,而“创新”则强调通过重新组合要素得到新的价值属性的创新技术或创新过程的必要存在。根据学界的观点可知,破坏性创新通常具有如下四个特征:(1)破坏性创新需要至少起源于低端市场或全新市场;(2)破坏性创新框架的一个核心情境要素是“过当”;(3)破坏性创新并非沿着现有的技术轨迹进行发展;(4)破坏性创新是一个完整的过程,不能仅凭效果是否“颠覆”而进行判断。根据上述特征,我们不难发现生成式人工智能(如ChatGPT)相比于传统的弱人工智能(如智能客服)而言即是一种典型的破坏性创新。具体而言,(1)生成式人工智能起源于一个全新的市场;(2)由于当前的诸多科技企业的产品过度追求自身利润而忽视对于技术创新的不断投入,同时由此导致的高成本使低端的消费者越来越难以承受,当前的消费者也希望有更加合适的产品出现,而ChatGPT恰好满足了消费者的需要;(3)ChatGPT的运行机制与原理并不相同于传统的电脑翻译、搜索引擎等工具,其技术路径具有很强的独立性;(4)ChatGPT所提供的产品或服务性能不断提升,从结果和过程方面都影响了用户的生活工作习惯并逐渐成为其替代。


  生成式人工智能所带来的破坏性创新,倒逼人工智能治理的监管改革,催生“试验性监管”及其他监管模式。所谓“试验性监管”即是强调监管方式的柔性和灵活性,开辟制度的“缓冲带”,引导新技术、新商业模式在经过试验并确定其最适宜的监管强度后施以最合适的监管政策。监管者应当以前瞻性视角去审视科技创新,并以包容审慎的监管策略去挖掘技术创新的潜力,进一步激发其中的技术红利。我国在2020年之前对数字经济所采取包容审慎的监管方式也正是考虑到由数字经济所引发的破坏性创新的积极效果。“所谓‘包容’,就是对那些未知大于已知的新业态采取包容态度,只要它不触碰安全底线。所谓‘审慎’有两层含义:一是当新业态刚出现还看不准的时候,不要一上来就‘管死’,而要给它一个‘观察期’;二是严守安全底线,对谋财害命、坑蒙拐骗、假冒伪劣、侵犯知识产权等行为,不管是传统业态还是新业态都要采取严厉监管措施,坚决依法打击。”当然我们不能忽视的是,面对科技创新,监管不力会导致风险的进一步累积;而监管过度又会制约创新。因此,只有在科技监管与科技创新间寻找平衡才能实现生成式人工智能治理效果的最优化。


  (二)生成式人工智能法律风险规制的路径选择


1.生成式人工智能法律风险规制的总体框架


  生成式人工智能的出现既提供了许多传统应用无法实现的经济形态,又倒逼许多传统应用进行功能上的升级和转型。例如,ChatGPT的出现就解决了传统搜索引擎搜索广告多、检索结果质量低的问题。虽然此种具有破坏性创新作用的生成式人工智能应用会对诸如翻译、搜索、润色等许多传统的应用服务造成冲击和挑战,并逐渐取代其部分甚至全部市场份额,但这却是技术革新所触发的新经济形态破坏性创新所带来的正向竞争收益,是一种值得被鼓励并可以带来消费者和社会福利整体提升的市场正常竞争行为。故而在此过程中,法律应当保持谦抑性并尽量扮演激励性的引导角色。需要注意的是,智能革命的发展需要遵循法治的轨道,技术中立也不是被滥用和侵权的借口,更不能仅以创新之名而行损害其他竞争主体、消费者以及社会公共利益的行为。因此,对于此种因技术创新所带来的破坏性创新,应当坚持包容审慎的治理原则,以将由此导致的法律风险降到合理限度内。当然,规制的目的在于降低风险但又不阻碍科技的创新发展,故而这就涉及到在二者间选取合适的平衡点。


  在人工智能发展的初期阶段,技术开发者会以技术为基础,为使用者更高效地完成各种工作任务提供帮助。在此阶段人工智能常见的应用场景是,技术开发者提前准备一定数量的小数据样本来训练人工智能并给使用者提供必要的辅助功能。由于此阶段的人工智能自我学习能力和算力有限,其无法自主去爬取并分析互联网中的数据和其他信息,此时的风险主要来自于前端开发者搜集投入的数据是否合规,除此以外,其可以大大提高使用者的工作效率,并可能展现更多的破坏性创新效应。因此,这一阶段对人工智能的风险规制应当重点关注对前端开发者资质和其行为的审核,而对技术本身仍应当秉持包容审慎的规制原则。但随着技术的不断发展,人工智能的训练数据量不断增大,模型算法和算力也愈发强大,其所导致的风险还覆盖了模型训练、应用运行以及人机交互后的模型再训练阶段,加之算法作用过程和决策机制的隐蔽性与复杂性共同导致风险治理的难度越来越大。虽然此时生成式人工智能带来的仍是破坏性创新,但由其导致的合规风险已经无法忽视,如不加以必要关注则很容易导致技术被滥用。


  综上,对于生成式人工智能导致的法律风险问题进行规制应当遵循下述两个原则:(1)总体上坚持包容审慎的治理态度;(2)为生成式人工智能创新提供一个安全独立的测试环境,可以使得相关企业在其中测试新的技术产品并发现其风险程度,进而决定是否向外进行推广。对于生成式人工智能等新技术在推广前进行预先的测试管理,符合我国当前产业转型升级的现实需要,也能较好地协调技术创新和风险规制。但需要注意的是,为生成式人工智能营造事先的风险测试环境的目的在于控制合规风险,但其实施必须要建立在促进破坏性创新的基础之上。换言之,营造上述特定宽松的监管环境只是权宜之计,目的是在于让更多具备现实创新价值且风险程度低的人工智能技术合规地进入市场。随着市场的经营主体逐步完成合规化转型,该种特殊的监管环境也即会被取消,最终进入安全稳定的市场秩序。


  2.生成式人工智能法律风险规制的具体举措


  首先,应当从法律层面构建相应的制度规范,以实现对生成式人工智能法律风险的源头治理。具体而言,基于现有针对人工智能的监管基础,针对生成式人工智能形成综合立法。虽然《办法》出台后将极大地改善生成式人工智能无序发展的局面,但考虑到目前生成式人工智能可能导致的风险复杂且多样,当前的相关规范要么因为场景局限而难以对其进行直接规制,要么由于散见于各种指导意见或标准文件之中而不具有统一的效力,由此便导致了对于生成式人工智能的治理目标、治理机制以及治理尺度很难实现统一,这不仅影响治理的效率,还会给企业的合规审核工作带来极大的审核成本。考虑到我国目前在人工智能产业与欧盟、美国等正处于激烈的竞争阶段,为了人工智能治理的体系化布局,立法机构可以考虑制定专门针对人工智能治理的专门性法律,并为相关的风险问责构建一套完整的责任机制,具体可以包括明确人工智能的风险问责主体、被问责客体、问责程序以及具体的风险评估事项等。例如,在规范主体方面,可以构建生成式人工智能服务提供者、技术开发者、服务使用者的三方权责机制。在规范实施方面,可以根据生成式人工智能的应用场景及其生成内容所涉风险程度建立对应的风险管理体系,并定期开展数据风险能力评估;还可以通过立法进一步强化人工智能算法的透明度和可解释性,即要求人工智能开发主体在常规场景中使用用户所能理解的语言解释算法的决策逻辑或决策体系,包括算法的基本逻辑、所依据的个人信息字段以及算法结果的使用目的,并向用户提供申诉途径;而在特定场景下(例如投诉争议、网络安全等),则需要向司法部门或监管部门等给予更加详细的披露。在规范数据训练方面,需要加强大模型在数据的收集、存储、使用等阶段对用户信息、商业秘密等重要数据的保护和监管。


  其次,在软法规范层面进行填补式的风险治理。由于许多数据具有唯一性且一旦生成便无法修改,但法律规制的救济模式由于存在滞后性而难以有效止损。同时,考虑到无论是监管机构还是普通公众与人工智能开发者相比,都会因缺乏相关专业知识而处于信息不对称的弱势一方,此时就需要在传统法律规范之外构建对应的软法自治机制,以实现对风险的填补式规制。具体的规范构造可以包括如下三方面:(1)在事先,要求生成式人工智能的开发者或者服务提供者建立事前的数据风险评估认证机制,对事先可能发生的风险及其处置机制作出必要的公示及说明,以便监管部门监督或者企业自查;(2)在事中,当生成式人工智能在应用运行阶段获取到个人敏感信息,或者在使用人机交互过程中涉及到用户个人隐私信息时,均需要在合适场景下将这一情形事前告知当事主体并取得其单独同意;(3)在事后,如果生成式人工智能在其他基于个人特征的场景中存在滥用个人信息之虞,相关人工智能开发或服务提供企业还要提供有效的申诉机制,以期可以为因生成式人工智能算法偏差所导致的权益受损提供对应的救济途径。除此之外,还需要对数据提供商所提供数据进行进一步的审查和约束,并要求其对有关数据的来源、真伪以及交易使用流程进行全方位的检测。


  最后,通过监管沙盒实现敏捷型的风险治理。监管沙盒是2015年英国金融行为监管局为金融科技监管开辟的新思路,其具体是指金融监管部门为了促进地区金融创新和金融科技发展,让部分取得许可的金融机构或初创科技型企业,在一定时间和有限范围内测试新金融产品、新金融模式或新业务流程,并在这一过程中对测试项目降低准入门槛和放宽监管限制的新型监管方法。实施监管沙盒的核心在于可以为金融创新提供一个安全、快捷的测试环境,使金融科技企业可在其中测试创新金融产品和服务,进而决定是否在沙盒外进行真实的市场推广。由于监管沙盒可以很好地实现创新和监管的有机统一,其也常常被引入用以评估技术创新对数据保护的影响。通过构建监管沙盒,可以更好地观察和应对生成式人工智能所带来的风险。对于监管机构而言,由于监管沙盒政策要求生成式人工智能的初期使用被限定在特定范围内,此举更有利于事先评估技术运行可能产生的风险全貌并收集相关信息,有效解决信息不对称问题,消除信息壁垒,缓解监管时滞,提升监管效率,以便日后在技术全面推行时可以对其实施有效的风险治理;对于生成式人工智能服务提供者而言,监管沙盒不会对技术创新造成实质性阻碍,并可以相应地缩短技术落地的审批流程,降低企业的成本,有助于在企业和监管机构之间建立更有成效的沟通机制;对于生成式人工智能使用者而言,监管沙盒的出现很好地调和了技术创新与用户数据风险之间的矛盾,使得用户可以在享受技术红利的同时最大限度地得到隐私和数据安全的保障,从而提升消费者的整体福利。


04

结语


  ChatGPT等生成式人工智能的出现极大地影响了我们的生活,其在给人们工作效率带来颠覆性变革的同时,也对现有的法律体系带来了一定的风险和挑战。这种风险具体表现为数据合规风险、生成内容滥用风险、算法滥用风险以及其他风险。虽然我国目前针对人工智能的法律风险已经初步具有了规范框架,但仍囿于在治理主体、治理规范设置、治理手段以及治理规则适用方面存在的漏洞亟待进一步完善。与欧盟和美国类似,我国人工智能产业在高速发展的同时也需要体系化的治理方案。考虑到我国目前人工智能产业的发展现状以及国际竞争的环境,保持创新促进与监管统一的敏捷型治理模式应当成为相关决策者的首选。而生成式人工智能具有的破坏性创新属性,也倒逼我们采取试验性监管的治理策略。具体就包括了总体上坚持包容审慎的治理态度,并为生成式人工智能创新提供一个相对安全独立的测试环境,以备后续的合规审查与推广应用。人工智能技术的高速发展已然成为既定事实,我们当下需要做的便是积极拥抱新技术带来的变化,并尽可能消除其在实践中可能产生的消极影响,以使其更好地服务于全社会。