习近平总书记深刻指出:党的领导是中国特色社会主义法治之魂,是我们的法治同西方资本主义国家的法治最大的区别。
但数字与数据之间的价值鸿沟仍然存在。这里包括两个方面的法理要求,即某一项具体的数字权利的享有者是谁,谁对享有数字权利的权利主体承担保障数字权利得以实现的法律义务或职责。
按照人权代际划分的原理,即使 数字人权能够成为一项人权,也只能归入已有的人权类型结构中。中国在这次新冠疫情防控中之所以能够取得主动权,很大程度上依赖于数字技术对防疫工作的支持。这不仅要求政府通过数字技术来提升保障公民实现基本权利的能力,特别是强化以政府服务为基础的社会、经济、文化权利方面的政府保障责任。来源:《华东政法大学学报》2023年第4期。不能用权利理论不加区分地把数字技术带来的相关利益需求,简单地通过权利泛化的途径来加以保护。
总的来说,数字人权能否具备人权的权利属性,关键是数字人权的主体是否为自然人,数字人权中的人权利益是否是作为人权主体,即每一个自然人个体生存和发展中不可或缺的人格利益。数字人权不仅欠缺宪法规范基础,而且不符合人的尊严标准和最低限度基础性标准。由此可见,基础模型已经从产业生态角度改变了数字社会生产,更成为了信息内容和数据要素的提供者。
[8] 参见张凌寒:《数字生产论下的数据安全保障义务》,载《法学论坛》2021年第2期,第51页。百度发布文心一言,等等。从技术指标上看,大模型参数规模逐步提升至千亿、万亿,数据特征高维、模态格式多样的趋势也逐渐明显,计算复杂度会随之呈指数增加,这意味着人工智能的可解释性更差。第三,被认定为具有公共性的平台应以开放中立为一般原则,以拒绝向特定用户开放为例外。
[14]通过海量数据的投喂后,大模型会在某个临界值出现涌现现象,意指在训练量较小的时候,其结果与随机结果差不多,但当训练量超过某个阈值的时候,模型处理复杂问题的能力和精确度突然大幅提升。训练既是生成式人工智能投入产业应用前的技术工程,又直接影响到后续专业模型的表现和服务应用的内容。
这使得围绕信息不对称建立起来的透明度监管工具箱面临着困难,信息内容传播中的责任认定和责任分配也面临着挑战。第二,设置合理知识产权制度保障基础模型层训练数据的获取。但后期随着产业的发展,法律责任水平逐渐提高。例如,ChatGPT可以被接入智能客服场景,当用户与智能客服发生对话时,其提供的内容既直接与基础模型的预训练数据与参数有关,也与专业模型的优化垂直领域训练数据直接相关。
《网络信息内容生态治理规定》规定了内容生产者的范围,即制作、复制、发布网络信息内容的组织或者个人。如何界定生成式人工智能的法律定位并在此基础上形成与生成式人工智能的技术特点与产业形态相适应的治理框架是法律回应技术发展的应有之义。[6]服务提供者的责任内容逐渐丰富的过程,也是平台逐步在数字社会生产中组织更多社会资源、加强数字基础设施建设与增强对生产要素控制力的过程。在专业模型层和服务应用层的监管面临的直接问题,是如何认定专业模型提供者和服务应用提供者的责任。
二是其传播模式和技术指标使得原有规制工具难以适用。产业模式和技术参数指标决定了透明度的监管工具箱的适用困难。
但在基础模型的训练过程中,生成式人工智能服务提供者作为数据处理者,仍应依据《数据安全法》履行数据安全保障义务。在信息内容领域更是明确了技术支持者—服务提供者—内容生产者的监管框架,规制对象一般为服务提供者和内容生产者,技术支持者仅由于对信息内容的影响刚刚被纳入监管范围。
生成式人工智能表现虽然惊艳,但带来的风险与法律挑战同样令人担忧。同日,国家网信办发布《生成式人工智能服务管理办法(征求意见稿)》(下文简称《办法(征求意见稿)》),拟规范生成式人工智能的发展。这是因为内容生产者概念来自信息内容安全监管,其制度目的在于向社会公众通过服务提供者发布信息,需遵守底线负有相关义务以保证信息内容安全。(一)基础模型融合数据算法算力三要素成为独立规制对象基础模型融合海量数据、算法、算力,是人工智能时代的重工业,高昂的成本必然使基础模型从百花齐放到数枝独秀,而改变现有各平台分散研发的模式,这打破了现有的网络治理法律制度对数字社会生产方式的底层设定。【关键字】生成式人工智能。基础模型的生成内容与训练数据存在相关关系,分析认为ChatGPT出现输出价值观偏差的核心原因,是数据集在多样性、代表性、公正性等方面存在缺陷,导致偏见、刻板印象、文化片面性等问题。
生成式人工智能的大模型进一步将三者功能实质上融为一体,既可以模型即服务的形式为企业提供技术服务,又可以通过智慧问答的方式直接提供对用户的内容生成,法律主体的界限在技术实际运行中已经模糊。分层治理也鼓励企业分别发展基础模型层和服务应用层,区分对企业和对用户模式。
基础模型最重要的是进行训练,无论是预训练还是优化训练,都是对数据、算法、算力等要素资源的精巧组合,最后形成具有超大规模参数量的基础模型。二、生成式人工智能改变网络治理底层架构带来法律定位困难与监管挑战我国网络法律制度框架基本搭建完成,一直以来的网络治理不约而同以网络服务提供者作为关键主体,因此平台责任一直是技术治理的核心议题。
未来将为千行百业赋能,成为人工智能时代的数字基础设施。生成式人工智能在服务应用层仍沿用之前信息内容安全的监管制度,即可实现信息内容安全的治理目的。
[14] 参见姚前:《ChatGPT 类大模型训练数据的托管与治理》,载《中国金融》2023年第6期,第51页。生成式人工智能改变了网络信息传播方式,这使得信息内容安全方面的责任认定和责任分配规则面临挑战。[16] 参见陈昌凤、张梦:《由数据决定? AIGC 的价值观和伦理问题》,载《新闻与写作》2023年第4期,第17页。模型规制 一、问题的提出从美国人工智能公司OpenAI推出的爆款应用ChatGPT到其迭代产品GPT-4上线问世,仅仅间隔4个月时间。
张晨颖:《公共性视角下的互联网平台反垄断规制》,载《法学研究》2021年第4期,第156-158页。这类专业模型可被用于金融、就业、生物医药、教育等领域,根据垂直细分场景需求专门训练或定制。
但是,生成式人工智能的基础模型层和专业模型层要么只在企业内部训练运行,要么向垂直细分领域的企业(B端)提供接口以赋能,并不直接与用户(C端)发生交互。服务提供者始终是算法和人工智能监管的重点,对技术开发层的技术支持者则多为伦理要求,少有直接规制。
[16]此外,在《办法(征求意见稿)》出台以前,就有对数据质量的法律规定,这些要求或来源于政策文件的倡导性条款,或来自防止弄虚作假等合法性的要求。服务应用层则关注信息内容安全、市场竞争秩序与用户权益保护,沿用原有监管工具,并适时引入新兴监管工具、细化合规免责制度,给新兴技术发展留下试错空间。
但生成式人工智能的预训练大模型海量的训练数据和数以千亿的参数设置显然进一步加剧了监管工具的适用难度。第二,训练数据的质和量是生成式人工智能高质量发展的基础,《办法(征求意见稿)》专门对数据质量提出要求。其对社会的深远影响可体现在以下三个层面:第一,在知识生产层面,科研方法不再受困于自由度过高引起的维度灾难,深度学习可以承载海量计算,科研范式将从效率比较低的作坊模式转向平台模式。我国的人工智能治理体系中,对技术支持者的要求一般为遵循人工智能伦理的软性要求,硬性要求仅在《深度合成管理规定》有所规定,即参照服务提供者承担一定的合规义务。
1.专业模型层的审慎包容与分级分类专业模型层的治理以审慎包容为理念,关注重点领域与场景的分级分类,设置合理的法律责任水平。[11] 参见杨清清:《文心一言终亮相》,载《21世纪经济报道》2023年3月17日,第12版。
先是近年来技术中立原则被立法和判例屡次否认,服务提供者和内容生产者的角色界限已经不再明晰。生成式人工智能的技术特点和产业形态打破了现有的网络治理法律制度对数字社会生产方式在结构与信息传播方式方面的底层设定,本质上重构了网络法的底层架构,这必然要求对其法律地位和治理框架进行重新认识和调整。
意大利宣布从3月31日起禁止使用ChatGPT,同时对其隐私安全问题立案调查。生成式人工智能的基础模型层既符合传统基础设施的基础性特点,也符合新型数字基础设施可提供综合数字计算与处理能力的特征。