国务院印发的《关于深入实施“人工智能+”行动的意见》强调,“完善人工智能法律法规、伦理准则等,推进人工智能健康发展相关立法工作”。生成式人工智能在带来技术性变革的同时,也为社会治理与法律规范带来了一系列风险与挑战,不仅包括对人工智能治理理念的挑战,也涵盖了对具体法律规则的挑战。只有在正视和剖析这些挑战的基础之上,才有可能“对症下药”,维护法的稳定性,实现国家治理和社会治理价值。
人工智能伦理
生成式人工智能的出现,进一步挑战了当前人工智能道德与伦理原则,带来了不容忽视的一系列伦理风险和异化风险。诸如以ChatGPT为例的生成式人工智能的广泛应用,导致人们越来越多地依赖算法作为调节社会关系的工具,算法对人类互动、行为和决策的影响程度日益加深。这意味着生成式人工智能模型可能会逐步影响社会经济结构,而这些模型的开发和部署由不同地区的企业进行,会产生或进一步加剧偏见、歧视等道德问题。此前,已经有研究表明,算法在招聘领域会加剧社会歧视与偏见。应对人工智能在社会中的大规模部署与应用相关风险的道德伦理机制,通常包括原则性清单、道德规范、建议和指南四种类别。例如日本早在1988年制定的《机器人法律十原则》,韩国于2012年颁布的《机器人伦理宪章》,欧盟于2016年发布的《就机器人民事法律规则向欧盟委员会提出立法建议的报告草案》,英国标准协会在2016年颁布的《机器人和机器系统的伦理设计与应用指南》等。这些人工智能规范通常集中在透明度、公平、非恶意、问责制和隐私这几项原则上,而此类原则当前所面临的问题在于,因缺乏强制性,加上容易被误读或者被赋予过高的期待,导致其通常以无效的方式呈现,使得这些道德伦理原则看上去似乎“毫无价值”,极大限制了其本应发挥的社会治理效用。
伴随着算法模型日益渗透进人们的日常生活,ChatGPT等生成式人工智能加深了算法的不透明度和不可理解性,使得本就悬而未决的人工智能公平与反歧视问题复杂化,进一步加剧了其所生成言论的政治倾向性。如何将人工智能伦理的一般原则转化为具体的、可操作的实践成为当前的关注重点。随之而来的,是两种既不相同但又相互关联的应对模式。
第一种是“软法治理”,即基于非立法和政策性工具的自我监管模式。软法治理的表现形式包括企业自身、利益相关者组织、标准制定机构等发布的人工智能伦理指南,这些自我监管文件在人工智能治理的基线设定方面发挥着重要作用。这些由私营主体参与制定的伦理指南,通常侧重于具体技术解决方案的制定,包括明确的代码或技术标准。
第二种是具有强制约束力的法律法规,通常由立法机构颁布,来规范权利义务关系和行为禁令,以设定符合人工智能系统特性的规范。此类法律规范既包括专门性的人工智能规范,也包括与算法规制相关的侵权法、合同法、劳动法、知识产权法等传统部门法规范。
总体而言,当前有关人工智能伦理的法律规范会持续向三个方向发展完善:现有法律法规的法条修订与解释,出台新的通用性人工智能法规,以及颁布诸如生成式人工智能领域的专门性法规。这三个方向的持续发展并行不悖,面对当前生成式人工智能带来的伦理冲击,可先行出台专门性、针对性的法规或规章,急法先用。现有的法律法规体系能够在予以规制的情况下,对现有法律条文进行法的重新释义,并将相关人工智能伦理原则贯彻于解释适用的过程中。对于通用性人工智能法规的出台,在充分吸纳先进立法经验的基础上,在人工智能伦理原则的指导下,渐进式推出。
知识产权保护
一般而言,受著作权保护的材料是由人类创造的,以有形或数字化形式表达的“原创作品”,例如一本书、一幅艺术画作或一个计算机软件。生成式人工智能所产生的文本、图像或其他形式的内容,难以与人类创作的内容相区分,由此引发了一系列与之相关的法律诉讼与争议。所涉争议点具体体现在三个方面:一是未经授权的使用行为,二是生成内容的著作权归属问题,三是第三方知识产权保护问题。
生成式人工智能模型必须先输入数据,才能够输出内容。如果在数据输入时,未得到数据提供者的授权,就可能引发知识产权侵权问题。例如,2023年1月,Getty图片社以未经同意训练了其数百万张图片为由,起诉了人工智能公司Stability AI。ChatGPT甚至可以“学习”用户风格,越来越多的作家和艺术家担心ChatGPT对他们的作品进行大量训练,从而复制其独特的风格。生成式人工智能引发的第二个问题,是生成内容在著作权法中的定性问题,以及这些内容是否享有与人类创造者相同的知识产权保护。有观点认为,就该问题而言,首先需要考虑的是,在相同内容是由人类创作的情况下,是否构成作品,如果根据著作权法原理判断属于作品,再进一步考虑作者身份和著作权归属的问题。也有观点认为,如果完全不给予人工智能生成内容以知识产权保护,对于投入开发成本的企业而言是不公平的。此种观点从商业的角度出发,将人工智能生成内容与人工智能企业视为一体。但是,从法律的角度而言,即便人工智能生成的内容因满足著作权法构成要件,可能受到著作权法的保护,该权利也不属于人工智能本身,而是归属于研发机构或企业。即便人工智能生成的内容不受著作权法保护,也不意味着该内容可以自由使用,因为还涉及第三方的知识产权保护问题。ChatGPT生成的回复可能包含了受著作权法保护的内容,例如从其他来源复制的文本或商标图案。第三方知识产权可能包括著作权、商标或专利,这些权利由使用ChatGPT生成内容的个人或实体之外的权利人持有。在此种情况下,为避免对第三方知识产权的权益侵犯,以特定方式使用这些内容,必须获得权利主体的许可或授权。
总的来说,以ChatGPT为典型的生成式人工智能的出现,引发了重要的知识产权问题,需要加以解决,以确保此类技术的使用尊重人类创造者的权利。因此,对于创作过程中如何使用生成式人工智能,需要进行何种程度的解释与说明,需要立法者、技术专家、企业及政府主管部门合作,共同制定适当的法律框架。
隐私与个人数据保护
ChatGPT是由大型的语言模型支撑的,需要海量数据进行学习和改进。模型训练的数据越多,该模型在生成文本内容方面的表现越好。根据OpenAI发布的技术文件,包括网站、书籍、文章和帖子在内的数百万页面,都被用来训练和创建该生成式人工智能系统。此外,用户在给ChatGPT输入信息或下达指令时,可能会无意间将敏感个人信息输入其数据库。例如,律师可能会要求ChatGPT审查一份离婚协议草案,这份协议就会成为ChatGPT数据库的一部分。这意味着这些包含个人敏感信息的数据,将会被进一步用来训练,并可能会出现在对他人的回答之中。正是基于对隐私问题的考量,2023年3月31日,意大利数据监管机构Garante发布临时紧急决定,要求OpenAI停止使用其训练数据中所包含的意大利用户的个人信息。作为回应,OpenAI已经停止了意大利用户对ChatGPT的访问。这是西方数据监管机构首次对ChatGPT采取行动,并对围绕生成式人工智能所产生的隐私与个人数据保护问题进行了突出强调。
在欧盟GDPR的规范语境下,意大利Garante封禁ChatGPT的理由主要有四个方面。第一,ChatGPT服务缺乏对用户真实年龄进行核实的程序,尽管根据OpenAI公布的隐私条款,该服务仅限于13岁以上群体。但是没有相应的核实程序,会导致未成年人接触到与其年龄不相适切的内容。第二,ChatGPT对数据主体信息的处理存在不准确甚至错误的情形。第三,用户并没有被告知其数据被收集。第四,也是最重要的一点,OpenAI并未就收集个人数据,以及为训练服务于ChatGPT运作的算法而对数据进行处理的行为,进行任何法律依据声明。根据GDPR,个人数据的收集和处理,必须在其第6条规定的一般合法性基础范围内展开,包含主体同意、履行合同、履行法定义务、保护个人权益、维护公共利益和追求正当利益。OpenAI用来创建和训练ChatGPT所收集和处理的个人数据,并不具备GDPR所规定的个人数据处理合法性基础。尽管OpenAI辩称收集处理个人数据是服务于公共利益,但是其作为一家以营利为目的的企业,此种辩称理由显然是不充分的。根据OpenAI发布的隐私政策,其收集的个人信息范围涵盖了用户的账户信息、用户输入的内容信息、通信信息、社交媒体信息,以及用户在使用ChatGPT过程中产生的日志数据、使用数据、设备数据、Cookies等,并且OpenAI可能会在不通知用户的情况下,将用户个人信息提供给第三方供应商及服务提供者等。此种情形下,对于用户而言,与ChatGPT交互过程中所带来的隐私和个人数据保护风险是不容忽视的;对于生成式人工智能研发企业而言,如何合法合规地收集与处理数据是其当前需要解决的关键问题。(程乐 浙江大学光华法学院教授、网络空间安全学院教授、博士生导师)
扫一扫在手机上查看当前页面