近期,ChatGPT爆火掀起了新一轮生成式人工智能(AIGC)热潮,也引发了社会各界对于该领域规范发展与治理问题的广泛关注。4月11日,为促进生成式人工智能技术健康发展和规范应用,国家互联网信息办公室起草了《生成式人工智能服务管理办法(征求意见稿)》(下称《管理办法》)。《管理办法》明确提出,提供生成式人工智能产品或服务应当遵守法律法规的要求,尊重社会公德、公序良俗,并明确了生成式人工智能服务的提供者需要承担的各项义务和责任。
(资料图)
一旦《管理办法》正式通过并生效,则预示着可信AIGC发展迈向新的台阶。目前,ChatGPT等AIGC技术仍是一把双刃剑,其作为高度智慧化的人工智能(AI)形态,带给人类社会的便捷与风险同在,而这些潜在风险,可能引发民众对于AI技术应用的信任危机。ChatGPT等AI技术应用在给人们带来便捷的同时,也存在泄露个人隐私的风险,并且可能成为“学术造假”、制造虚假信息和谣言的工具,引发人们对AIGC乃至整个AI产业的信任危机,而对AI的信任危机将不利于AI的进一步创新和发展。为此,有必要基于可能引发AIGC信任危机的问题所在,探索可信AIGC发展的治理基点。
AIGC引发信任危机的原因
在AI技术发展早期,人们对其产生信任危机主要缘于技术不成熟,譬如自动驾驶技术存在发生事故的可能,使用者的人身安全难以得到有效保障,由此会产生一种不信任。随着ChatGPT等的出现,AI技术发展进入一个全新阶段,人们发现AI技术具有无限可能性,可以完成一些人们从未想象过的任务,但这仍然可能引发人们对于AI技术的不信任。这种不信任,一方面缘于AI技术确实尚未成熟,另一方面则缘于AI技术生成的内容难辨真假,且在无形中会采集我们提供的大量数据。以ChatGPT为代表的AIGC技术为例,就可能引发下述问题:
其一,科技伦理问题。科技伦理是开展科学研究、技术开发等科技活动需要遵循的价值理念和行为规范,是促进科技事业健康发展的重要保障。ChatGPT等AIGC技术的发展使得AI应用扩展到了新闻、画图、写作等领域,但这些领域尚未建立技术使用的行为规范,易导致在技术使用过程中出现违反伦理道德的行为。
以ChatGPT为例,它可以帮助用户完成新闻报道、写论文等多种任务,但也因此可能成为一些人用来制造谣言和伪造论文的工具。全球学术顶刊《自然》杂志(Nature)一周之内两次发布有关ChatGPT的分析文章,探讨诸如ChatGPT等大型语言模型(LLMs)给学术圈带来的潜在混乱、生成内容存在的潜在侵权,以及如何规范使用等问题。
在此背景下,若不明确对AI技术在各领域应用需要遵循的价值理念和行为规范,那么学术规范问题、虚假信息和谣言传播等科技伦理问题将会引发人们对于AI的不信任,这种不信任甚至可能会扩大到未使用AI技术的情形中,譬如对于一篇学术论文或者画作,人们都可能怀疑其是不是由AI创作出来的。如此一来,由此引发的信任危机将对相关领域整体发展产生不可预估的影响。
其二,侵权责任问题。由于AIGC领域相关法律、伦理道德规范尚未健全,AIGC技术的滥用引发了诸多侵权事件发生。据媒体报道,澳大利亚墨尔本西部赫本郡的市长布赖恩·胡德(BrianHood)指控OpenAI旗下ChatGPT对其进行诽谤,或将对该公司提起诉讼。
而且,由于ChatGPT等AIGC技术的使用门槛较低,在一定程度上也提升了发生侵权事故的风险。以传播谣言为例,在当前追求流量的互联网环境下,可能会促使一些用户为博眼球制造虚假信息,增加虚假信息传播的频率。
随之而来的是AI侵权责任的承担问题,即遭到AIGC技术参与的侵权行为,应当找谁承担责任?是用户还是提供AIGC产品服务的运营商?目前,传统法律法规中的主体资格、责任追究等制度适用于AIGC应用场景面临困境,若不能有效且合理地认定各方的侵权责任,同样会引发人们对于AIGC技术的不信任,因为责任追究机制不明确可能导致行为人与运营商之间相互推诿责任,从而导致被侵权人的损失难以及时弥补。
其三,数据安全问题。AI技术的运行需要大量数据支持,主要使用的是公共爬虫数据集和有着超过万亿单词的人类语言数据集。OpenAI官网发布的《隐私政策》显示,用户在使用ChatGPT时,会被采集有关用户访问、使用或互动的信息。相关负责人也表示,ChatGPT会使用每个客户的一小部分数据样本来提高模型性能,用户若不希望数据用于提高性能,需要通过邮件向OpenAI发送申请。这意味着,包含用户隐私以及用户对话的数据可能会被OpenAI采集并存储在其数据中心,随着ChatGPT用户数量暴增,其采集和存储的用户数据量也将非常庞大。
虽然近年来数据安全保护技术愈加成熟,且提供AIGC服务的运营商也会承诺保障数据安全,但数据泄露隐忧始终存在。3月25日,OpenAI表示有1.2%的ChatGPTPlus用户数据可能被泄露,一些用户可能看到其他人聊天记录的片段,以及其他用户信用卡的最后四位数字、到期日期、姓名、电子邮件地址和付款地址等信息。可见,数据安全问题仍然难以避免,若数据安全得不到有效保障,AI技术就难以获信,进而阻碍AI的发展和应用。
推进可信AI发展的治理基点
当前,腾讯、百度等国内科技巨头纷纷表示将研发类ChatGPT的AIGC技术产品,在此背景下,必须正视可能引发AIGC信任危机的主要问题。应当以三方面作为治理基点,加快推进可信AIGC发展。
第一,加快建立多领域的科技伦理监管和规范,加强科技伦理审查。当前,我国AIGC相关领域的科技伦理治理存在体制机制不健全、制度不完善、领域发展不均衡等问题,难以适应AIGC领域科技创新发展的现实需要。
为此,一方面,需要针对不同的AIGC应用领域制定相应的科技伦理规范和标准,明确科技伦理要求,引导相关企业合规开展科技活动。
同时,加强对AIGC产品的事前审查。《管理办法》规定,在利用生成式人工智能产品向公众提供服务前,应当向国家网信部门申报安全评估,并履行算法备案和变更、注销备案手续。通过事前审查的方式,不仅可以提升生成式人工智能产品向公众提供服务的合法性,增加其安全、可靠、可解释、可问责等可信性,还有助于更好地实现AIGC产品和技术适用的包容性,更好地预防风险,保障安全。事前审查还能够弥补外部监督的缺陷,提前鉴别某个行为是否违法,对其实施监控更加有利和有力。此外,进行事前审查,可及时发现运作程序、服务内容存在的问题,提高生成式人工智能产品向公众提供服务的可接受性。但同时,也可能由于事前审查效率及审查范围设置不当,抑制AIGC产品的研发与训练效能,客观上导致AIGC发展降速。
另一方面,要加快建立科技伦理审查和监管制度。4月4日,科技部发布关于公开征求对《科技伦理审查办法(试行)》意见的公告,其中提出科技伦理审查应坚持科学、独立、公正、透明原则,公开审查制度和审查程序,客观审慎评估科技活动伦理风险,依规开展审查,并自觉接受有关方面的监督。通过科技伦理审查等外部监管方式,能在一定程度上提升AI领域技术使用的规范性,建立人工智能领域道德层面的行为准则,对维护社会公平正义、保障公众切身利益具有重要意义,也有助于提升人们对人工智能技术应用的信任。
第二,要完善AIGC侵权责任认定规则。AI自动化运行造成了“主体—行为—责任”传统理论下的“责任鸿沟”,但AI算法技术的应用如算法的设计与部署是包含价值观和主观意图的,这是法律追责之根本指向,也是承担法律责任的主要依据,因此,可将AI算法设计部署的主观过错作为追责的基础依据。在此基础上,还需进一步提升《民法典》《刑法》《产品质量法》等传统法律在AIGC具体应用场景中判定主体责任和产品质量缺陷等问题的适用性。
在责任判定过程中,需要根据行为人以及提供AIGC服务的运营商对于侵权行为和损害后果发生的实质作用进行判定。《管理办法》第五条规定,利用生成式人工智能产品提供聊天和文本、图像、声音生成等服务的组织和个人(下称“提供者”),需要承担产品生成内容生产者的责任。这意味着在责任判定过程中,若损害发生,可以参照适用《民法典》中规定的产品生产者责任,即因产品存在缺陷造成他人损害的,生产者应当承担侵权责任,并且被侵权人可以向产品的提供者请求赔偿。这是对AIGC产品提供者通常是平台主体应该尽到高度注意义务的规定,在一定程度上讲,也只有赋予AIGC产品提供者相应的责任义务,才能更好对生成内容的合法合规做出要求。当然,如果平台尽到相应义务,在责任的承担上,鉴于其对创新发展的贡献,不宜施加严格责任,否则不利于技术开发和未来商用。
第三,要加强AI领域的数据保障。在制度层面,需要结合AIGC底层技术所需数据的特性和作用,建立健全数据分类分级保护制度,譬如可根据数据主体、数据处理程度、数据权利属性等方面对数据进行分类管理,根据数据对于数据权利主体的价值,以及数据一旦遭到篡改、破坏等对数据主体的危害程度进行分级。
在数据分类分级的基础上,建立与数据类型和安全级别相配套的数据保护标准与共享机制。AIGC还涉及数据跨境流通问题,应当在考虑国际通行标准和做法的基础上,制定合理的跨境数据安全执法规则,加强与其他国家和地区规则的衔接,促进数据安全跨境执法合作。
此外,还需进一步加强数据安全的事前保护,将保护链条前移。《管理办法》规定,提供者应当根据国家网信部门和有关主管部门的要求,提供可以影响用户信任、选择的必要信息,包括预训练和优化训练数据的来源、规模、类型、质量等描述,人工标注规则,人工标注数据的规模和类型,基础算法和技术体系等。通过事前保护的方式,能够更加积极有效地规范AI训练过程,以更好保障用户的知情权、选择权等权益,增强用户信任度。
AIGC产业具有巨大的发展前景,能够带来更多数字化创新的发展机遇,也已成为未来全球竞争与创新的重点方向,但AIGC产业发展面临的信任危机也值得重视。我国需进一步推进可信AIGC产业的发展建设,重视AIGC产业的科技伦理治理,建立健全相关行为规范和伦理指南,用系统观念和法治思维及办法来推动AIGC产业的规范健康持续发展,提升其安全、可靠、可解释、可问责等可信性。
(陈兵系南开大学法学院副院长、教授,南开大学竞争法研究中心主任,南开大学数字经济交叉科学中心研究员;林思宇系南开大学竞争法研究中心博士研究生)