AI创作面临的法律与伦理治理挑战
来源:阿白律师网 时间:2023-01-06
作者:阿里巴巴集团法律研究中心高级研究员 曾雄
AIGC的全称为“AI Generated Content”,即利用人工智能技术生产内容。当前,人工智能被运用于写作、绘画、编曲和视频制作等人类的创造性( Creative) 生产领域。AI创作的兴起源于深度学习技术的快速演进和数据规模的快速增长,特别是在2022年,深度学习模型Diffusion的出现,直接推动了AI创作的突破性发展。大模型和开源模式也成为AI创作快速发展的“加速器”。2022年11月3日,阿里达摩院联手中国计算机学会(CCF)开源发展委员会推出AI模型社区魔搭ModelScope,首批开源模型超过300个,包括 150多个SOTA模型和10多个大模型,其中超过1/3为中文模型,共覆盖视觉、语音、自然语言处理、多模态等超过60个主流任务。这代表中国的AI开发者也有了专属的模型即服务(Model as a Service)社区,有助于推动AI的大规模使用,促进AI创作产业的繁荣。
如今AI创作已经渗入了我们日常生活的方方面面,从导航软件中的“数字人”指路,到直播电商中的“虚拟主播”。AI创作在新闻传媒、电商和娱乐等领域的大规模商业化运用,极大地提高了行业生产效率。在新闻传媒行业,写稿机器人、采访助手、字幕生成、语音播报等智能应用涌现,改变了传统的媒体生产内容的方式。在电商领域,“虚拟主播”可以快速、准确的响应消费者需求,构建沉浸式购物场景,显著提升消费者的购物体验。比如阿里上线的天猫超市虚拟主播“小铛家”,不仅能像真人主播一样介绍商品,还能与观众实时互动。在客服领域,对话式AI产品可以部分代替人工对话,完成重复性的、规则性的对话任务,快速响应消费者的需求。
一枚硬币,总有两面。AI创作在提高生产效率的同时,也面临法律与伦理治理的挑战。
首先,AI创作可能影响人类伦理取向与价值判断。如今机器学习生成的内容在形式和逻辑上都很完美,甚至能“以假乱真”。以最近很火的ChatGPT为例,它可以生成形式完美的文本内容,对各种提问提供看似逻辑严密的答复。但这些文本或答复可能存在重大的事实错误,或与人类的基本伦理认知相违背的有害内容。
如果这些有害内容无法受到有效识别和控制,可能影响人类的伦理取向与价值判断。特别是,AI创作技术可能被滥用、误用,比如被用于抄袭、恶搞等,甚至被用于危害个人生命财产安全、国家安全和社会公共利益。AI生成模型应用的门槛较低,有害内容的生产者同时具有分散性、流动性和隐蔽性的特征,将导致虚假的、违反社会公序良俗与伦理价值标准的信息泛滥,影响整个网络生态。以AI写新闻稿为例,AI生成的假新闻可能扰乱社会秩序、引发公众恐慌,乃至影响社会稳定和国家安全。因此,有必要对AI创作进行法律和伦理治理,特别是对AI技术使用者的行为形成有效约束,防范安全风险与伦理风险。
其次,AI创作带来版权问题。具体表现为两个方面:一是用于训练算法模型的数据可能侵犯他人版权;二是AI生成内容能否受版权保护存在争议。以AI作画为例,供深度学习模型训练的数据集中可能包含受版权保护的作品,若未经授权对相关作品利用可能构成版权侵权。对于AI生成的“作品”能否受到版权保护,大家的争议较大。以国际视角来看,目前在美国,人工智能创作物无法获得版权保护;欧盟认定符合版权保护的标准仍是“自然人的独创性”;在日本,虽然重视对具有市场价值的人工智能创作物给与法律保护,但是采取近似于商标登记的方式进行保护。大家所共识的作品是指在文学、艺术和科学领域内具有独创性且能够以某种有形形式复制的智力成果,而AI创作的内容具有较强的随机性,且由算法主导,属于没有“思想”的“表达”,尚难以满足版权法中的独创性要求。但是,随着AI创作产业的发展,大量资金、技术和人力投入到AI生成技术的研发中,AI生成物的经济价值也日益凸显,也有必要对其赋权保护。特别是从鼓励技术创新的角度出发,应该给与AI技术开发者更多的权利。目前将AI生成物作为邻接权客体是一条可行的路径,邻接权的权利主体是AI技术开发者。AI技术开发者可以将权利转让给利用AI进行加工制作的使用者,这样AI技术开发者和使用者可以实现双赢,这不仅有助于AI技术的推广使用,而且能持续的激励技术创新。最后,AI创作可能带来结构性失业的挑战。2022年8月,美国科罗拉多州举办的新兴数字艺术家竞赛中,一位没有绘画基础的参赛者提交了一份由AI生成的画作《太空歌剧院》,并获大奖,这引起业内关于“AI是否取代艺术家”的一场争论。相比于人类的创作过程,AI创作具备快速、量大、多元等特点,在艺术创作、绘画、影视编辑等领域正在产生变革效应。按这种发展态势,未来可能到处充斥着由AI创作的画,而真正人类的作品却被淹没。这不得不让人重新审视“作者之死”的问题,不少人担忧AI创作会不会冲击传统艺术创作者的工作与生存。
就目前的AI技术发展水平看,AI创作主要基于模仿,AI还缺乏人类的情感和思想,AI的创作过程脱离了人与人之间的交流和沟通,尚无法替代人类高水平的艺术创作。AI导致画家“失业”的担忧可能来源于对高质量创作贫瘠的一种焦虑,实际上AI是一种赋能工具,人类艺术家可以发挥AI技术在收集素材、整合信息等方面的效率,并将更多时间用在创意上。因此,AI与人类的创作活动并非不可调和,两者其实可以共存,可以相互促进,人机结合或许才是未来之路。总之,我们需要清楚认识AI创作的局限,对AI创作的“作品”有客观认知,同时充分预判AI创作对人类文艺活动可能的冲击和影响,并提前规划应对策略。
对于上述治理挑战,我国相关部门积极探索对AI创作的监管与治理之道,包括发布《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》等法律法规。这些法律法规明确要求,在智能写作、合成人声等场景中,可能导致公众混淆或者误认的,应当在生成或者编辑的信息内容的合理位置、区域进行显著标识,向公众提示深度合成情况。对于具有舆论属性或者社会动员能力的深度合成服务提供者应当履行备案程序。我国对AI的监管已经走在世界的前列,提出的一些监管举措具有独创性。但我国在AI领域知识产权的法律保护存在不足,特别是AI生成物和AI技术开发者的权利缺乏明确的法律保护。AI治理既包括监管AI,也包括促进AI的发展和创新。因而需要多出台一些激励性、容错性规定,进一步激发技术开发者的创新动力。
AI创作属于前沿技术领域,尚且刚刚兴起,监管部门与行业同处于“共同无知”的状态,彼此均缺乏成熟的治理经验,都在“摸着石头过河”。
为平衡安全与发展的关系,倡导“伦理治理先行”和重视行业合规自律成为各国治理AI技术的共识。在我国,中共中央办公厅、国务院办公厅印发的《关于加强科技伦理治理的意见》明确要求,从事人工智能科技活动的单位,研究内容涉及科技伦理敏感领域的,应设立科技伦理(审查)委员会。国内科技企业纷纷响应,例如2022年9月阿里巴巴成立科技伦理治理委员会,提出六项科技伦理治理准则,包括以人为本、普惠正直、安全可靠、隐私保护、可信可控、开放共治,积极探索AI等前沿技术领域的伦理治理。
治理AI是一项技术密集型的治理活动,只有规则是不够的,应善用技术实现治理目标。对于应用AI可能导致的数据泄露和隐私侵犯,一些企业已在尝试以数据匿名化技术、区块链技术等予以应对。以“联邦学习”匿名化技术为例,各个参与方不需要共享数据就可以联合训练算法模型,该技术方案已经在医疗、金融等领域得以落地应用。近期阿里巴巴达摩院发布了新型联邦学习框架 FederatedScope,该框架支持大规模、高效率的联邦学习异步训练,能兼容不同设备运行环境,且提供丰富功能模块,大幅降低了隐私保护计算技术开发与部署难度。再如,为准确衡量AI模型的效果和鲁棒性,清华大学、阿里安全和RealAI发布了AI安全对抗攻防基准平台AI Benchmark2.0,可以提前给AI找好“陪练”和“标尺”,打造更健壮可靠的AI。
纵观人类进步的历史,每一次技术创新都会产生新的法律和伦理问题。这些新问题并不可怕,可怕的是我们或回避问题,让技术野蛮生长,抑或因噎废食,停下推进技术前进的脚步。我们真正需要做的是努力实现工具理性与价值理性的平衡,无论是AI创作还是更进一步的“人机结合”,在追求技术创新发展的过程中,应当始终秉持应有的社会责任和技术伦理,致力于将技术更好地服务于人类,服务于人民群众对美好生活的向往与追求。