摘要
随着生成式人工智能深度合成技术的发展,人工智能生成声音(以下简称“AI声音”)的商业版图迅速崛起。然而,技术的普及与滥用风险相伴相生,未经授权使用自然人声音作为AI训练数据并生成声音的侵权现象日益频发。此类行为不仅侵害了声音权益人的人格权与财产利益,更可能逾越民事侵权的边界,引发具有社会危害性的刑事犯罪。在此背景下,构建清晰、高效的司法裁判路径以及标准以有效规制AI声音侵权行为、平衡技术创新与权益保护已成为亟待解决的理论与现实问题。鉴于此,本文将以我国现行民事法律规范与指导性案例为基石,分析声音权益的保护现状,剖析其中存在的法律与实践困境,并针对不同主体提出体系化的风险防范与制度完善提出个人建议,供参考。
关键词:AI声音、声音权益
一、声音权益保护现状
(一)现行法律保护框架
《民法典》明确了对自然人声音权益的基本保护模式,构建了声音权益保护的基石。《民法典》第一千零二十三条第二款规定:“对自然人声音的保护,参照适用肖像权保护的有关规定。”第一千零一十八条对肖像权的规定:“自然人享有肖像权,有权依法制作、使用、公开或者许可他人使用自己的肖像。肖像是通过影像、雕塑、绘画等方式在一定载体上所反映的特定自然人可以被识别。”如同肖像权,声音权益也是自然人与生俱来的权利,是一项具有人格属性和财产属性的独立民事权益。未经权利人同意,任何人均不得制作、使用、公开权利人的声音,法律另有规定的除外。而本文所要探讨的自然人的声音未经授权被作为AI语料训练后投入使用的侵权责任问题,在《民法典》第一千零一十九条已有规定:“任何组织或者个人不得以丑化、污损,或者利用信息技术手段伪造等方式侵害他人的肖像权。未经肖像权人同意,不得制作、使用、公开肖像权人的肖像,但是法律另有规定的除外。未经肖像权人同意,肖像作品权利人不得以发表、复制、发行、出租、展览等方式使用或者公开肖像权人的肖像。”这为规范AI技术滥用、未经权利人许可制作或使用他人声音提供维权的请求权基础。
声音权益侵权案件往往集中在侵犯名誉权、隐私权、个人信息保护或者表演者权等侵权案件中,权利人一般需要从侵权客观行为、侵权结果、行为与结果的因果联系以及主观过错四大要件基础上举证,以证明侵权的成立,法律另有规定的除外。但问题是,现行法律体系在面对AI声音这一新型侵权形态时,显现出一定的滞后性,被诉侵权的AI声音具有“可识别性”的认定以及举证责任的合理分配问题在技术层面与司法实践中均构成了权利保护的主要障碍之一。
(二)指导案例的认定标准
目前具有指导意义的判例主要是(2023)京0491民初12142号生效民事判决。该案件基本情况是:被告二某文化公司将原告为其录制的录音制品的音频提供给被告三某软件公司,被告三仅以原告录制的录音制品作为素材利用AI生成案涉文本转语音产品。原告未授权被告二对外许可对其声音进行AI化处理,被告三利用AI生成语音产品未获得原告的合法授权的情况下许可他人使用生成的AI声音,侵害原告的声音权益。较为特殊的是,庭审中,被告三自认其仅使用原告声音作为素材生成案涉AI声音的侵权行为。该判例的指导性意义在于该案例的课题小组在判决后总结的声音权益核心裁判规则[1]:
1.人格与财产双重属性:自然人声音具有独特性、唯一性、稳定性,既能标识身份(人格权),也蕴含财产价值(财产权),未经许可使用即构成侵权;
2.权益延至AI声音:在满足“可识别性”前提下,自然人的声音权益保护范围延至以其为语料生成的AI声音;
3.可识别性综合判断:课题小组提出“主观、客观、使用方式”的三重查验标准;
4.损害后果按照侵权情节、同类市场产品价值等因素综合考量。
具体而言,该判决明确民法典的规定自然人声音的人格权与声音的财产性权益的司法适用。在符合可识别性判断标准的前提下,声音权益可延至AI声音。而可识别性的判断标准,法院提供了三个方向的证明途径,即主观、客观以及使用方式,以达到自然人的声音与AI声音均具有可识别且具有对应联系的证明目的,再根据《民法典》对声音权益侵权保护的规定,对未经授权使用自然人声音作为语料训练AI声音的行为进行认定并对侵权责任作出合法合理的裁判。该判断标准为单一音源AI声音侵权提供了清晰的裁判路径。由于AI声音的商业价值往往源于权利人的知名度,因此配音演员、名人、播音员等专业声音工作者必将成为侵权行为的重灾区。该判决通过综合性的认定标准,有效地在法律与技术之间架起了桥梁,为同类案件的审理提供了可资借鉴的范式。
二、声音权益保护的制度与实践困境
尽管现行法律与指导案例已为声音权益提供初步保护框架,但在应对AI声音所带来的新型挑战时,其在可识别性认定与举证责任分配两大关键环节上,仍存在显著的制度疏漏与挑战。
(一)可识别性认定标准的模糊性与适用难题
指导性案例中由于被告三自认其仅使用原告录制的录音制品作为语料进行AI化处理的产品,可识别性问题无需展开。从法条解释和指导案例的解释中看,该可识别性标准区别于《商标法》的“来源区分”功能,更贴近美国公开权中的“同一性”认定,即公众能否将标识与特定自然人关联,包括直接使用或间接引发联想的情形,在《民法典》第一千零一十八条至一千零二十三条的规定中也有体现,但不同于我国人格权未区分名人与一般公众及相关领域群体的规定,美国公开权中的“同一性”认定将名人的权益扩大保护至未实际使用人格要素但引发联想的行为。在实践中,名人的声音因其广泛辨识度,在诉讼中更容易满足“主观标准”。相反,普通公众或特定领域(如有声读物、影视配音市场)的声音,若不被承办法官所熟知,其权益举证将面临更大困难。而在司法实践中,在面对“一般社会公众或一定范围内的公众”的主观判断时,往往由法官充当一个“拟制”的“一般社会公众或一定范围内的公众”角色并进行综合判断,而这属于法官自由裁量的空间,若因对上述范围缺乏明确指引,可能导致司法裁量权过大,将影响法律适用的统一性与可预期性,背离法律平等保护的初衷。但不排除今后我国对声音权益保护的主观标准的受众范围通过司法解释予以明确,或参照其他法律已完善该保护体系,例如商标法、著作权法、反不正当竞争法、商品化权等相关规定。
(二)举证责任的权益衡平困境
指导案例课题小组在主观标准无法识别后,提出客观标准予以参考的建议。该客观标准目前主要指声纹鉴定,而声纹鉴定的服务在相关平台上均有提供,但参考已有(2024)川7101民初8969号民事判决,被侵权人在提供声纹比对的平台上购买相关声纹比对服务所出具的结果未被法院采信,[2]说明鉴定标准与司法认定存在差异。若当诉讼当事人未申请,法院也未主动依职权委托司法鉴定,亦或现有技术又无法出具有效司法鉴定意见的情况下,例如鉴定的检材不符合鉴定条件、鉴定的结果与待证目的无法对应、超出鉴定机构的技术条件等情形,被侵权人是否还有其他方法或法院是否还有其他司法手段查清事实,判断侵权是否存在以及若存在侵权情形下的责任承担问题值得深思。
为此,本文借鉴全球AI监管中日益强调的透明与可追溯原则[3],思考举证责任分配至被诉侵权方的可行性。目前,各国及国际组织通过制定法律文件在不同程度上要求AI开发者、提供者对训练数据的来源授权负责。例如:韩国作为继欧盟后第二个颁布AI法律的国家,通过的《关于促进人工智能发展和信任基础的基本法案》(2026年1月22日生效)开发或部署人工智能系统的组织在处理个人数据时不仅要符合《AI基本法案》制定的关于系统整体安全性、可靠性和透明度的规定,还要符合个人信息保护委员会发布的《个人信息保护法》关于个人信息收集、使用、假名化处理和数据主体权利保护的严格规则;[4]美国加利福尼亚州通过的《加州人工智能透明度法案》(整体延至2026年8月2日生效,部分条款分阶段于2027年1月1日和2028年1月1日生效)对创建、编码或以其他方式开发生成式人工智能系统且该系统在本州地理范围内可公开访问,并且每月访客或用户超过 100万人的主体,必须向用户免费提供一款人工智能检测工具,该工具应允许用户评估图像、视频或音频内容、或其组合内容是否由该主体的生成式人工智能系统创建或更改,并输出在内容中检测到的任何系统来源数据[5],此外该法案对平台另有相关约束规定;日本在2025年2月通过《人工智能相关技术研究开发及应用推进法》,但对于个人信息收集、处理主要还是依据《人工智能业务指南》对人工智能提供统一指导原则,该《指南》要求通过“设计时即考虑隐私”要求妥善收集训练数据,若其中包含第三方个人数据、需注意知识产权的数据等,要求在整个人工智能生命周期中依法依规妥善处理,[6]对开发、提供或使用人工智能系统或服务过程中的数据来源在合理且技术可行的范围内能够向前或向后追溯,且相关信息进行记录并保存。其他例如英国《人工智能(监管)法案》虽然仍在草案阶段,但要求企业透明使用人工智能、开发者需记录训练数据的授权;我国规范性文件《生成式人工智能服务安全基本要求》对生成式人工智能服务提供者的训练语料时若涉及个人信息方面,要求应先取得对应个人同意或者符合法律、行政法规规定的其他情形,若包含敏感个人信息的语料还应对应个人单独同意,使用开源语料时,应具有该语料来源的开源许可协议或相关授权文件,使用自采语料时,应具有采集记录,不应采集他人已明确不可采集的语料。以交互界面提供服务的,应在网站首页、服务协议等便于查看的位置向使用者公开包括所采集的个人信息及其在服务中的用途等信息,而我国正在征求意见的《网络安全技术生成式人工智能服务安全基本要求》征求意见稿也提出:使用开源训练数据时,应遵循该数据来源的开源许可协议或取得相关授权文件;使用自采训练数据时,应具有采集记录,不应采集他人已明确不可采集的数据,不可采集的数据包括已通过爬虫协议或其他限制采集的技术手段明确表明不可采集的网页数据或个人已拒绝授权采集的个人信息等;使用商业训练数据时,应有具备法律效力的交易合同、合作协议等。交易方或合作方不能提供数据来源、质量、安全等方面的承诺以及相关证明材料时,不应使用该等训练数据。使用方应对交易方或合作方所提供的训练数据、承诺以及相关证明材料进行审核。
从各国包括我国关于数据来源收集使用的规定及全球监管趋势,生成式人工智能服务中使用含有个人信息语料前必须获得同意或授权,且应提供该来源的获取途径。在具体民事案件中,若被侵权人提供初步证据证明客观行为、侵权结果、及因果关系后,法院依被侵权人申请调查或依据《最高人民法院关于民事诉讼证据的若干规定》及现有法律法规,例如《个人信息保护法》[7]《民法典》[8]《生成式人工智能服务管理暂行办法》[9]等,将举证责任分配至被诉侵权人,由被诉侵权人举证证明其使用的声音语料来源,无论从法律规定,还是从法律效果的归入与诉讼利益的衡平角度,个人认为具有一定可行性,利于查清事实、明确责任主体、保障权利人合法权益。当被诉侵权人无法提供或拒绝提供情况下,也可再考虑是否参考客观标准进入相关司法鉴定程序。
三、风险防范与制度完善的多元路径构建
(一)生成式声音平台:事前合规到事后治理
作为产业链的核心,生成式人工智能服务提供者应承担与其技术能力和运营角色相匹配的核心合规义务。《生成式人工智能服务管理暂行办法》(以下简称《暂行办法》)规定生成式人工智能服务提供者系利用文本、图片、音频、视频等内容生成能力的模型及相关生成式人工智能技术向中华人民共和国境内公众提供生成文本、图片、音频、视频等内容的生成式人工智能服务(包括通过提供可编程接口等方式提供生成式人工智能服务)的组织、个人[10],同时将生成式人工智能服务提供者[11]的责任承担范围确定为“应当依法承担网络信息内容生产者责任,履行网络信息安全义务。涉及个人信息的,依法承担个人信息处理者责任,履行个人信息保护义务。” 《暂行办法》不同于《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》,后者将服务提供者区分为技术服务提供者和内容服务提供者,而现有生效规定对于技术服务提供者和内容服务提供者的责任范围是不同的,例如《民法典》规定的网络服务提供者仅对使用其网络服务实施侵权行为的用户采取删除、屏蔽、断开链接等必要措施,减少侵权损害的扩大,但若该网络服务提供者的行为达到网络内容提供者对上传内容的、推荐等方面达到主动控制相关标准,则需承担侵权责任或侵权的连带责任。《民法典》对于网络技术及内容服务提供者设定不同的权利与义务,主要是基于其在网络服务中所扮演的角色而划分,因此其规定的权利义务具有合法合理性,而《暂行办法》可能是基于行政监管的初衷,并未将服务提供者进行细化,而将开发者、部署者、分销者等产业链上的各个角色同意划归至生成式人工智能服务提供者这一主体,但在实际运营中,这一划分可能导致对于不同角色的服务提供者的责任规定过重,不利于鼓励创新、有效监管以及企业发展。在相关规定细化之前,对于提供生成式声音服务的平台,仍然建议做好以下合规管理:平台在采集、使用包含自然人声音的训练语料前,必须履行严格的尽职调查义务。对于可识别到特定自然人的声音数据,其处理行为必须以清晰的个人同意或法律规定的其他合法情形为前提。此义务应贯穿于使用开源、商业或自采语料的全部场景,并保存完整的授权文件或采集记录以备核查,平台应在其生成的音频内容中或播放界面处,以显式标识或隐式标识,明确告知使用者该内容为“AI生成”,防止内容的恶意滥用与传播。平台还应建立高效的内部合规体系,包括设立便捷的侵权投诉举报渠道、制定分级分类的内容处理预案,并与相关监管部门建立联动报告机制。对于发现的违法违规内容,应依据用户协议与法律规定,及时采取限制传播、溯源排查等措施,以达到减少侵权风险及控制损害范围的目的。
(二)生成式声音使用者:合规使用与主动维权
使用者应严格遵守平台服务协议,不得故意移除或篡改平台标注的AI内容标识。在二次创作、公开传播AI声音时,应进行明确标注,避免导致公众误解,从而规避法律风险。其次,使用者在使用涉及声音的生成式人工智能平台时应仔细查看使用规则,避免超范围使用造成侵权;同时,当使用者通过平台协议授权其自身声音被用于模型训练时,应充分理解条款内容,明确授权范围、使用目的、存储期限与退出机制,审慎处分自身权益。再次,当使用者或权利方发现自身声音被侵权应及时用时间戳或电子公证等形式保留证据,避免证据灭失或被修改,并过平台内置投诉机制要求其采取必要措施,并可同步向行政主管部门举报或寻求司法救济或专业帮助。
(三)司法行政单位:推动监管细分与标准创新
如前所述,若未将生成式人工智能服务提供者的角色细化,确认其在产业链中的定位与作用,对其权利与义务的划分存在不合理的情形,也将增加司法行政单位合法合规的监管难度与监管成本。《暂行规定》仅对生成式人工智能服务提供者、服务使用者的监管进行原则性规范未能精准反映开发、部署、分发等不同产业链、不同环节主体的角色差异,建议在实施过程中比较国际经验,并与现有的法律法规、国家或行业标准的衔接、责任主体的细化,依据“技术中立”与“控制力标准”,对产业链上不同主体的责任进行科学划分,避免责任过重抑制创新。其次,与生成式人工智能相关服务在不同周期内确定涉嫌侵权的证据来源、保存、收集、调取的手段及方式有待通过司法行政机关明确相关主体的责任范围并以法律规范的形式通过与相关行业探讨有效技术予以完善,例如:由国家司法鉴定主管部门牵头,联合科研机构,加快制定AI声音同一性鉴定的国家标准与操作规范,为司法审判提供可靠技术支撑、强制要求在我国境内提供服务的主体,在不断优化的技术可行的范围内,建立训练数据来源的记录与追溯系统。在司法或行政调查中,平台有义务应要求提供相关数据来源信息,以保障生成式人工智能提供的服务向公平、安全及透明可问责的全球趋势并齐。
在浙江五联律师事务所二十五周年举办的“智慧法律*数字未来”专题研讨会后,基于对AI声音在今后数据与隐私合规、数据资产化等方面的无限可能,浅谈个人从法律角度的一些思考,望指正。
参考文献
[1] 2024年度热文回顾之人工智能与算法规制研究系列 | 北京互联网法院课题组:AI声音侵害声音权益的法律认定《法律适用》
[2] (2024)川7101民初8969号民事判决里:原告提交将自己的配音作品作为检材与作为样本的案涉AI生成“孟帅”配音包,在“云知声AI开放平台”进行识别对比,取得88.32%以上,最高95.35%声纹相似度的结果,对“孟帅”配音包进行降调处理后与原告的声音高度相似的证据。而被告也使用同一平台,用原告声音与原告配音的作品进行比对,声纹相似度为82.2%以上,最高为93.76%。但法院认为“被告比对结果与原告比对结果存在差异,甚至通过对比男声和女声之间也出现60%以上的相似度情形”而未采信该证据。
[3] Ontrust《AI报告:原则、法律和框架》分析了人工智能生成的各类角色定位及其权义逐步明确、对全周期及风险分级管控、责任划分以及以人为本、促进技术发展、公平透明可追溯的监管逻辑 https://www.dataguidance.com/sites/default/files/DG-ai-principles-laws-frameworks-report-ebook_0.pdf
[4] 牛马打工人,韩国AI治理体系梳理(1.0版本),https://mp.weixin.qq.com/s/K0maG07JcEHvjYwaCVWrfg
[5] 朱玲凤,美国版AI标识法:加州AI透明法案全文翻译,https://mp.weixin.qq.com/s/rfst0DwkMG9fedoycF-HHg
[6] 第三章 人工智能开发者相关的事项 P33
[7] 个人信息保护法》第六十九条 处理个人信息侵害个人信息权益造成损害,个人信息处理者不能证明自己没有过错的,应当承担损害赔偿等侵权责任。
前款规定的损害赔偿责任按照个人因此受到的损失或者个人信息处理者因此获得的利益确定;个人因此受到的损失和个人信息处理者因此获得的利益难以确定的,根据实际情况确定赔偿数额。
第七十三条 本法下列用语的含义:
(一)个人信息处理者,是指在个人信息处理活动中自主决定处理目的、处理方式的组织、个人。
[8] 《民法典》第一百一十一条 自然人的个人信息受法律保护。任何组织或者个人需要获取他人个人信息的,应当依法取得并确保信息安全,不得非法收集、使用、加工、传输他人个人信息,不得非法买卖、提供或者公开他人个人信息。
第九百九十九条 为公共利益实施新闻报道、舆论监督等行为的,可以合理使用民事主体的姓名、名称、肖像、个人信息等;使用不合理侵害民事主体人格权的,应当依法承担民事责任。
第一千零三十四条 自然人的个人信息受法律保护。
个人信息是以电子或者其他方式记录的能够单独或者与其他信息结合识别特定自然人的各种信息,包括自然人的姓名、出生日期、身份证件号码、生物识别信息、住址、电话号码、电子邮箱、健康信息、行踪信息等。
个人信息中的私密信息,适用有关隐私权的规定;没有规定的,适用有关个人信息保护的规定。
第一千一百六十五条 行为人因过错侵害他人民事权益造成损害的,应当承担侵权责任。
依照法律规定推定行为人有过错,其不能证明自己没有过错的,应当承担侵权责任。
第一千一百九十四条 网络用户、网络服务提供者利用网络侵害他人民事权益的,应当承担侵权责任。法律另有规定的,依照其规定。
[9] 《生成式人工智能服务管理暂行办法》第九条 提供者应当依法承担网络信息内容生产者责任,履行网络信息安全义务。涉及个人信息的,依法承担个人信息处理者责任,履行个人信息保护义务。
提供者应当与注册其服务的生成式人工智能服务使用者(以下称使用者)签订服务协议,明确双方权利义务。
[10] 《生成式人工智能服务管理暂行办法》第二十二条 本办法下列用语的含义是:
(一)生成式人工智能技术,是指具有文本、图片、音频、视频等内容生成能力的模型及相关技术。
(二)生成式人工智能服务提供者,是指利用生成式人工智能技术提供生成式人工智能服务(包括通过提供可编程接口等方式提供生成式人工智能服务)的组织、个人。
(三)生成式人工智能服务使用者,是指使用生成式人工智能服务生成内容的组织、个人。
[11] 《生成式人工智能服务管理暂行办法》第九条 提供者应当依法承担网络信息内容生产者责任,履行网络信息安全义务。涉及个人信息的,依法承担个人信息处理者责任,履行个人信息保护义务。
提供者应当与注册其服务的生成式人工智能服务使用者(以下称使用者)签订服务协议,明确双方权利义务。