私服天龙八部发布网站

作者:张三 | 发布日期:2026-03-28 01:15:26 | 阅读时间:5分钟

今日随机新闻 (法治在线丨配音演员声音被批量“偷走” 该怎么证明“声音是我的”?.txt)

<p>  近期,AI模仿演员、替代真人表演等话题持续引发关注,多名配音演员公开发声,自己的声音在未经许可的情况下,被AI克隆、盗用并使用。怎么证明我的声音是我的?AI声音侵权滥用现象愈演愈烈,记者独家采访多位配音演员,他们正在为被AI偷走自己的声音维权。



</p>


<p>  一些经典台词背后的声音如今正遭遇盗用危机,这也成了很多配音演员的现实困惑。</p>


<p>  1 明明没配音,怎么会出现我的声音?</p>


<p>  一段由AI生成的哪吒配音,与电影《哪吒之魔童闹海》里的原声高度相似。哪吒的配音演员吕艳婷听到这段声音时,发现音色几乎一模一样,但内容并非出自她本人之口。</p>


<p>  配音演员 吕艳婷:因为声音是属于哪吒的一部分。对内容的真伪就很难去辨认。</p>


<p>  记者在某视频平台检索发现,大量“甄嬛”主题二创视频,都使用了与电视剧甄嬛传中甄嬛一角配音演员季冠霖原声高度相似的AI合成配音。</p>


<p>  配音演员 季冠霖:他们说这个声音你自己知道有人在用吗?身边的同行有那么多被盗用,而且是没有经过本人同意允许,本人根本就不知情的情况下,合成了各种各样的语言和台词。</p>


<p>  如今AI生成声音效果仿真度高、真假难辨,甚至连配音演员本人,都难以分辨出这究竟是不是自己的原声。明明没配过,为什么网络上会出现我的声音?</p>


<p>  配音演员赵岭:最主要我去听了,我听不出来是AI配的,这个是我没有想到的。我都恍惚了一下,我说这好像真是我的声音,挺可怕的,这个作品我从来没有录过。</p>


<p>  配音演员 阿杰:各个平台上经常可以听到一些短视频、微漫剧,其中可能某一个角色一听就是我的声音。其他的一些网友,当时他们听到了以后,就@我问我说你配这个了吗?我一看很陌生,我根本就没配过,怎么会有我的声音?我一想越来越多怎么办?</p>


<p>  配音演员 叶清:我们的声音被采样了以后,生成了他们自己想要说的内容。这个声音是我,但这话不是我说的。</p>


<p>  配音演员声音在不知情的情况下被采样,平台上频繁出现非本人录制的内容。声音是自己的,话却不是本人说的。</p>


<p>  2 我怎么证明这是我的声音?</p>


<p>  更让这些配音演员陷入尴尬的是,大量AI仿声视频内容质量参差不齐,其中还夹杂着不少低俗、恶搞类的不良内容。</p>


<p>  配音演员 阿杰:明显那些台词在平台上应该是不能通过审核的,也通过我的声音说出来了。有人直接就圈我,你还配过这个,我说这不是我的,这是AI做出来的。</p>


<p>  一边是自身声音权益被肆意侵犯,一边是不良内容借着自己的声音肆意传播,又该如何证明“这不是我说的”?</p>


<p>  配音演员赵岭:我们的声音和我们的人是紧密联合在一起的,是画等号的。</p>


<p>  声音与个人形象、职业口碑直接挂钩,更代表着个人传递的态度与理念。当AI冒用的声音,表达完全不属于本人的观点和言论,又该由谁来划定行为边界、承担相应后果?</p>


<p>  3 未成年人价值观受不良引导谁担责?</p>


<p>  哪吒等经典IP拥有庞大的未成年人受众,孩子们对熟悉的角色声音天然信任,这也让声音侵权的社会风险被进一步放大。一旦AI仿声被用于制作不良内容、错误导向信息,极易对青少年价值观形成误导。</p>


<p>  配音演员 吕艳婷:角色的声音如果在不被管控的前提下生成不可控的一些内容,内容的价值观、一些问题就会传播到孩子的视听空间里。</p>


<p>  配音演员赵岭:喜爱我们的受众有很多都是小孩,对我们的声音他会有一种信任度在里面。如果声音被用在不良导向内容上,我觉得对孩子的伤害会非常大。万一听了不良的这些东西,怎么办?</p>


<p>  配音演员 季冠霖:你没办法判断,AI未来越来越仿真了,它越来越像真人说出来的了。如果说出了一些违法违纪的、不良的、错误的语言或引导话语,那么未来的责任谁来承担?</p>


<p>  4 牟利式侵权为何如此轻易?</p>


<p>  不仅如此,据配音演员介绍,目前部分侵权行为已超出网络娱乐范畴,演变为以牟利为目的的商业使用。</p>


<p>  配音演员 季冠霖:比如说拿你的声音去做了一个剧的声音,拿你的声音直接做了一个角色的声音,或者拿你声音做了一个广告或者宣传片什么的,可能就触达到我需要维权的范围了。</p>


<p>  记者发现,不少网络账号借趣味配音包装,在评论区、个人主页通过私域引流售卖AI配音课程,将他人声音作为变现工具。</p>


<p>  在一些网络平台,记者看到大量商家以极低的价格出售声音复刻的软件和教程。卖家声称只需5秒以上的声音音频文件,就能用AI克隆出声音,可模仿各种情感相似度达到98%以上,但是并不去管声音是否得到授权。</p>


<p>  5 一边低成本侵权,一边高代价维权,该怎么办?</p>


<p>  面对层出不穷的侵权内容,从业者们究竟面临着哪些现实阻碍?维权之路又为何走得如此艰难?</p>


<p>  被AI偷声,已经不是个例。3月,数十位配音演员集体在社交平台公开发布维权声明,掀起行业内首次大规模抵制AI声音侵权的行动。其中就有配音演员阿杰。他说自己尝试通过一些网络平台渠道进行投诉举报,但实际操作中处处碰壁。这也是不少同行的困境。</p>


<p>  配音演员 阿杰:你说你去投诉他,去跟他打官司,要付出很大的成本,我们不可能一直盯着网上大家发了哪些东西,然后去跟平台去反映、去投诉、去打官司,我没那么多精力。所以说AI侵权成本特别低,但是我们维权的成本又很高。</p>


<p>  记者尝试将一位配音演员魔改的AI配音视频点击投诉,当点击侵犯个人/组织人身权益后,系统显示的选项中存在损害个人名誉,下一步,要提交举报材料,确定举报身份。而这一步,也是很多想要维权的配音演员被卡住的一步。</p>


<p>  配音演员 季冠霖:我面临的一个问题就是,这个视频或者是某一个视频,我发现了怎么举报?或者我该找谁去解决这个问题?我不知道对应的要去找谁。</p>


<p>  配音演员 叶清:比如说你盗用了我的声音,我不同意你这么用,有的时候时间比较长,还有现在遇到更困难的地方,有可能不只是采集一个人的声音,他把我的声音加上另外一个人的声音,混采然后再AI。</p>


<p>  6 维权、举证究竟该做什么?</p>


<p>  声音看不见、摸不着,一旦被冒用,取证和认定都很困难,光靠事后追责,无法拦住源源不断的新的侵权行为发生。配音演员的声音维权正陷入“投诉赶不上侵权、下架挡不住扩散”的窘境。</p>


<p>  配音演员 阿杰:其实这边人家只是用了一下,发上去,然后就下架了,下架的同时可能在某一个时间段可能生成几十上百个这样的音频、视频。</p>


<p>  配音演员 吕艳婷:我们能寻求怎么样的帮助,才能控制它的传播力度,或者说它已经生成的影响力,我们如何去收回,目前对于我来说的一个难点。</p>


<p style="text-align: center;">首例“AI声音侵权案”</p>


<p style="text-align: center;">主审法官讲维权关键</p>


<p>  AI技术的普及让声音复刻变得轻而易举,可是,这份本应赋能创作的“便利”,却被一些人滥用,成为牟取私利的工具,这不仅直接损害了配音演员的合法权益,更严重扰乱了行业正常的创作生态。“我要怎么证明这是我的声音?”“自己的声音在未经允许的情况下,被复刻AI化,我该怎么办?”2024 年,《法治在线》栏目报道了全国首例“AI生成声音人格权侵权案”。这份已进入法院案例库的典型判例能为当下遭遇此类侵权的当事人提供哪些切实的维权指引?</p>


<p>  北京互联网法院综合审判三庭庭长 颜君:主要我们遇到的声音侵权就两个场景,一种就是在平台上使用名人声音带货、未经授权的使用。还有一个场景就是数据公司可能未经允许把声音拿去做数据训练,最后生成一些声音产品。</p>


<p>  在全国首例“AI生成声音人格权侵权案”中,原告殷女士的声音就被擅自采集,用于AI仿声合成。不仅如此,殷女士的AI仿声还以短视频配音的形式在网络上公开发布。</p>


<p>  北京互联网法院综合审判三庭庭长 颜君:她的声音特征比较明显,一听大家都认可是原告本人的。录音公司又超范围地把声音授权给了一个数据制作公司,数据制作在训练的时候,明确也确实是用到了这个声音,在她的基础上进行了AI化的训练,所以整个链条很清楚,被告也是认可使用了原告的声音进行了数据训练。</p>


<p>  在这起案件中,殷女士确实曾和一家文化传媒公司合作,录制了几部有声读物。但是,法院审理认为这家文化传媒公司对录音制品只享有著作权等权利,并不包括授权他人对原告声音进行AI化使用的权利。最终,北京互联网法院判令相关侵权人赔礼道歉,赔偿原告殷女士经济损失25万元。</p>


<p>  北京互联网法院综合审判三庭庭长 颜君:通过这个案件明确了,即便是通过AI处理的声音,但是这个声音还存在可识别性,能够指向某个特定的自然人,还是自然人声音权所涵盖的范围以内,声音权权利人能够控制和决定他的声音能不能授权去使用,未经授权情况下的使用就构成侵权,也为AI时代下自然人人格权的保护树立了规则。</p>


<p>  回看殷女士举证的材料,证明“AI拟声的原型是我”,正是殷女士胜诉的基础。在这个过程中,殷女士收集了哪些核心证据,为维权提供了关键支撑呢?</p>


<p>  一是自身声音的原始权属证据。殷女士整理了自己的配音作品,让法院能够清晰界定受保护的声音权益范围。</p>


<p>  二是妥善保管合作合同。殷女士虽然和一家文化传媒公司合作,录制了几部有声读物,但是签订的合同中从未提及“允许将声音用于AI化训练、合成及商业变现”等字眼,证明了被告的AI化使用行为超出了授权范围。</p>


<p>  三是全面固定侵权事实证据。殷女士发现侵权行为后,第一时间对侵权内容进行了取证,完整保存了AI拟声配音作品以及AI拟声文本转语音产品的录屏,直观证明了侵权行为的传播范围和影响程度。</p>


<p>  这些证据相互印证,锁定了权利归属与侵权事实,为殷女士后续顺利开展维权打下了基础。</p>


<p>  北京互联网法院综合审判三庭庭长 颜君:有了侵权的证据以后,可以采取各种方式去维权。可以直接和侵权人进行声明,让他停止侵权,也可以通过投诉下架的方式尽快停止侵权,下一步也可以通过诉讼来依法主张自己的权利。</p>


<p style="text-align: center;">对方不认账?</p>


<p style="text-align: center;">维权不必陷入“自证”漩涡</p>


<p>  全国首例AI声音侵权案的宣判,已然为行业划定了明确的法律边界,但AI仿声侵权的乱象为何仍屡禁不止?AI仿声侵权成为行业维权共性难题,又该怎么办?在维权过程中,不少人为了证明“这是我的声音”而陷入举证难题,专家表示,维权不必陷入“自证”漩涡。</p>


<p>  怎么证明“声音是我的”?怎么证明“我没有说过这样的内容”,几乎是所有遭遇AI生成声音侵权的配音演员所面临的困境,甚至不少人陷入了自证清白的举证难题。</p>


<p>  中国政法大学教授郭旨龙:我们不需要陷入这种自证,只需要证明这个声音跟自然的声音有实质的相似性,这就足够了。至于说这个声音没有获得我的授权,是使用者需要去证明的东西。</p>


<p>  在全国首例“AI生成声音人格权侵权案”中,被告认可使用了殷女士的声音作为AI训练原型,但是在不同的维权情形中,很多侵权方可能会拒不承认涉案声音的来源。此时,权利人又该怎么办呢?专家指出,面对这种“不认账”的情况,可以通过声纹鉴定、声音比对报告等方式,借助专业技术手段完成客观举证。</p>


<p>  北京航空航天大学法学院副教授 王琦:如果其他人未经他的许可使用了和他相似的声音,技术手段能够具体识别出来他的个人,这就构成对他的权益的侵害。</p>


<p>  面对AI仿声侵权,法学专家表示,权利人也并非只能通过民事诉讼这一途径维权,在诉讼之前,还有多元的维权方式。那么,当侵权发生时,究竟该如何及时制止侵权行为?</p>


<p>  中国政法大学教授郭旨龙:将新的运用声音的场景拍摄下来,证明我的声音已经受到了新的场景下的不当利用,可以跟平台投诉。如果这个行为人坚持不改正,可以举报给行政主管部门。民事责任这一块,首先可以向人民法院申请权利的救济。特殊的情况下,如果发现自己的声音被利用,用来发布虚假广告或者实施电信网络诈骗,可以向公安部门进行举报。</p>


<p>  专家认为,AI仿声侵权的乱象屡禁不止,还有一个很大原因就是背后盘根错节的商业利益链条。</p>


<p>  中国政法大学教授郭旨龙:利用名人的声音,或者说专业人士的声音,能达到更好的传播效果。以侵犯他人声音权的违法方式来获得竞争优势,违反了商业道德和诚实信用原则,涉嫌不正当竞争。</p>


<p>  也正因如此,许多配音演员表示单纯依靠事后维权难以从根本上遏制侵权乱象,这也让不少身处行业中的配音演员,纷纷呼吁,希望能把关口前移,从技术研发和行业规则层面提前设防。</p>


<p>  配音演员 吕艳婷:如果说放到创作当中来,我觉得艺术创作它的根源也是在人,人的情感的交流,我们传递的是人类的情感温度,希望我们的科技赋能文化,能在互相簇拥成就的这种状态下去发展。我们也希望能够有一个完善的制度,能有一条路径去证明这个声音它是属于我的版权。</p>


<p>  配音演员 季冠霖:可能还需要更严格,比如像银行系统有人脸识别、指纹识别,那你的使用期限是什么,使用范围是什么,我为什么同意你使用这段声音,这些都是我觉得是应该做在认证流程里的。</p>


<p>  北京航空航天大学法学院副教授 王琦:我们国家关于深度合成,包括深层次人工智能服务的规定当中,都要求服务提供者有数据记录和保存的义务,就必须在合理范围内展示这一段声音是怎么来的。比如说聘请了专业的配音演员来生成原材料,然后进行调试,还是说就是使用了真人的大量语调来进行训练,所以关键的维权难点是要强化人工智能服务提供者,或者说经营者数据保存和配合证明的义务。</p>


<p style="text-align: center;">侵权视频借平台扩散</p>


<p style="text-align: center;">滥用乱象成关注焦点</p>


<p>  AI仿声侵权视频通常借助网络平台大肆传播扩散,平台在此过程中究竟该承担怎样的主体责任?技术与规则的双重防线又该如何筑牢?这些问题,已经成为大众关注AI仿声滥用乱象的核心焦点。</p>


<p>  许多配音演员认为,自己的声音被AI仿声侵权后,平台责任怎么划、处理标准是什么,都还不够明确。</p>


<p>  配音演员 叶清:好几次跟平台投诉,有的内容被下架了,但是有的也没有解决。</p>


<p>  通过记者调查及配音演员的举证维权经历来看,当前平台针对AI仿声侵权的举报、下架等处置流程及投诉机制亟待优化。</p>


<p>  中国政法大学教授郭旨龙:网络平台应当依照网络安全法等法律法规承担起网络安全的主体责任。平台接收到了疑似侵权的通知,依照网络安全法以及国家有关部门规章,如果没有及时有效地处理网络违法行为,也要承担一定的行政责任。</p>


<p>  破解AI仿声侵权乱象,不仅需要权利人主动拿起法律武器维权,相关责任主体也要跟上人工智能技术的发展步伐,针对AI仿声这类新兴侵权问题,加快完善监管规则,加大对侵权行为的查处力度,提高侵权违法成本。</p>


<p>  北京航空航天大学法学院副教授 王琦:还是要对他们的行为进行打击,因为那种蹭流量或者搭便车的行为,本身是一种非常低层级的竞争,是一种不正当竞争的方式。国家关于人工智能立法现在还在一个探索期,可以考虑先行根据行业当中所需要的一些重点、难点、堵点问题,出台一些行业性的管理办法,或者通过司法解释的方法先解决,这个是一个可比较可行的方案。</p>


<p>  别让AI生成成了AI侵权!</p>


<p>  AI仿声技术飞速发展,不应成为侵权利器。遏制AI侵权乱象,相关部门需加快完善监管规则,平台更应压实监管责任,比如建立AI侵权快速处置绿色通道,多方合力,杜绝“AI做主他人声音”的乱象,让每一个自然人的声音权,都能得到应有的尊重和保护。</p>


<p>  (总台央视记者 曾晓蕾 俞悦 张译丹 李佳 吴经伟)

标签: