编者按:AI换脸技术作为一种深度伪造技术,基于深度学习算法和计算机视觉技术,能够精准地进行面部特征转移。然而,这一技术的广泛应用,诱发了一系列违法滥用行为,也带来诸多安全和法律风险,亟须加以规范和治理。为了推动AI换脸技术的合法使用,促进生成式人工智能健康发展和规范应用,本刊特邀请专家学者对相关问题进行探讨,敬请关注。
特邀嘉宾
田宏杰
(中国人民大学教授)
张建忠
(最高人民检察院经济犯罪检察厅副厅长)
阴建峰
(北京师范大学教授)
嘉宾兼主持人
高艳东
(浙江大学数字法治研究院副院长)
问题一:AI换脸技术存在哪些应用风险?
主持人:AI换脸作为深度合成技术的一种新发展形态,具有哪些特征,存在哪些应用风险?
田宏杰:AI换脸技术又称人脸深度伪造技术,是一种基于人工智能深度学习和计算机视觉的前沿技术应用,具有高仿真性、高效自动化、数据依赖性、可扩展性、即时性、大众化等特征。目前,该技术被广泛应用于影视和娱乐行业、社交媒体内容创作、教育培训、心理治疗、身份验证、科学研究等领域。伴随该技术在各领域中的加速应用,其潜在风险也逐渐展露。
一是引发信任危机。基于AI换脸技术,可以轻易在视频、图片中伪造他人面部特征和可识别的身份信息。当公众意识到互联网所见存在伪造可能性时,便会动摇其对数字身份认证的信任,在长期面对真假难辨的信息环境时,将引发社会焦虑,对媒体、政府公信力产生普遍怀疑。
二是激化社会矛盾。使用AI换脸技术伪造的名人、政治人物或公众人物的视频、图像被用于制造虚假新闻、误导舆论,其中的不当言论可能引发社会动荡。而基于换脸技术生成的一般侮辱性内容,则可能引发或加剧网络暴力,导致现实世界中的歧视或冲突。
三是挑战社会伦理。AI换脸被用于不道德的娱乐内容或违反伦理的内容,可能挑战社会伦理底线。尤其是对于难以识别视频是否属于伪造内容的未成年人以及中老年人等群体而言,由于缺乏辨别能力,往往选择相信伪造内容,以致引发伦理危机事件。
四是威胁国家安全。伪造国家领导人讲话或者涉军事视频、照片可能引发国际问题,造成国家间对信息的误判或外交冲突,引发军事对峙。恐怖组织利用AI换脸技术制作虚假宣传视频,则会混淆公众视听或制造恐慌。
张建忠:AI换脸技术作为深度合成技术的一种形式,通过深度学习算法和计算机视觉技术,将一张人脸特征映射到另一张脸上。AI换脸不仅可以进行静态图像置换,还可结合动作捕捉与语音识别,实现更复杂的动态视频和交互场景。AI换脸技术具有高度拟真性,能够捕捉并复现面部细节,如表情、光照与肌肉运动等,使得最终合成结果与真实人脸极为相似,通常肉眼难以分辨。随着技术普及,许多手机应用或在线工具都能一键生成换脸内容,技术使用门槛大幅降低。
AI换脸技术在很多领域展现出积极的应用潜力,但其潜在的风险也不容忽视。一是侵犯公民权利。例如,擅自使用他人肖像制作、传播恶搞视频,可能造成名誉侵权;或者通过换脸技术伪造身份实施电信诈骗,威胁个人财产安全。二是破坏社会公共秩序、商业秩序。例如,利用换脸技术伪造重大公共事件、商业事件的不实视频,引发舆论混乱或扰乱市场秩序。三是危害国家安全。例如,通过换脸技术伪造领导人的发言视频,煽动恐怖暴力情绪,教唆进行恐怖活动。四是给司法办案带来挑战。例如,AI换脸技术被用于视听资料等证据材料的伪造,给司法取证与证据审查带来挑战,等等。
阴建峰:AI换脸的本质是深度伪造技术的应用,核心独特性在于以数据为燃料、算法为引擎的智能生成范式,其技术特征既体现了深度学习在表征学习和生成任务上的突破,也凸显了合成媒体时代技术伦理与治理的复杂性。其具有以下特征:
一是高度拟真性。AI换脸技术通过深度学习算法捕捉源脸部的微表情、肌肉运动、光照变化等动态特征,实现表情与口型的精准同步以及图像和视频中人物面部的精准替换,生成的换脸效果在视觉上高度逼真,几乎与真实画面无异。这种高度拟真性不仅体现在静态图像中,更在动态视频中展现出流畅自然的替换效果,甚至可以配合合成的声音进一步增强真实感。
二是成本低廉性。诸如DeepFaceLab、FaceSwap等技术的开源,降低了技术接入门槛,推动了技术普及,制作换脸视频所需的硬件设备只需一台性能较高的普通电脑或者一部手机;同时,通过网络爬虫等技术可轻松获取大量人脸图像作为训练数据,大幅降低了数据采集成本。这些因素使得AI换脸技术的操作变得极为便捷且成本极低,几乎达到了“零门槛”的程度,甚至普通用户也能通过简单的App操作实现“一键换脸”。
三是场景泛化性。AI换脸技术可处理不同分辨率、角度甚至艺术风格的素材,适配影视特效、虚拟主播、元宇宙化身等场景,支持复杂光照和遮挡环境下的换脸。通过模型压缩和边缘计算,可在手机等移动设备实现实时视频换脸。既可结合语音合成和3D建模技术,实现视听统一的深度伪造内容,也可结合神经渲染技术,在直播或视频会议中达到毫秒级响应。
AI换脸技术在诸多领域得到了广泛运用,在给我们的生活带来巨大便利的同时,也存在潜在的应用风险:
一是存在侵犯他人合法权益的风险。就人格权益而言,未经他人同意将其面部替换到视频或图片中,并用于不当场景,如色情视频、虚假广告等,会导致被换脸者形象受损、名誉被贬损,给当事人带来严重的社会负面影响,侵犯他人的肖像权、名誉权及个人信息相关权益。就财产权益而言,该技术可能被用于破解人脸识别系统,从而非法访问或窃取个人账户、财产信息,导致直接的经济损失。
二是存在虚假信息传播,引发社会信任危机。AI换脸技术生成的图像具有高度欺骗性,容易滋生虚假信息甚至是网络谣言。而虚假信息的快速传播不仅会损害个人声誉,还会削弱公众对媒体、政府和其他权威信息来源的信任。当公众难以区分真实与虚假信息时,社会信任机制将受到严重冲击,导致公众对各种信息的普遍怀疑,增加社会治理成本,影响诚信社会的建设。
三是存在危害社会稳定和国家安全的风险。利用该技术伪造政治人物的言论或行为误导公众、干扰选举,会产生严重的政治负面影响,进而影响社会稳定。如果该技术被用于合成虚假新闻或恐怖主义宣传内容,则会加剧社会恐慌和分裂,从而对国家的稳定和安全造成不可预测的风险。
高艳东:AI换脸技术具有以下三个特征:第一,以假乱真性。通过大量的数据训练,模型能够不断进化,学习到面部的细节乃至神态,在视觉上逐渐达到以假乱真的效果,甚至肉眼无法识别。第二,高度人身性。由于个人生物识别信息具有唯一性,换脸视频可识别并关联到特定自然人。第三,技术门槛低。随着人工智能技术的普及,大量软件都可以做到AI换脸。
新技术总有新风险,AI换脸技术存在如下风险:第一,可能导致社会、法律关系的混乱。工业时代的法律都是以自然人为核心而建立起来的,是自然人的法律,而AI换脸技术可能产生没有真实对应自然人的数字人,尤其未来智能数字人的诞生,将打破法律单一主体的局面,法律将面临“自然人+数字人”的双主体困惑。第二,侵犯个人信息和隐私。根据国家互联网信息办公室、工业和信息化部、公安部印发的《互联网信息服务深度合成管理规定》,使用深度合成服务时,使用者需要取得被编辑个人的单独同意,AI换脸使用他人的信息尤其是生物识别信息,如果没有征求对方同意,就会侵犯他人的个人信息权。
问题二:违法滥用AI换脸技术面临哪些法律责任?
主持人:实践中,由于AI换脸技术应用门槛较低,出现了一些违法滥用行为。这些违法滥用行为有哪些具体表现?行为人可能承担哪些法律责任?
田宏杰:AI换脸技术应用门槛较低、隐蔽性强,从而常常成为违法犯罪行为使用的工具。实践中,滥用AI换脸技术的违法行为目前主要表现为以下三类:一是滥用换脸技术侵犯个体人格权益,如未经授权采集、处理人脸特征数据等;二是滥用换脸技术冲击知识产权保护机制,如非法截取影视作品、图像等受著作权保护的素材实施换脸合成视频或者图片等;三是滥用换脸技术破坏社会管理秩序,如利用深度合成技术伪造身份认证信息、传播虚假舆情或实施非接触式诈骗等。
张建忠:AI换脸技术在推动科技创新和社会进步的同时,在实践中衍生出了一系列违法滥用行为,需要引起高度重视。在案件办理中,我们发现此类技术被用于违法犯罪,并呈现出复杂化和多样化的特点,主要表现包括侵犯人格权利、传播违法内容、冒用他人身份等。根据违法行为的性质和后果,行为人可能触犯以下罪名:一是通过伪造视频或身份实施诈骗,非法获取财物的,涉嫌诈骗罪。二是利用伪造视频散布虚假信息,严重损害他人名誉的,涉嫌诽谤罪。三是利用AI换脸技术制作、传播淫秽内容,情节严重的,涉嫌制作、贩卖、传播淫秽物品犯罪。四是制作虚假信息引发公众恐慌或扰乱社会秩序,涉嫌危害公共安全、扰乱公共秩序等犯罪。
阴建峰:AI换脸技术的违法滥用行为在现实中的具体表现多样且危害深远,行为人可能面临以下法律风险:一是民事侵权的法律风险。未经他人同意,擅自将他人的肖像用于视频、图片或其他形式的传播,将构成对他人肖像权的侵犯。二是行政违法的法律风险。行为人违法滥用AI换脸技术可能面临多方面的行政违法风险,如未经授权采集、使用或泄露人脸信息,违反了个人信息保护法中关于敏感个人信息保护的相关规定;未对换脸内容进行显著标识或制作、发布、传播虚假信息,违反了关于网络信息管理的相关要求,可能面临警告、罚款、责令停产停业等行政处罚。三是刑事犯罪的法律风险。行为人在使用AI换脸技术时,非法收集、使用或泄露他人的人脸信息等敏感个人信息,可能会构成侵犯公民个人信息罪。制作嘲讽或丑化他人的换脸视频,实施网络欺凌或者发布侮辱性内容的,可能构成侮辱罪。行为人利用AI换脸技术制作、传播含有淫秽内容的视频或图片,可能构成制作、传播淫秽物品牟利罪或传播淫秽物品罪。行为人利用AI换脸技术伪造他人身份,通过视频通话等方式实施诈骗,骗取他人财物的行为则可能构成诈骗罪。制作虚假视频威胁被害人支付赎金,实施敲诈勒索活动的,可能构成敲诈勒索罪。伪造视频作为法庭证据,干扰司法公正的,可能构成伪证罪。
高艳东:根据违法滥用AI换脸技术行为的危害程度,行为人可能承担以下法律责任:首先,违规使用者可能侵犯隐私权、肖像权、著作权、名誉权等,以及构成不正当竞争,损害消费者利益,需承担相应的民事责任。其次,AI服务提供者可能因管理不当而受到行政处罚。根据《互联网信息服务深度合成管理规定》,如果服务提供者未履行规定的安全评估、备案、标识等义务,可能会面临行政处罚。再次,违法使用者可能被追究刑事责任。第一,可构成侵犯财产类犯罪。AI换脸视频可被用于诈骗或敲诈勒索,如伪造色情视频后向他人索要封口费,可能构成诈骗罪或敲诈勒索罪。第二,可构成侵犯公民个人信息罪。AI换脸需要收集个人的面部特征,这属于可以识别到个人的生物信息,如果没有经过他人同意,可能构成侵犯公民个人信息罪。第三,可构成传播淫秽物品类犯罪。若利用AI换脸技术制作淫秽照片和视频,尤其是将他人的脸部特征植入色情视频中并传播,涉嫌传播淫秽物品罪。
问题三:如何构建AI换脸技术应用规制体系?
主持人:新技术的应用需要一定之规。当前,我国对AI换脸技术的违法滥用采取的监管手段与规制措施还存在哪些局限?未来应如何进一步建立健全AI换脸技术应用规制体系,以实现技术发展与法律规则的和谐共生?
田宏杰:为规范AI换脸技术的应用,我国已基本建立起法律层面的治理框架,通过民事、行政、刑事法律的协同作用,对AI换脸技术进行多维度规制。但是,随着技术的迭代升级和滥用行为的日渐增多,现有治理框架和规制措施的局限亦逐渐显现出来。一是缺乏专门立法和分级监管制度。目前我国规制AI换脸技术应用的法律规范分散于民法典、个人信息保护法、网络安全法等法律和部门规章中,尚未针对AI换脸技术制定专门法律,也尚未根据风险等级对AI技术建立分类管理制度。二是数据使用限制不足,溯源要求不明确。个人信息保护法虽然规定了处理人脸等敏感信息需要征得他人同意,但并未明确禁止使用未经同意收集的公开数据训练AI。对于AI生成的内容虽然规定了应当进行标识,但是并未规定具体的形式和技术检测标准。三是用户权利保护不足。AI合成内容传播过程中“生成端”与“发布端”的时空分离,导致民法典第1195条规定的“通知—删除”规则陷入行为链条断裂的规制困境。四是缺乏强制性检测技术和认证机制。目前对于AI内容的检测和管理主要由平台自行审核,缺少国家层面的检测系统或工具,导致监管和查处力度明显不足。五是平台责任界定模糊。无论是AI训练模型平台还是社交平台,目前仅要求平台审核用户输入内容,但未明确平台对AI生成内容的实质性审核义务,致使关涉普通人的侵权事件因平台怠于处理而难以得到及时有效处置。
有鉴于此,需以“技术过程法律化”与“法律要求技术化”的双向互动为内核,围绕以下方面进一步健全完善AI换脸技术的规制体系,以达成技术赋能与法律规制的动态平衡。一是制定专门立法规范。有必要突破分散立法模式,探讨制定人工智能合成内容管理法,确立技术应用负面清单制度,区分娱乐创作、公共传播、身份认证等场景设置差异化合规标准;同时,引入“技术过程责任”概念,将训练数据合法性、算法可解释性纳入重点监管内容。二是升级技术嵌入治理。推行“防滥用”技术强制标准,要求开发者预置内容失效触发机制与不可逆数字水印;推动平台建立“技术筛查+人工复核+第三方评估”的复合审核机制,根据内容风险等级设置差异化的审核标准和响应时限;构建国家级深度伪造检测平台,整合微表情分析、虹膜纹理匹配等多模态鉴别技术,尝试建立“生成—传播—消除”的全周期响应体系。
张建忠:为了在保障技术发展与法治秩序之间实现平衡,实现技术发展与法律规则的和谐共生,我国已制定相关规定。首先,在法律层面,民法典对人格权的保护作出了明确规定;个人信息保护法明确将生物识别信息纳入敏感个人信息范畴;数据安全法规定数据处理活动应符合国家安全、公共利益的要求等。其次,在行政监管层面,《网络音视频信息服务管理规定》《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》《生成式人工智能服务管理暂行办法》等对服务提供者、使用者等进行规范。再次,在技术治理层面,部分内容平台建立了技术识别和审核机制,运用算法或水印技术标记AI生成或深度伪造内容,对违规或高风险内容实施警示、下架或封禁等处置手段。
尽管我国已在立法、行政和司法层面进行了积极探索,但仍存在以下不足:一是现有规定多散见于不同层级、不同领域的法规政策,尚未针对AI换脸或深度伪造进行专门立法,导致规制体系较为分散,系统性和针对性不足。二是面对深度伪造、AI换脸等快速迭代的技术,监管部门检测与溯源手段多依赖相关企业或机构的技术储备,亟须建立统筹的检测标准和行业规范。三是技术开发企业的合规管理机制仍有待完善。尤其是对客户的使用追踪与风险评估较为薄弱,部分平台缺乏针对用户上传内容的严格审核流程,导致大量违法或不当的合成内容可能在短期内流转、扩散,难以及时发现、下架与追责。
未来可通过立法、行政、技术、社会以及国际多维度协作,建立健全具有前瞻性、系统性和针对性的规制体系,确保技术发展造福社会。一是明确技术应用的边界、使用规则以及违法责任追究机制,重点关注技术开发者、服务平台和使用者的权责边界,构建全面的责任链条。二是明确技术平台和内容平台的审查义务,要求相关平台对AI合成内容进行检测与标注,并在出现违法或高风险内容时及时预警和处置。三是推动技术创新,支持科研机构与企业开发更加高效的识别算法与溯源技术,如数字指纹、水印技术等,加强对换脸内容的真实性验证工具研发。四是加强与国际社会的交流与合作,可以在全球范围内建立信息共享和执法合作机制,借鉴域外经验,推动更广泛的国际规则对接,形成跨国打击AI技术滥用行为的联动网络。
阴建峰:我国通过过完善法律规范、强化行政监管的方式,对AI换脸技术的违法滥用行为进行严格监管和规制。这些措施不仅有效遏制了技术滥用带来的风险,也为技术的合理应用提供了法律保障,但还存在一些局限:一是我国对于AI换脸技术法律规制采取分散化的立法模式,导致不同法律规范之间缺乏有效衔接,存在用语、定性不一致甚至存在冲突的情况。二是专门性规范效力位阶偏低,规制力度较弱。虽然民法典、个人信息保护法等高位阶法律对个人信息和人格权保护提供了基础框架,但这些法律的条款较为原则化,对于AI换脸技术的具体应用场景和细节问题缺乏针对性的详细规定。现有专门性规范多以部门规章或规范性文件的形式出现,效力层级相对较低,难以对复杂的技术应用进行全面、系统的约束。三是法律规范内容偏原则,缺乏进一步的细化、解释。《互联网信息服务深度合成管理规定》虽然对深度合成服务提供者、使用者及应用程序分发平台应当履行的义务等作出了原则性规定,但并未限制AI换脸技术的应用范围和目的,也未对其使用者设定资格条件。此外,相关规范对于责任主体的认定和责任的划分也缺乏明确的规定,由此导致受害者维权困难。
健全完善AI换脸技术的规制体系可从以下方面着手:一是针对AI换脸技术构建系统全面的法律体系。制定统一上位法,提高立法效力位阶,并明确规定统一的安全责任底线和基本使用标准,包括必要性原则、知情同意原则、第三方监督机制以及损害赔偿机制等内容,增强法律的权威性和系统性。优化规则供给机制,加强复合型规范治理。应对新兴技术引发的法律问题,特别重视软法的功用,发挥好软法规则小而精、快而准、迅捷灵活治理的优势,建立人工智能安全标准、伦理准则和行业自律规范,推动行业的自治自律。二是细化现有的法律规定,对一些关键性问题予以及时回应。确立以区分应用场景前提下的合理使用为基本规制原则,根据不同场景的风险程度和利益平衡,制定差异化的规制措施。对违法主体法律责任的承担予以明确规定。例如,明确侵权责任主体的认定及责任划分标准,在民事责任领域考虑设立惩罚性赔偿机制,在刑事制裁方面考虑适用禁止令。
高艳东:目前,我国能够直接对AI换脸技术进行监管的规定如下:一是国家互联网信息办公室、文化和旅游部、国家广播电视总局《网络音视频信息服务管理规定》,要求网络音视频信息服务提供者和服务使用者在制作、发布、传播基于深度学习、虚拟现实等的新技术新应用所生成的非真实音视频信息时,以显著方式予以标识。二是国家互联网信息办公室《网络信息内容生态治理规定》,虽然不是专门针对AI换脸,但其强调对于包括但不限于深度伪造在内的新技术应用需要加强规范管理,对于非真实音视频信息应该以显著方式予以标识,这间接适用于AI换脸技术。三是国家互联网信息办公室、工业和信息化部、公安部、国家市场监督管理总局《互联网信息服务算法推荐管理规定》,提到了对五类(包括生成合成类)算法设立一般性义务规则,并且提到,发现未作显著标识的算法生成合成信息时应作出显著标识后才能继续传输。四是《互联网信息服务深度合成管理规定》,这是我国首部专门针对深度合成领域的法律文件,明确规定了深度合成服务提供者的责任,包括用户身份认证、内容审核、特征库建立以及违法不良信息的处置等。五是国家互联网信息办公室等7部门《生成式人工智能服务管理暂行办法》,为生成式人工智能服务提供了初步的管理框架,涵盖了从研发到部署的整个生命周期。
虽然我国出台了一系列规定,但仍存在法律位阶较低、责任主体不明、监管盲区较大等问题,未来的监管应把握以下三点:一是明确合理使用原则。区分应用场景,以应用场景为基本出发点选择加强管制还是放松管制,确保技术向善。二是建立全链条多主体的监管规则。一方面,利益链条上建立健全“事前备案—事中内容审查—事后处罚”的监管体系;另一方面,明确技术开发者、平台运营者、使用者的法律责任。三是加强国际合作。与国际社会合作,共同应对AI换脸技术带来的挑战,分享技术和经验,加强司法协作,形成全球治理合力。
问题四:检察机关如何在依法履职中加强对AI换脸技术应用的法律监督?
主持人:AI换脸技术的违法滥用严重威胁个人利益、国家和社会公共利益。检察机关在履职办案中,如何加强对AI换脸技术应用的法律监督?
田宏杰:AI换脸技术带来的法律和伦理问题不容忽视,检察机关作为宪法规定的法律监督机关,可重点围绕以下方面加强对AI换脸技术应用的法律监督。一是建立刑事追责与公益诉讼并行机制。基于AI换脸技术的多重违法性特征,在依据刑法对涉罪行为追究刑事责任的同时,检察机关可视案情同步推进民事公益诉讼,以确保当事人的合法权益得到及时保护。尤其是对于侵害不特定多数人生物识别信息安全的案件,通过公益诉讼程序的及时介入,能够在保护公共利益、追究行为人刑事责任的同时,实现对当事人“停止侵权+损害赔偿”的复合救济。二是强化行刑衔接机制。检察机关可联合网信、公安等部门,建立违法线索双向移送机制,对违法案件中的犯罪线索及时立案。明确证据转化要求与电子数据固定标准,推动建立跨部门技术鉴定与评估体系。针对疑难案件,检察机关可通过适时介入引导侦查取证,并为技术违法行为的定性提供指导。三是推进企业整改。检察机关应结合办案积极向企业发送整改建议,督促企业进行算法安全评估和素材来源合规审查,并指导整改。四是推动建立跨国司法协作机制。针对跨境服务器托管、虚拟货币支付等黑灰产环节,以检察机关为主体推进国际交流与合作,完善电子证据跨境调取与联合执法程序。
张建忠:作为法律监督机关,检察机关肩负着保障法律统一正确实施、保护国家利益和社会公共利益的重要职责。检察机关在AI换脸技术法律监督中应以问题为导向,充分发挥引导侦查、公益诉讼、检察建议等职能,为技术治理提供法治保障。具体可从以下方面着力:一是依法追究刑事责任,形成司法震慑。对于利用AI换脸技术实施诈骗、传播淫秽内容等犯罪行为,检察机关应严格依照刑法追责,维护法律权威和社会秩序。对于重大案件,适时介入引导侦查机关精准取证,尤其是针对技术链条和责任主体的溯源侦查,深挖幕后组织者和核心技术提供者。二是充分发挥公益诉讼职能。对因监管缺失导致违法内容广泛传播的平台或技术提供方,检察机关可以依法提起公益诉讼,倒逼相关平台和技术提供方尽快完善合规管理,主动加强内容审核与风险防范措施。三是强化检察建议,完善监管制度。在案件办理过程中,发现监管漏洞,检察机关应及时向相关部门提出完善建议。针对平台内容审核、标注等不足之处,通过检察建议督促其履行主体责任。通过不断跟进建议执行情况,实现对违法合成内容的事前、事中和事后全流程监督。四是建立联动机制,提高监督效率。检察机关应当与网信、公安等部门建立联动机制,实现信息共享、技术共用和资源整合,提高监督效率。五是加强法治宣传教育,提升社会防范意识。充分利用新媒体平台和线下普法活动,向公众普及深度伪造技术的风险与辨别方法;同时增强技术使用者的责任感与底线意识,共同抵制和举报涉AI换脸违法行为,推动行业自律与社会共治。
阴建峰:检察机关在依法履职办案中,应通过多种手段加强对AI换脸技术应用的法律监督,确保AI换脸技术在合法合规的轨道上运行。一是提高法律监督的精准性和有效性。一方面,利用好大数据和人工智能技术。积极应用大数据法律监督模型,通过数据分析、模型预测等手段,建立AI换脸技术检测机制,精准发现AI换脸技术滥用的线索,提高监督的针对性和有效性。另一方面,探索建立针对AI换脸技术滥用的公益诉讼制度,通过提起公益诉讼的方式,维护公民个人信息安全和社会公共利益。此外,检察机关还可以通过公益诉讼推动相关技术治理和源头防控,督促技术开发者和使用者履行法律责任。二是加强跨部门协作和信息共享。检察机关可以与公安、网信等部门加强协作,共同打击利用AI换脸技术进行诈骗、传播淫秽物品等违法犯罪行为。通过信息共享、线索移送等方式,形成合力,提高打击效果。此外,针对AI换脸技术滥用的行为,检察机关可以与其他执法部门共同开展专项整治等活动,加强对该技术的监管和治理。三是针对AI换脸技术滥用的新型案件,制定司法解释,发布指导性案例,明确案件的定性、量刑标准等,为司法实践提供指导和参考。四是加强宣传教育和预防工作。通过开展法治宣传和警示教育,增强公众对AI换脸技术滥用危害的认识和防范意识,引导公众正确使用AI换脸技术,避免将其用于违法或不当用途。例如,通过公开庭审、媒体报道等方式,向社会公众普及相关法律法规,引导公众在使用新技术时遵守法律和道德规范。
高艳东:对于AI换脸,法律应当采用“不管私用、严管公用”的思路。检察机关应采取更积极措施,防止技术被恶意滥用。第一,监督公安机关、行政监管部门的执法工作。加强与公安、网信等部门合作,共同构建高效的案件侦办体系。对于涉及AI换脸的刑事案件,如诈骗、诽谤等,适时介入引导取证,利用专业技术手段固定证据。同时,促进社会共治,与网信、公安等部门建立常态化的信息共享和协作机制,共同加强对AI换脸技术的监管。第二,探索人工智能技术应用领域的公益诉讼职能。针对AI换脸引发的新类型侵权纠纷,可尝试采用公益诉讼等形式维护不特定多数人的合法权益。特别是当个人受害者难以单独提起诉讼时,由检察机关启动公益诉讼程序。对明确的侵权主体,可向法院提起民事公益诉讼,要求侵权人停止侵害、消除影响、恢复名誉、赔偿损失等;若相关职能部门监管不到位,则启动行政公益诉讼进行法律监督。第三,推动法律完善。检察机关在办案过程中积累了丰富的AI换脸技术相关案件经验,可根据最新技术发展特点,针对已有规定的不足,向立法机关提出完善相关法律法规的建议。
(此为删减版,详情请阅读《人民检察》2025年第9期)
京ICP备13018232号-3 | 互联网新闻信息服务许可证10120230016 | 增值电信业务经营许可证京B2-20203552
信息网络传播视听节目许可证0110425 | 广播电视节目制作经营许可证(京)字第10541号
网络出版服务许可证(京)字第181号 | 出版物经营许可证京零字第220018号 | 京公网安备11010702000076号
网站违法和不良信息举报电话:010-8642 3089