AI换脸技术滥用的风险与应对
作者:微信文章一段时间以来,AI换脸的话题引发广泛关注。全国人大代表、中国工程院院士张伯礼在2025年全国两会发言时提到,“过去一年,至少有几十个视频,冒用我的声音、形象讲述虚假内容”。随着深度合成技术的开源,AI换脸技术的门槛不断降低,利用人工智能生成虚假内容的违法犯罪事件日益增多。有些APP甚至提供一键式的换脸操作,这大大增加了技术滥用的风险,其带来的诸多负面效应不容忽视,亟须深入剖析并寻求有效的应对之策。
AI换脸的技术逻辑
AI换脸是一种基于深度学习的人脸图像识别伪造技术,其起源可追溯到利用Photoshop等工具对人脸图像的编辑。后来,借助生成对抗网络(GAN),该技术通过识别和提取目标面部特征,并借助算法将其合成到另一人的面部图像上,实现了对人物肖像的超逼真模拟与场景重构,使图像与视频合成达到前所未有的高度,能够实现以假乱真的效果。
AI换脸有着一套严谨且复杂的技术流程。首先通过人脸识别获取人脸图像的核心特征,如五官和表情,再对人脸特征进行精准测量。例如,对鼻子的宽度、眼睛的长度、面部骨骼的轮廓等进行细致扫描,得到人脸模板并以数据集形式储存。接着利用深度学习训练确定人脸变换矩阵,最终在原图像上应用转换,生成伪造的“换脸”图像或视频。AI换脸技术涉及的人脸生物特征属于个人生物识别信息,该技术运行的底层逻辑是围绕人脸生物识别信息的采集、存储与使用等全链条生产模式展开的。
从本质上讲,AI换脸对人脸信息进行了三重伪造。第一重体现在技术处理后的人脸图像与原始视频中的主体不一致;第二重在于由人工智能生成的图像真实性难以判断;第三重则在于这些图像可能并不反映操作者的真实意图。普通公众往往难以辨别AI换脸的真伪。伴随着大量开源算法、预训练模型以及用户友好型应用程序的出现,深度伪造技术使用门槛越来越低。其易得性、高逼真度和检测溯源难,构成了侵权风险的主要技术源点。这些伪造内容在细节、纹理、光照等方面与真实影像难以区分,具有极强的欺骗性,这也为后续诸多风险的产生留下了隐患。
AI换脸技术带来的社会风险
维权困境。目前,AI换脸技术引发的侵权案件普遍面临着维权难题。换脸视频往往由匿名者制作,并且能够在社交媒体上以很快的速度广泛传播,这使得侵权主体难以溯源。加之,许多参与其中的当事人由于并不知晓分享的信息系伪造,在这种复杂的情况下,往往导致案件难以追责,受害者的权益难以得到有效的维护。
侵害肖像权。AI换脸很容易侵害他人的肖像权。民法典第一千零一十九条第一款明确规定,任何组织或者个人不得以丑化、污损,或者利用信息技术手段伪造等方式侵害他人的肖像权。AI换脸正是利用信息技术手段编造或者捏造他人肖像,以假乱真,将他人肖像非法合成至特定场景或他人身体上的行为,这无疑构成了对肖像权的侵害。肖像权是公民所享有的专有权,未经肖像权人同意而使用,破坏了肖像权的专有性,具有明显的违法性。即便获得授权,也不得对肖像进行丑化、污损或伪造。在司法实践中,已有多起相关案例。例如,重庆某电子商务有限公司未经授权,将张某的抖音肖像视频用于快手平台“AI换脸猫”小程序供用户付费匹配替换以进行商业引流,法院最终认定该公司侵犯了张某的肖像权。
侵害个人信息。个人信息保护法规定,生物识别信息属于敏感个人信息,一旦泄露或被非法使用,会对个人的人格权益或财产安全造成严重侵害。由于人脸生物识别信息具有高度敏感性,一旦被不当发布将很难消除或修改,导致个人信息长期处于风险之中,引发严重的安全问题。例如,某科技公司未经廖某授权同意,使用廖某出镜的系列视频制作换脸模板并上传至其运营的软件供用户付费使用,法院虽认定该行为不构成对廖某肖像权的侵害,但因涉及对廖某面部特征等个人信息的处理且未经同意,构成了对廖某个人信息权益的侵害。
助力违法犯罪活动。AI换脸技术还可能被滥用于各类违法犯罪活动。不法分子利用AI换脸和拟声技术实施诈骗、伪造不雅视频等行为,不仅严重侵犯个人隐私,还会对公众的信息安全和生命财产安全构成巨大威胁。比如,在山东淄博,一名82岁老人被“AI外孙”骗走30余万元。
造成虚假信息传播。通过AI换脸恶意伪造社会或政治信息,并利用病毒式传播规律,极易煽动公众情绪、激化群体矛盾,甚至可能挑起战争,尤其在重大社会或政治事件中,会严重影响公众认知和社会秩序。例如,2025年初西藏日喀则地震的戴帽小孩图片被证实为AI伪造,引发社会担忧。在国际层面,2022年乌克兰危机期间伪造普京与泽连斯基的视频,严重扰乱国际舆论和秩序。“眼见不为实”的状况会加重公众的认知负担,削弱社会信任基础,进而危及社会稳定、国家安全和国际秩序。
应对举措
生成式人工智能技术快速迭代,多模态应用不断更新,给规范治理带来更高要求。为有效防范AI换脸技术带来的社会风险,可从以下几个关键方面入手。
提升公众素养。深度伪造技术生成的图像和视频高度逼真,无疑加大了用户辨别真伪的难度。并且,用户对技术的认知和风险感知因年龄、接触频率等因素而存在差异。因此,强化公众的技术风险感知和媒介素养迫在眉睫,这有助于提升其辨别信息真伪、感知风险和采取防范措施的能力。可以通过开展线上线下相结合的科普活动、在学校和社区开设相关课程等方式,向公众普及AI换脸技术的原理、风险以及辨别方法。
创新平台监管。国家网信办和公安部要求互联网企业对深度伪造涉事应用进行安全评估与风险防控。《互联网信息服务深度合成管理规定》明确要求,深度合成服务提供者和技术支持者提供人脸、人声等生物识别信息编辑功能的,应当提示深度合成服务使用者依法告知被编辑的个人,并取得其单独同意。平台收集敏感信息应基于特定目的和必要性,且需获得当事人明确同意。同时,平台应建立便捷高效的侵权举报渠道和快速响应机制,及时删除侵权内容并惩戒恶意用户。例如,某短视频平台划定AI创作“禁区”,对生成知名人士虚假人设、利用多种手段低质吸粉甚至引流到站外卖课、入群等行为进行严格管控。
加强执法力度。我国通过《互联网信息服务深度合成管理规定》《生成式人工智能服务管理暂行办法》等法规,对深度合成技术实施分类分级监管,要求标识生成内容。2025年9月1日将施行的《人工智能生成合成内容标识办法》进一步强化了标识义务和法律责任。美国、欧盟、韩国等也出台相关法案,对深度合成内容进行严格规范。目前生成式人工智能领域的规范仍不完善,存在多头管理和权利救济不足等问题,执法和实践层面需进一步加强落实。在实际执法过程中,各部门应加强协作,形成监管合力,提高执法效率,确保相关法规能够切实落地。
(作者系暨南大学新闻与传播学院教授)
文章来源:《学习时报》2025年6月11日第5版
本期编辑: 季思含
页:
[1]