罗昕:深度伪造技术的传播风险及其治理
青年记者 | 2023-12-23 16:24:56原创
来源:青年记者
作者:罗昕(暨南大学新闻与传播学院教授);周源(暨南大学新闻与传播学院硕士研究生)
来源:《青年记者》2023年第23期
导 读:
社交媒体的流行与网络数字图像的大幅增长推动了图像处理技术的发展,基于生成式对抗网络(GAN)的深度伪造(deepfake)技术在文本生成、面部交互、语音模拟和身体操控方面有着强大功能。然而,深度伪造技术也隐囿着个人权益侵犯、社会生态污染和国家安全威胁等传播风险。
作为人工智能时代的新型媒体合成技术,深度伪造技术近年来在网络媒体中的涉及领域越发广泛、出现频次越发频繁。据路透社报道,预计2023年,社交媒体网站上将发布50万个深度伪造的语音和视频[1]。随着生成式人工智能模型不断成熟,深度伪造技术将带来更多网络安全风险,成为互联网治理领域不可回避的问题。
深度伪造技术的基本功能
深度伪造技术的本质是通过生成式对抗网络中生成器与判别器的协同运作,合成高质量的图片、视频与场景,通过视觉效果达到对事实的扭曲与遮蔽。当下,预先打包的换脸程序、语音克隆应用程序以及DALL-E和Stable Diffusion、Midjourney等图像生成服务不断涌现,通过对于文本、图片、音视频等的处理实现了不同维度的深度伪造,具有以下多方面功能。
(一)文本深度伪造:机器人写作
在机器学习和自然语言处理(NLP)的早期阶段,机器无法完成绘画或写作等创造性活动。直到2020年5月28日,OpenAI发布了包含1750亿参数的GPT-3模型,自然语言处理领域的大语言模型才在真正意义上出现,从此人类进入大语言模型的时代[2]。大语言模型的出现使得ChatGPT等顶级人工智能自动生成有着人类相似写作逻辑与清晰度的深度伪造文本。
(二)图片深度伪造:面部的重演
深度伪造可以通过深度神经网络(Deep Neural Network)技术对脸部进行编码与解码,将画面中的面部或身体进行替换与混合,如FaceApp或TikTok都提供一种老化滤镜,用户可以通过镜头看到自己几十年后的样子[3]。根据美国国土安全部发布的报告,FaceShifter、FaceSwap、Reface等平台均提供AI人脸合成服务,只需上传一张照片即可将个人肖像融入数百部电影和电视节目的场景中[4]。
(三)音频深度伪造:语音的模拟
音频深度伪造包括声音的交换和文本转语音功能。声音的交换指深度伪造技术算法通过学习包含模仿对象声音的数据库,复制其说话的方式并生成新的声音进行替换;文本转语音功能则是通过输入新文本来更改录音中的音频内容。以上功能均可以通过Lyrebird和Deep Voice等商业软件来达到音频深度伪造,且当录音样本量越多时,深度伪造生成的音频会越“完美”。
(四)视频深度伪造:身体的操控
视频作为一种视觉媒介具有高说服性的特点,因而也是使用最广泛的深度伪造类型。视频的深度伪造功能包括面部交换、面部扭曲、身体操控以及嘴型同步[5]。借助深度伪造技术,人脸替换可以无缝实现,即可以将一个人的动作置换到另一个人身上,改变一个人的口型与言语表达。
深度伪造技术的传播风险
深度伪造技术在电影、数字通信和医疗保健、材料科学等许多行业有多种积极的用途。然而,在技术进步和社交媒体广泛使用的大背景下,深度伪造技术的门槛不断降低,也存在隐私侵犯、虚假新闻生成与传播、计算宣传等传播风险。
(一)个人层面的权益侵犯
1.对名誉权的侵犯。2020年,女演员克里斯汀·贝尔在网上发现了以自己为主角的色情视频。在接受Vox采访时,贝尔表示,“即使该视频被标记为‘非本人’,但实际很难不去想这一点”[6]。可见,无论是否声明影片的真实性,此类深度伪造色情制品的传播会大大损害受害者的声誉,成为性剥削、身份盗窃、勒索威胁、恐吓和骚扰受害者的工具。此外,视频的后续传播也有可能带来对个人名誉与感情的二次伤害,导致受害者产生严重的心理障碍如焦虑、抑郁、厌食与自杀倾向,失业与就业障碍等。
2.对隐私权的侵犯。马里兰大学法学教授Danielle Citron提出“性隐私”(Sexual Privacy)的概念,认为性隐私是对人体、性行为、性别和亲密活动的接触和信息进行管理的行为、期望和选择[7]。“性隐私权”作为一种独特的隐私权,是人类尊严和亲密关系的基础。通过机器学习技术伪造的色情视频、将任意面庞替换至色情影片,将未经许可的裸体图像发布到网络,这些对深度伪造技术的滥用以数字暴力的方式侵害了“性隐私权”。
3.著作权(版权)的侵犯。深度伪造技术多在他人发布的图片或音视频作品的基础上进行数据的修改,通过深度伪造技术制成的新作品的所有权仍难以界定,由此也带来了大量个人著作权与版权侵犯的争议。2020年,OneZero记者戴夫·格什戈恩报道了OpenAI网站上著名艺术家发布的“新”音乐[8]。基于在世或已故的知名艺术家埃尔维斯、弗兰克·辛纳屈和Jay-Z等的歌曲,程序员能够利用深度伪造技术创作出新的音乐。然而,Jay-Z的公司Roc Nation LLC随后便以侵犯歌手著作权为由起诉YouTube并要求删除这些曲目[9]。这类基于深度伪造技术改编生成的新作品往往未经原作者许可,其广泛传播所带来的经济收入与流量红利将消解作品的所有权,打击原创热情,扰乱创作圈生态。
(二)社会层面的生态污染
1.虚假信息对新闻真实的解构,“后事实”世界兴起。智媒时代,人们进入了大数据所编织的“新信息茧房”中,迎合用户喜好的算法固化了用户的认知与信息输入范围。深度伪造技术作为融合了语言与非语言的视觉虚构作品,与真实世界有高度重合性,生成事实不断对客观事实产生冲击,使部分本就持有刻板印象的人对伪造的信息更加“深信不疑”。2020年7月,MIT高级虚拟中心故意发布了一条利用深度伪造技术制作的尼克松总统宣布“阿波罗11号”任务失败影像。该视频完全重构了尼克松的声音与面部活动,印证了众多“阿波罗登月计划阴谋论”的支持者观点,并使其更加坚信这场所谓的登月的背后是美国的“世纪大骗局”[10]。斯坦福大学民主、发展与法治中心主任弗朗西斯·福山提出,“‘后事实’世界兴起,人们正走进不信任的死胡同”[11]。深度伪造技术最大的威胁或许不是虚假信息本身,而是人们不断接触虚假信息的过程中,对一切真实都开始产生质疑,从而带来了“真相衰败”(Truth Decay)问题[12],本应追求的真实在虚假的遮蔽中反而退场。
2.社交身份的伪造下各类诈骗现象泛滥。由于深度伪造技术门槛的降低,普通人不需要太多技术基础也可以通过深度伪造技术在互联网上制造个人虚拟档案、实施诈骗。名为Maisy Kinsley的深度伪造者长期以彭博社记者的身份活跃在LinkedIn和Twitter(现更名为X)等社交媒体平台上,经常试图与特斯拉股票卖空者联系以骗取经济利益[13]。缅北诈骗集团深度伪装身份,或是中缅跨国企业HR、或是拥有百万粉丝的缅甸网红“李赛高”、或是多年未见老同学,拐骗不少中国公民前往缅甸果敢自治区进行“电诈”活动。此外,还有部分不法分子通过深度伪造技术对个人形象进行营造,通过面孔与声音模拟,在聊天室与“同龄”儿童进行数字对话,以此换取未成年人信任,对未成年人安全产生威胁。
3.网络低俗信息的流通,产生数字暴力。根据网络安全公司Deeptrace(Sensity AI)发布的《DeepFake现状:前景、威胁和影响》研究报告,96%的在线深度伪造视频为色情制品,且100%的色情视频主角为女性[14]。这些低俗色情视频的传播,不仅侵犯受害者个人隐私与声誉,还在整个社会中带来了低俗信息的流通与对于女性的性剥削。这种高度性别化的数字暴力,包括网络跟踪、网络性骚扰、基于性别的仇恨言论、色情报复与敲诈勒索,会进一步阻止女性的公开表达与公共参与,甚至催生线下暴力。
(三)国家层面的安全威胁
1.国家安全:催化计算宣传与认知战,破坏国际战略互信。计算宣传指社交媒体平台、自动化代理人和大数据的集合体,旨在有组织地操纵公共舆论。计算宣传是集手段和目的的统一体,其中,计算是技术手段,宣传是操纵目的[15]。人工智能驱动的系统可以快速修改并生成深度伪造的数字产品,在社交媒体上通过政治机器人以高度可信的方式传播虚假信息,推动针对目标国家民众和国家利益的虚假叙事,发动认知战,操控目标国家民众心理,侵蚀目标国家社会信任,煽动恐怖和暴力活动,挑拨政党内部矛盾等,给目标国家的政治安全带来威胁和挑战。2022年俄乌冲突爆发,网络上流传着关于乌克兰总统泽连斯基要求其军队投降与俄罗斯总统普京宣布战争结束的深度伪造视频,成为深度伪造技术在认知域应用的标志性事件[16]。这类在敏感关系或战争国家间的深伪新闻不但破坏了国际的战略互信,还助长了冲突双方的仇恨,推动暴力循环的持续升级。
2023年1月3日在美国首都华盛顿拍摄的国会大厦。新华社记者刘杰摄
2.政治信任:通过视觉控制操控选举,引发政治人物信任赤字危机。2023年4月,美国共和党全国委员会30秒的深度伪造竞选广告,展示了拜登一旦赢得2024年竞选可能带来的灾难性场景;5月,已经宣布参加2024年选举的美国前总统特朗普在社交媒体平台分享了一条内容为美国有线电视新闻网播报的自己已当选总统的深度伪造视频[17]。这类对政治人物的深度伪造视频通过视觉控制对政治人物形象进行抹黑,并可能进一步影响国家政治制度。在美国选举制度中,一旦总统候选人的深度伪造信息在社交媒体平台上扩散,选民将无法根据网络上的信息了解真正的事实。政治人物的公信力将随之下降,面临信任赤字危机。
深度伪造技术的传播风险治理
深度伪造作为生产力进步的产物,有“技术利维坦”之风险,只有在合理的价值规范引导下,在多主体协同治理下,深度伪造技术才能进一步发挥其向善作用。
(一)个体:自我道德规范与媒介素养提升双线并行
在个体层面,深度伪造制品存在创作者与接收者两大主体面向。首先,在创作者层面,由于深度伪造开源技术的广泛流通与国内外各大应用程序的发行,深度伪造的技术门槛越来越低,呈现出分散、随机、破坏性巨大的特征。一方面,相关部门可加快推进对创作主体的身份限制与资格审查,来确保官方对真相的解释权;另一方面,个体在利用深度伪造技术时不仅需严格遵守自我道德规范、以不侵犯他人权益为前提保证“技术正当性”,还需在作品的显要位置以“深度伪造”标签注明属性。其次,创作者在通过平台传播时,必须保证深度伪造用途的单纯性,不得用于捏造、歪曲既定事实或对他人行为进行抹黑。由于深度伪造技术的高度真实性、泛在普适性与快速演化性,在规范深度伪造生态的过程中,还需要受众不断提升个人的媒介素养,培养对媒介素材的批判思考能力,增加对于深度伪造技术的了解与辨别能力。通过脸部或身体边缘是否模糊、背景与光线明暗程度的变化一致性等方式,受众可以学习辨别网络视频是否为深度伪造制品,还要学会通过多方印证来确保消息的真实性等。
(二)平台:确立技术正当性与借助技术治理并驾齐驱
深度伪造视频对于各方权益的侵犯主要产生在其传播过程的人群接触中,互联网时代,社交媒体平台为深度伪造信息的传播提供了病毒式传播的途径。因此,平台有责任规范和审查深度伪造内容,呈现真实可信的信息,保护个人权益免受侵害。首先,平台应当确立技术使用的正当性,禁止未经授权的深度伪造信息在平台上流通,保护原作者版权与相关权利人权益。例如,2023年3月21日,TikTok在更新的平台社区准则中规定,禁止制作除公众人物外个人形象的deepfake视频,所有展示真实场景的deepfake视频都必须注明是否为合成、虚假或受更改[18];而Adobe则设置可以让创作者在视频和照片上附加签名及有关其创作详细信息的功能,以防作品被盗用伪造;微博在上传视频时必须标注该视频类型为原创、二创或是转载。其次,平台可以尝试引进开发深度伪造的智能识别技术,利用人工智能全天候强频率高覆盖的审查特点,实现人工智能的“自治”。近年来,Facebook投入大量资金探索区块链技术追溯视频来源,在这类视频上传时进行筛选与拦截;微软公司成功研发人工智能驱动的深度伪造检测软件,通过分析视频和照片并提供置信度分数来检测信息是否可信;网络安全公司Sensity则提供了通过人工智能深度学习来检测深度伪造技术的平台,当用户查看深度伪造品时,该平台会自动向用户发送电子邮件进行提醒[19],通过及时检测并告知的方式最大化规避深度伪造风险。除作为传播途径的社交媒体平台外,作为生成源的深度伪造程序也应在内部提升技术使用规范,如通过智能审查等方式及时识别色情暴力主题的深度伪造内容,在用户导入“源数据”与导出“成生数据”时就予以警告与提醒,对敏感内容进行屏蔽。
(三)社会:社会组织活动与社会审美观念共同发力
随着深度伪造技术越来越智能、隐蔽,仅依靠个人与平台的规制无法真正抵御深度伪造所带来的风险威胁。根据拉图尔提出的行动者网络理论,社会作为一种异质性事物的联结关系,必须在治理网络中被考虑其中。社会组织作为社会内部的行动者主体之一,针对深度伪造对于个人隐私和名誉的侵犯与继而引发的数字暴力问题,联合国人口基金联合联合国的性健康和生殖健康机构推出了“身体版权”(body copyright)运动,认为人们的身体图像在网上享有与音乐、电影甚至公司徽标一样的版权尊重和保护[20]。该运动通过在社交媒体或任何其他数字内容共享平台上的人体图像上添加版权标志使身体版权化,保护人们尤其是妇女儿童等弱势群体免受数字暴力侵害,在虚拟的网络空间与真实的世界中终止对于身体版权的盗用。除社会组织外,社会审美观念与社会批判机制作为非人行动者主体也承担着引导深度伪造向善的责任。大量深度伪造技术的使用集中于对女性“换脸”的色情视频上,其本质是高度性化的对于女性的贬低,以及站在男凝视角上将女性仅仅视为“性对象”的物化,是社会审美观念仍存在畸形的表现,不利于社会两性文明关系的建设。由此,规范深度伪造技术风险应着力培养社会正向的审美观念,提高全民审美与个人素质,探索更多深度伪造技术的有益场景如虚拟新闻主播、医学影像分析、智能文物修复等,为人工智能的向善实践提供样本。此外,还应建立社会评价机制,对于真实的披露进行及时的正向反馈,打破“后事实”社会对于真相的麻木冷漠之感,引导群众树立“让子弹再飞一会儿”的思维模式,在全社会营造起叩问事实、追问真相之风,在整个社会层面对深度伪造技术进行全方位监督。
(四)国家:公民权益保护与深度伪造技术特别法相互补充
为促进深度伪造技术的健康发展和规范应用、维护国家安全与国民利益,各国先后制定深度伪造技术的相关法律法规来规范其发展。中国法律针对深度伪造的规定主要涉及肖像权、个人信息保护以及国家安全领域。2023年1月10日,我国首部深度合成领域的专门法规《互联网信息服务深度合成管理规定》要求深度伪造服务提供者应向有关部门报告非法深度伪造、提供追索机制、提供水印免责声明等,服务使用者应依法告知人脸被编辑的个人并取得其单独同意。2023年7月,我国颁布的《生成式人工智能服务管理暂行办法》,既明确表示支持生成式人工智能领域的创新和国际合作,又进一步明确将对生成式人工智能服务进行“分类”和“分级”监管,深度伪造服务的提供者必须对使用该产品生成的内容负责等。
美国尚未出台统一的深度伪造法案,但部分州已开启了通过法律来抵制色情与政治欺骗的尝试。2019年,加州签署了第602号与第730号议会法案来禁止使用深度造假来影响政治活动和深度伪造色情内容;纽约州在2020年修订普通法《纽约公民权利法案》时新增了针对深度伪造视频的特别条例,在打击色情深度伪造视频的同时对于非自愿色情制品的受害者进行精神与物质层面的补偿[21]。欧盟也对规范深度伪造技术进行了法律尝试,2022年6月更新的《虚假信息行为准则》要求社交媒体从其平台上删除深度伪造新闻和其他虚假信息,并对违反者处以最高达全球收入6%的罚款;2022年11月生效的《数字服务法》则加强了对数字平台各种滥用行为的监控;欧盟正在推进的《人工智能法案》也明确了深度伪造技术的提供商将受到透明度和披露要求的约束[22]。
结 语
当技术使真与假的界限被模糊时,人类将面临全方位的风险。然而,深度伪造并非不可控的“潘多拉魔盒”。通过多主体协同参与到人工智能的治理实践中,由人类发明的创新技术终将会找到其风险与善用的平衡点,进而构建新的传播秩序,以求人工智能朝着有利于人类的方向发展。
【本文为国家社科基金重点项目“全球互联网治理的竞争格局与中国进路研究”(批准号:18AXW008)阶段性成果】
参考文献:
[1]Alexandra Ulmer and Anna Tong. Deepfaking it: America's 2024 election collides with AI boom[EB/OL].(2023-05-31).https://www.reuters.com/world/us/deepfaking-it-americas-2024-election-collides-with-ai-boom-2023-05-30/.
[2]Kindra Cooper.OpenAI GPT-3:Everything You Need to Know[EB/OL].(2023-09-27).https://www.springboard.com/blog/data-science/machine-learning-gpt-3-open-ai/#h0.
[3]Kaushal.9 best face swap apps for Android and iOS (2019)[EB/OL].(2019-07-16).TechWiser,https://techwiser.com/ best-face-swap-apps/.
[4]Homeland Security.Increase Threat of DeepFake Identities[R/OL].(2022-10-06).https://www.dhs.gov/sites/default/files/publications/increasing_threats_of_deepfake_identities_0.pdf.
[5]KIETZMANN J, LEE L W, MCCARTHY I P,et al. Deepfakes:Trick or treat?[J].Business Horizons,2020(02):135-146.
[6]Cleo Abram.The Most Urgent Threatof Deepfakes Isn’tPolitics.It'sPorn[EB/OL].(2020-06-08).VOX,https://www.vox.com/2020/6/8/21284005/urgent-threat-deepfakes-politics-porn-kristen-bell.
[7]Citron, Danielle Keats.Sexual privacy[J].Yale LJ,2018(128):1870.
[8]Dave Gershgorn.Deepfake Music Is So Good It Might Be Illegal[EB/OL].(2020-05-01).OneZero,https://onezero.medium.com/deepfake-music-is-so-good-it-might-be-illegalc11f9618d1f9.
[9]Nick Statt.JayZ tries to use copyright strikes to remove deepfaked audio of himself from YouTube[EB/OL].(2020-04-28).The Verge, https://www.theverge.com/2020/4/28/21240488/jay-z-deepfakes-roc-nationyoutube-removed-ai-copyright-impersonation/.
[10]MIT做了条尼克松宣布登月失败的假视频[EB/OL].(2020-07-21).https://www.thepaper.cn/newsDetail_forward_8367548.
[11]福山.“后事实”世界的兴起[J].中国新闻周刊,2017(05):22-23.
[12]谢进川,唐恩思.深度伪造的社会伤害与治理争议[J].新闻与写作,2023(04):96-105.
[13]Chiradeep BasuMallick.What Is Deepfake? Meaning, Types of Frauds,Examples,and Prevention Best Practices for 2022[EB/OL].(2022-05-23).Spiceworks. https://www.spiceworks.com/it-security/cyber-risk-management/articles/what-is-deepfake/.
[14]SALLY ADEE. World’s First Deepfake Audit Counts Videos and Tools on the Open Web[EB/OL].(2019-10-07).IEEE Spectrum, https://spectrum.ieee.org/the-worlds-first-audit-of-deepfake-videos-and-tools-on-the-open-web.
[15]罗昕.计算宣传:人工智能时代的公共舆论新形态[J].人民论坛·学术前沿,2020(15):25-37.
[16]何康,张洪忠,刘绍强,等.认知的罗生门效应制造:深度伪造在俄乌冲突中的案例分析[J].新闻界,2023(01):88-96.
[17]人工智能生成视频或扰乱2024年美国总统选举[EB/OL].(2023-05-31).https://www.cnfin.com/yw-lb/detail/20230531/3874392_1.html.
[18]Steven Musil. TikTok Bans Some Deepfakes Amid Security Concerns[EB/OL].(2023-03-21).https://www.cnet.com/news/social-media/tiktok-bans-some-deepfakes-amid-security-concerns/.
[19]Nick Barney. Deepfake AI (deep fake)[EB/OL].(2023-03).TechTarget,https://www.techtarget.com/whatis/definition/deepfake.
[20]United Nations Population Fund. A new copyright for the human body.[EB/OL].(2022-12-01).https://wcaro.unfpa.org/en/news/new-copyright-human-body-0.
[21]David Ruiz.Deepfakes laws and proposals flood US[EB/OL].(2020-01-23).https://www.malwarebytes.com/blog/news/2020/01/deepfakes-laws-and-proposals-flood-us.
[22]Amanda Lawson. A Look at Global Deepfake Regulation Approaches[EB/OL].(2023-04-24).Rsponsible Artificial Intelligence Institute,https://www.responsible.ai/post/a-look-at-global-deepfake-regulation-approaches#:~:text=The%20EU%20has%20proposed%20laws,of%20global%20revenue%20for%20violators.
本文引用格式参考:
罗昕, 周源.深度伪造技术的传播风险及其治理[J].青年记者,2023(23):84-87.
责任编辑:焦力