在国庆假期期间,网友恶搞的雷军AI配音突然爆火,引发了诸多争议。AI造假音视频,似乎已经成为一个无法关闭的潘多拉魔盒。在更早之前,韩国爆发的Deepfake危害事件就曾引发全球关注。根据相关报道,最初是由多名韩国女性通过社交平台,披露了传播Deepfake换脸不雅视频的事件。随后,有越来越多的危害事件与受害人被爆出。
根据社交媒体流传的受Deepfake影响名单,有超过百所韩国中小学以及国际学校出现相关问题。有韩国官员表示,受害者可能达到22万人。
这里大家可能会有这样一个疑问:为什么多年来人人喊打的Deepfake反而愈演愈烈?
要知道,早在2017年Deepfake刚刚出现的时候,仅仅几天就遭到了全球范围的合力封杀,包括但不限于主流社交媒体的严格封禁。此后,多个国家与地区采用了立法的形式,严禁利用Deepfake以及其他AI换脸技术侵犯他人肖像权与隐私权。
危害难以杜绝,是因为Deepfake技术高深,让人防不胜防吗?
答案刚好相反,Deepfake难以禁止的原因,恰恰在于其过分简单,只需要简单的技术资源就能造成巨大的破坏性影响。
而这些资源,在今天的互联网环境下能够轻而易举地获取。
我想,我们没有必要从人性和动机上讨论为什么有人制作和传播AI换脸视频。只要违法成本够低,这种行为就必然无法杜绝。作为普通人,我们也难以从立法和执法的角度探讨如何打击Deepfake。我们能做的,是审视进行Deepfake的真实情况,进而考虑如何增大违法难度,压缩这种行为的生存空间。
Deepfake被很多媒体称作“人类最邪恶的AI技术”。这种描述有其合理性,但也客观上对Deepfake进行了妖魔化、神秘化的修饰,让不了解的人将其与黑客、勒索病毒、暗网等关键词联系起来,认为其非常隐秘而高深。
事实恰恰相反,Deepfake的危害性与破坏性,恰恰在于其操作简单。近乎没有任何技术学习门槛,同时其所需要的每一步帮助,都可以在公开的互联网环境中堂而皇之地获取。
试想一下,韩国的22万名受害者,不可能都是某几个技术大牛进行的施暴。当普通人可以随时随地,没有成本地作恶,恶意才真正难以被遏制。
之所以这样说,是我们必须先了解Deepfake的具体流程。一般来说,使用Deepfake进行AI换脸,需要经历以下几个步骤:
1.准备Deepfake相关软件,或者找到具有类似功能的在线AI开发平台。
2.准备要进行人脸替换的视频,对视频进行照片化切图。
3.挑选出若干照片中要替换的人脸并进行操作。俗称切脸,提脸。
4.将准备好的照片进行覆盖,进而进行模型训练。这一步对于缺乏技术功底的人来说,大概率需要预训练模型来辅助训练。
5.训练完成,生成视频。
从这个流程中我们可以总结出,想要进行一次有危害性的Deepfake最多只需要四件东西:AI换脸软件、预训练模型、被换脸的视频、受害人照片。
获取这些东西过分容易,就是Deepfake百禁不绝,反而流毒更广的核心原因。
我们可以来分步骤看看,Deepfake的“作案工具”究竟来自哪里。讨论这些的原因绝不是希望普及相关知识,而是希望指出互联网环境下,留给Deepfake作恶者的机会与漏洞究竟在哪里。这些漏洞不被斩断,仅凭道德层面的号召倡议,或者对AI换脸视频的技术识别,是断然无法组织别有用心者的。
首先,AI换脸必然需要受害人的照片。根据相关技术社区的分享,最初版本的Deepfake大概需要50张、多角度、高清晰度的照片,才能实现较为自然的视频合成。但经过几年的迭代,目前只需要20张左右的照片就可以实现。
试想一下,对于稍微有社交媒体分享习惯的朋友来说,20张照片被盗用简直是轻而易举。
加上一段很容易找到的不雅视频,一场无妄之灾可能就此开启。
得到了受害人的照片信息之后,不法分子就要找到可以进行Deepfake的软件。Deepfake的创始人最早是将软件与教程分享到了Reddit上,此后很快被官方禁止。一气之下,作者就将这款软件的代码全部放到了Github上进行免费分享,可供随时下载与使用。
到2022年,相关软件已经升级到了DeepFaceLab 3.0版本,不仅可以在作者的Github下载,在中文互联网环境中还有大量QQ群、网盘链接进行分享。
更为可恶的是,在各个下载渠道中获得的DeepFaceLab,都有非常详细的中文说明与操作指引。而在切脸这类比较繁琐的工作上,甚至有专门软件进行加速。
唯一可能给不法者造成阻碍的,是AI换脸依旧需要比较好的显卡来进行训练加速,但中高端的游戏显卡也已经完全足够。
获取成本为0的不法软件,技术成本为0的操作难度,构成了Deepfake真正恐怖的地方。
到以上为止,如果是一个有AI技术能力的人,已经获得了全部进行Deepfake施暴的前提条件。但对不太了解AI技术的人来说,还有一个关键需求,就是获取预训练模型。
预训练模型,是AI开发的一个基本机制。由于大部分AI模型的前置训练任务是相同的,因此开发者倾向将相同的部分进行预训练,在同类任务中作为公用底座来使用。而在AI换脸任务中,由于难以掌握训练方法,大部分新手训练出的AI换脸模型会出现贴脸不自然,严重掉帧等现象。这时候就需要使用预训练模型进行训练,从而在提升模型精度的同时,也降低模型训练所需时间。
按理说,作为非技术人员的普通人,应该较难获得预训练模型来进行Deepfake吧?
事实并非如此,打开很多电商平台、二手交易平台,就可以轻松找到专用于Deepfake的预训练模型。这些模型一般被称为“AI金丹”。
在某主流二手交易平台,搜索AI金丹、AI仙丹、AI底丹,或者DFL丹药、DFL灵丹等关键词,会出现大量Deepfake预训练模型的出售联接。一般只需要几元钱成本。
由于平台缺乏监管,这类售卖行为长期存在,成为滋长恶行的“产业链”。就连上文提到的DeepFaceLab软件,很多时候也可以在二手交易平台买到,卖家还对进行操作教程与指引。
而这种“AI仙丹产业链”另一个难以杜绝的地方在于,一个Deepfake用户熟练操作之后,又可以将自己的模型制作为预训练模型,也被俗称为“炼丹”。炼好的弹药再到二手平台进行贩卖,这种灰色产业就这样不断扩散绵延。
总结Deepfake施暴者每一步的支持来源,是为了指出杜绝其危害,真正应该着手发力的地方。
目前相关话题的讨论,经常会陷入某种误区:总是想要用非常前沿的,高成本的方法去阻击Deepfake,比如倡导利用AI技术来鉴别视频是否为AI生成等。
当然,通过AI算法来分辨AI换脸有重要的应用场景,比如在AI换脸诈骗识别上,检测视频造假就至关重要。
但在类似韩国Deepfake事件,这类利用AI换脸炮制不雅视频的犯罪中,识别视频为假是无力的,甚至是无用的。
对于造假者与传播者而言,他们大多不在乎视频是否为假。依靠高精尖的智能化技术去检测Deepfake,就像用微小的技术沙袋,去堵决堤的人性江河,不过是扬汤止沸而已。
更有效的方法,或许是釜底抽薪,是从源头上杜绝别有用心者尝试Deepfake。
首先,或许我们需要在社交媒体上分享照片时更加慎重。诚然,不能让受害者承担制止犯罪的义务,但在这个充满不确定性的网络环境中,个人隐私的保护责任也在变得愈发重要。
接下来,是对相关软件要采取更具严格的封禁策略。对传播类似软件采取适当的制止行为。尤其在AIGC兴起后,大量新型平台开始为普通开发者提供各种各样的AI开发功能。一定要谨慎提防类似功能混迹其中,成为新的AI安全漏洞。
此外,电商平台与二手交易平台需要更加严格监管。堵住Deepfake软件与预训练模型的售卖渠道。切断利益链,往往是禁止不法行为的关键。
在今天,我们与Deepfake的斗争才刚刚开始。对它的祛魅与了解,是抵制恶意的第一步。