DeepFake再度升级!社交媒体平台遭遇史上最大危机

安全可控的 RealAI 昨天
当研究人员试图猜测什么样的操纵活动可能会威胁到2020 年的选举时,DeepFake必然名列榜首。

虽然这项技术还未成熟,但其被滥用的可能性却令人发指。以至于大量科技公司和实验室都开始了对DeepFake检测研发工作的资助,试图缓解DeepFake带来的破坏性。

大型社交媒体平台更是为含有 “合成和操纵性媒体”的帖子出台政策,希望在保护“表达自由”和“遏止假新闻大肆传播”之间找到平衡点。

现在距离美国大选——11 月 3 日还有 3 个月左右的时间,DeepFake似乎从未消失。取而代之,这类操纵性内容演变出一种新的形式“霸占”各大媒体平台——即深度伪造文本。



DeepFake文本内容相较于深度伪造视频更难被察觉,有可能成为互联网上一股无孔不入的新型“流言病毒”。

上个月,OpenAI开发的文字生成工具GPT-3,天文数字级别的1,750亿参数量,能够产生令人震惊甚至是超现实的句子。

有了GPT-3的加持,DeepFake文本的生成变得易如反掌,内容也越来越难以与真实文本区分开来,我们可以想象,如果未来在互联网上看到的绝大多数文字内容都有可能是机器产生的,我们对世界的看法是否会因此受到影响?




1

“眼见为实”观点再度被动摇


事实上,DeepFake的诞生并不是让我们对“眼见为实”这一看法产生动摇的第一个拐点。

三十年前,当 Photoshop、After Effects 等图像编辑以及CGI等合成工具开始出现时,人们立即意识到了这些工具在艺术创作中的变革潜力以及它们对我们对世界感知的影响。

Macworld曾在2000年发表的一篇文章中宣称:“Adobe Photoshop 历史上对人类生活改变影响最大的工具。”后来,Adobe公司又宣布推出 Photoshop 6.0。如今,摄影师、艺术家们都在使用Photoshop对他们的作品进行修饰,包括很多色情作品也是PS美化过的。



但如今,我们已经完全接受了PS这项技术,在看到每一张精美照片的时候,虽然我们也会对照片是否经过PS处理产生了一定的怀疑,但不过再有人相信杂志封面上的模特是没有被P过的。

但今天的DeepFake与PS又有所不同。AI生成的操纵性内容,如深度伪造视频或 GPT-3输出的文本信息,这类技术手段一旦被他人恶意使用,我们很难找到未经修改的原始文件去进行对比,想要查证事实、寻找证据难于登天。

在 2000 年代初,也出现过明星、政治人物PS过的照片被流出,但照片中的处理痕迹很容易被一眼识破。

但在 2020 年,面对知名女性出现在色情片段中,以及各国领导人说一些他们从未说过的话时,公众一时间很难分辨出其中的真假。即使社交媒体平台认识到了这一问题并试图缓解DeepFake带来的负面影响,但他们也难以扭转公众的认知,他们能做的也仅仅是将AI合成的操纵性内容与仅经过“PS修饰”的媒体内容区别开来。




2

社交传播生态系统遭遇危机


无孔不入的AI生成内容很有可能扭曲我们的社交传播生态系统。不过,要想对DeepFake 内容进行管理,必须让人们知道什么内容是DeepFake伪造的。

在现存所有形式的DeepFake内容中,视频可能是最容易检测的。

我们可以通过一些“软生物特征”来进行鉴别:比如画面中人物的面部动作诡异、耳朵或牙齿呈现的效果很差,或者监测细微的颜色变化来判定画面中的人物是否有心跳等。



这些“暴露点很多时候可以通过调整来解决。例如,在 2018 年的DeepFake 视频中,画面中人物的眨眼频率要比常人慢,但这一发现公布后不久,这一问题就被修复了。

而与视频相比,DeepFake音频则更加微妙——由于没有画面信息,所以合成音频被检测到错误的几率更小。当然,研究者也在继续对这些DeepFake内容进行研究,伪造方和鉴定方之间的战争将一直持续下去。

只不过,也许更重要的是,需要尽快让公众认识这项技术的危险性。

尤其AI生成文本代表了一个更具挑战性的前沿,它能够很轻易的大规模产生,但露出的“马脚”很小,检测难度更高。

当前,政治活动家和市场营销人员都认识到所谓的“声音份额”的价值。即如果很多人在同一时间或同一地点表达相同的观点,就可以营造出“观点正确”的感觉,不管说话的人是否具有代表性,甚至都不一定是“真人”。

随着生成评论的难度降低,所需的时间投入减少,未来将有可能就“任何可以想象到的主题”伪造出大量AI生成的假内容。

事实上,有可能很快就会出现阅读全网络内容然后形成“意见”、自主发布回应的AI。无边无际的新内容和评论库,由AI发起,然后再被其他AI发现、学会,如此循环反复,最终改变整个信息传播系统,影响公众获取信息的质量。



现在,如果对某些网站的公开评论进行检测,可以看到不少使用相同文本片段重复或循环使用的内容,这些评论使用同一段话术,淹没评论区,愚弄网站的话题标签,或通过铺天盖地的帖子影响舆论导向。

在过去的一系列操纵活动中,包括在美国政府就发薪日贷款和联邦通信委员会的网络中立性政策等话题征集公众意见的活动中,我们都能观察到这种策略

《华尔街日报》对其中一些案例进行了分析,发现了数十万条可疑的评论,这些评论之所以被认定为可疑,是因为它们包含了大量重复的长句子,不太可能是由不同的人自发撰写的。

但如果这些评论是由AI独立生成的,这样的操纵性活动很难被公众发现。




3

DeepFake“水军”带来的艰巨挑战


在未来,DeepFake视频和音频很可能被用来制作截然不同耸人听闻的内容,以引爆新闻界,或者转移其他丑闻的注意力。

但难以被检测的DeepFake 文本则可能埋伏于成Twitter、Facebook、Reddit 等网站上的常规聊天内容中,背后的目的更微妙、更普遍,也更险恶。

它们散发评论,伪造公众意见,并干预公众思考,影响广泛的社会舆,但被发现的可能性却微乎其微。

无孔不入的DeepFake“水军”将扭曲社交传播生态系统:AI生成的内容会收到AI生成的回应,而这些回应又会再反馈到以算法为媒介的策划系统中,这些系统又会根据参与度生成信息。



随着各种类型的DeepFake内容在互联网上蔓延,以及检测变得越来越困难,公众会发现越来越难以信任自己看到的内容。

但我们只能像之前对Photoshop所做的那样,限制这类工具的使用范围并逐步接受周围媒体内容的变化,虽然适应起来可能并不那么容易。

不过最重要的是,我们必须学会甄别媒体内容的真伪,学会评估它真正的内容信息而不是根据它在互联网上的数量多少来做判断。



往期回顾