登录×
电子邮件/用户名
密码
记住我
假新闻

可怕的假新闻

一段特朗普宣布对朝鲜发动核战争的伪造视频,在YouTube上会产生什么影响?这种情形如今并非天方夜谭。

想象一下,当你照镜子时,你看到的不是自己的镜像,而是唐纳德•特朗普(Donald Trump)。每当你对着镜子龇牙咧嘴时,他的脸也变得扭曲。你笑,他也笑。你怒目而视,他也怒目而视。也就是说,你在实时控制美国总统的脸。

这就是Face2Face的邪恶潜力。由加州斯坦福大学(Stanford University)研究员研发的这项技术,让人把自己的面部表情移植到别人的视频上。

现在想象一下,把这项“表情重现”技术与经过巧妙剪辑的美国总统以往公开发言的音频片段结合起来。你把自己的创作发到YouTube上:一段足以令人信服的特朗普宣布对朝鲜发动核战争的视频。在当前这种疯狂的大环境下,在白宫来得及否认之前,这段煽动性的视频很可能会像病毒一样迅速传播。

这是终极版的假新闻剧情,但并非不可想象:科学家已经通过篡改YouTube上乔治•W•布什(George HW Bush)、巴拉克•奥巴马(Barack Obama)和弗拉基米尔•普京(Vladimir Putin)的视频,展示了这个概念。

现在美国国防高级研究计划局(DARPA)已经启动“媒体取证”(MediFor)研究计划。DARPA表示,该计划将力求在“目前有利于操纵者”的一个领域扭转局面——如果伪造新闻的目标是宣传或散布误导信息,操纵者的罪恶优势就变成一个国家安全问题。

这项五年计划旨在推出一套系统,能够每天分析数十万图片,并即刻评估这些图片是否被篡改。新罕布什尔州达特茅斯学院(Dartmouth College)电脑科学家哈尼•法里德(Hany Farid)教授是参与该计划的学者之一。他的专长是探测被篡改过的图片,他的工作包括执行执法机构和媒体机构分派的任务。

“我现在看到技术已经非常发达,这让我深感担忧,”法里德教授不久前向《自然》(Nature)杂志表示,“在未来某一时刻,我们将达到可以制作出带有音频的世界领导人的逼真视频的阶段,那将令人非常不安。”他把与操纵者较量的努力比作一场科技军备竞赛。

目前而言,发现伪造图片需要时间和专业知识,这意味着大部分伪造图片畅通无阻地传播着。识别问题图片的第一步是进行逆向图片搜索,比如使用谷歌图片搜索(Google Image Search),如果该图片曾出现在其他地方,它将被检索出来(该方法在发现科学造假方面——比如论文作者抄袭他人图表——被证明格外有用)。

对于照片,可以仔细查看有没有异常边缘或色彩紊乱。一幅彩色图像是由一个个单色像素构成的。这些独立像素块以特定方式组合起来,构成一张照片中的众多色调和阴影。插入另一个图像,或用喷枪工具抹掉什么东西,都会打乱这种有特征的像素化。阴影是另一个透露图像真伪的元素。法里德教授引用了2012年一段广为流传的鹰抓走孩子的视频:他很快分析出视频中的阴影不一致,从而揭穿了这段视频是由电脑合成的。

麻省理工学院(MIT)的研究员也研发了一种巧妙办法来判断视频片断中的人物是真实的还是合成的。通过放大视频片段并检查人脸上的色彩差异,他们可以推断出这个人是否有脉搏。有意思的是,一些法律专家认为,保护言论自由的美国宪法第一修正案应该适用于电脑合成的儿童色情。已经有一些案件的结果有赖于专家们能够探测违法材料中是否有真实的受害人。

机器学习正在帮助欺诈者:坚持不懈的造假者可以打造“生成对抗网络”(GAN)。GAN可以说是某种双重人格(Jekyll and Hyde)网络,一方面生成图像,另一方面拒绝那些在真实度上达不到图片库标准的图像。结果就是一台内置“魔鬼代言人”的机器,能够自己学会如何制作出以假乱真的图片。

然而,并非所有合成图片都是恶意的:两个学生研发了一套程序,能够制作看起来像是精美艺术的艺术。他们所用的原始材料是WikiArt数据库中的10万幅绘画:这个名为GANGogh的程序已经制作出适合挂在百万富翁的豪宅墙上的作品。

这是数字造假的史诗般影响:它不仅可能搅乱政治和破坏世界秩序,还可能重塑我们对艺术的观念。

本文作者是一名科技评论员

译者/何黎

读者评论

FT中文网欢迎读者发表评论,部分评论会被选进《读者有话说》栏目。我们保留编辑与出版的权利。
用户名
密码

相关文章

相关话题

FT中文网客户端
点击或扫描下载
FT中文网微信
扫描关注
FT中文网全球财经精粹,中英对照
设置字号×
最小
较小
默认
较大
最大
分享×