0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

什么是Deepfake?为什么Deepfake生成的假脸会这么自然?

zhKF_jqr_AI 来源:未知 作者:李倩 2018-09-03 08:46 次阅读

编者按:自换脸工具Deepfake风行全球后,人们开始意识到除了诈骗短信、诈骗电话,现在连视频都能“诈骗”了。为了应对这种由新技术带来的犯罪风险,近来研究人员一直在努力发掘虚假视频和真实视频的区别,而就在本月初,美国国防部正式宣布了纽约大学开发的一个检测工具,他们找到了GAN生成视频的一些明显特征。

当时美国国防部把这项技术誉为人类对于AI的军备竞赛的一个开端,近日,这项技术的开发人员接受了媒体采访。让我们结合报道和论文,近距离看看他们的方法究竟怎样。

Deepfake当前的缺陷是没法找到足够闭着眼睛的图像

随着2018年年中将近,美国大选活动也开始逐渐升温,在诸多宣传中,一种新形式的虚假信息开始在社交媒体上广泛传播。这种生成虚假视频的技术叫做“Deepfake”,它能把视频中的脸换成其他人的脸,同时保持脸部肌肉运动和谐,口型和声音匹配。

结合政治宣传,这意味着任何人都能“恶搞”候选人,制作他们“演讲”“活动”的假视频。

由于这项技术十分新颖,效果又格外出色,普通人如果不仔细看,可能无法分辨真实视频和虚假视频之间的区别。为了防范它背后的社会安全隐患,近日,纽约大学的研究人员找到了一种区分真假视频的可靠方法,他们发现在虚假视频中,人物的头部动作和瞳孔颜色通常会很怪异,当人眨眼时,它的眼球会出现诡异运动。

什么是Deepfake?

既然要对抗虚假视频,就让我们先从Deepfake讲起,下面是它的作品“案例”:

视频中左侧为真实视频,右侧是Deepfake的加工产品。它的工作机制类似各语言间的互相翻译,先使用一种称为深层神经网络机器学习系统来检查一个人的面部运动,再合成目标人物的脸,让后者作出类似的动作。

在生成逼真的视频前,这个深层神经网络需要大量目标任务图像数据,图像的数量和多元性决定了网络的“学习”效果——数据越多,模拟效果就越逼真。

上图是对神经网络训练、测试过程的细化图解。看罢视频,也许有人会有疑问:为什么Deepfake生成的假脸会这么自然?这是因为在训练期间(Training Phase),我们会先把目标人物A的脸抠出来,定位好五官位置,训练一个无论如何扭曲A的脸,最后都能生成正常A脸的网络。

一旦上面的网络训练好,我们就可以往其中输入B的脸。这时在神经网络看来,B的脸其实就是经扭曲的A的脸,所以它会直接“纠正”。至于表情和口型等细节,这在训练过程中就已经学会了,数据越多,效果越好,相信这点不难理解。

除了上述基础内容,为了确保生成效果,我们还要关注清晰度、人脸识别效果、图片融合等问题。

眨眼/不眨眼?

如果我们再去观察上面这个视频,相信不少细心的读者会发现:在虚假视频中,人物往往“双眼无神”,几乎不怎么眨眼。这正是目前Deepfake的一个弱点。

当然,这个弱点并非来自算法本身,更多的是它使用的数据集。健康成年人的眨眼频率是2-10秒一次,一次眨眼耗费十分之一到十分之四秒。在真实演讲视频中,主讲人眨眼是十分正常的现象,但虚假视频里的假人几乎个个是“不眨眼”大师。

把主持人的脸换成尼古拉斯·凯奇(对应视频帧)

这是因为当训练深层神经网络时,我们用的是来自网络的静态图像。即便是尼古拉斯·凯奇这样的公众人物,他的大多数照片都是睁眼的,除非为了某种艺术效果,摄影师也不会公布明星的闭眼照。这意味着数据集中的图像没法表示眼球的自然运动方式。

既然数据集中几乎没有眨眼图像,那么Deepfake学会“眨眼”的概率就几乎为零。但看到这里也许有人会有疑问,之前的视频中明明也出现了眨眼镜头,这个依据是不是不可信?这就要联系人类眨眼的频率和速度。

上面是真假视频中人物的眨眼记录,研究人员统计了所有视频中的真人眨眼频率,并框定了一个范围,他们发现Deepfake视频中假人的眨眼频率远低于这个范围。

如何检测眨眼?

有了上述发现,整个“打假”问题就可以被简化为“眨眼检测”问题。

论文作者开发了一种检测视频中人物何时眨眼的方法。更具体地说,他们引入了两个神经网络,其中第一个网络先扫描视频的每一帧,检测其中是否包含人脸,如果有,自动定位到眼部。之后,第一个网络把眼部截图输入第二个网络,由它利用眼睛的外观、几何特征和运动来判断这是睁眼还是闭眼。

下面是第二个深层神经网络LRCN的示意图:

它包含三个模块:特征提取、序列学习和状态预测。

其中特征提取模块(第二行)负责把输入的眼部图像转成神经网络可以“理解”的特征,这是个基于VGG16架构的CNN。序列学习模块(第三行)由RNN和LSTM构成,LSTM-RNN的使用是为了增加模型的信息存储量,避免在使用随时间反向传播(BPTT)算法时出现梯度消失。最后一个模块——状态预测,由全连接层构成,它输入LSTM的输出,并用一个概率预测是睁眼(0)还是闭眼(1)。

根据实验结果,LRCN的准确率高达95%。

当然,虽然论文只介绍了判断眨眼频率的方法,到这里就结束了。但根据之前Siwei Lyu的介绍,他们团队其实找到了一种更高效的技术,只是为了防止某些人恶意迭代Deepfake,这种方法暂时需要保密。

论文方法的缺陷

在接受媒体采访时,Siwei Lyu自己也坦言,论文只提出了一种短期内的有效方法,它的“寿命”可能很短,破解方法也很简单。

之前我们提到了,算法学不会眨眼,主要是因为没有眨眼数据。换句话说,如果我们能提供大量不同眨眼阶段的图像,那么深层神经网络学会眨眼只是时间问题。更有甚者,为了让尼古拉斯·凯奇学会眨眼,我们不需要派狗仔去偷拍,收集自己的眼部数据就够了。

此外,对于上面这类视频,这种方法也没法起作用。因为它不同于Deepfake的全脸移植,而是把假嘴和假声音(这年头合成声音也能造假)移到真人脸上。

这是去年美国华盛顿大学研究团队公布的一项成果,它不需要扫描大量的演讲影音资料,也不需要分析不同人说出相同句子的嘴形,只需影音素材即可,成本和规模更小,制作耗时也更短(17小时)。

因此,全民“打假”依然任重道远,这种方法只是当前迈出的第一步。未来,生成假视频和检测假视频将成为日常生活中的常见博弈,但这应该不是所有人希望看到的。在鼓励研究人员开发更靠谱的检测方法的同时,我们应该呼吁停止滥用技术。

除了不要再制作某些低俗、违法视频,电影工业也要把它用于正途,不要让技术沦为抠图流量明星的新“捷径”。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 神经网络
    +关注

    关注

    42

    文章

    4565

    浏览量

    98652
  • 算法
    +关注

    关注

    23

    文章

    4449

    浏览量

    90723
  • 人脸识别
    +关注

    关注

    76

    文章

    3953

    浏览量

    80532

原文标题:深度“打假”:通过眨眼检测“deepfake”视频

文章出处:【微信号:jqr_AI,微信公众号:论智】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    针对计算机生成的假脸假视频DeepFake较为全面测评的论文

    他们经过一系列实验发现,当前已有的先进人脸识别模型和检测方法,在面对 DeepFake 时基本可以说是束手无策——性能最优的图像分类模型 VGG 和基于 Facenet 的算法,分辨真假视频错误率高达 95%;基于唇形的检测方法,也基本检测不出视频中人物说话和口型是否一致。
    的头像 发表于 01-02 09:49 6944次阅读

    AI Deepfake再升级,以假乱真!安全性令人担忧

    Deepfake在技术上突破更大,人们愈加感到不安。
    的头像 发表于 06-12 13:54 3059次阅读

    DeepFake换脸术混淆视听 搅乱美国政坛

    最近,DeepFake 技术又一次站在了风口浪尖上。不只是因为它能在小电影上移花接木,而是立法者终于意识到它的可怕之处。
    的头像 发表于 06-17 09:35 2975次阅读

    伯克利打造AI识别系统,DeepFake不再可怕!精准判断真伪

    DeepFake假视频的泛滥早已经不只是恶搞和娱乐的问题了!这些假视频衍生出的假新闻可能会成为2020美国大选的一场噩梦。
    的头像 发表于 06-24 11:42 4558次阅读

    生成Deepfake也能诊断癌症,GAN与恶的距离

    那么,技术本身就存在原罪么?又是哪里出了错呢?
    的头像 发表于 07-09 10:17 2747次阅读

    用AI对抗AI——基于视频人脸篡改的检测

    Deepfake有救了!
    的头像 发表于 07-16 10:10 5142次阅读

    关上Deepfake的潘多拉魔盒,RealAI推出深度伪造视频检测工具

    诞生之初,Deepfake是一项有趣的图像处理技术,仅仅带来搞笑和娱乐视频,但殊不知,潘多拉魔盒就此被打开,催生出 黑产、恶搞政客操纵民意,Deepfake正逐步进化为一种新型病毒,人类伦理道德
    发表于 12-19 10:13 510次阅读

    自动驾驶在寒冬中孕育希望 Deepfake现已成魔

    本文回顾了语言模型成绩斐然、人脸识别遭遇阻碍、自动驾驶迟迟未实现、DeepFake进入主流等等AI领域的发展现状:有哪些技术突破面世,又遭遇了哪些新的困难?一起跟随吴恩达的Deeplearning.ai,来看今年AI最重要领域内的六大标志性事件和趋势。
    发表于 12-27 11:00 395次阅读

    AI合成视频爆炸性增长,Facebook牵头举办deepfake检测挑战

    deepfake技术利用AI算法,可以“扣出”影片、图片和音频中的特定人物,将他人取而代之。而根据阿姆斯特丹网络安全初创公司Deeptrace的最新统计,基于该技术的影像制品数目,正在网络上迅速增加。
    的头像 发表于 12-31 10:01 2502次阅读

    人工智能如何避免深度伪造的出现

    采用深度伪造(Deepfake生成的视频和音频,人工智能生成的文本、诗歌和歌词,假网站和假新闻进入人们的世界。
    发表于 02-28 11:41 2349次阅读

    AI换脸已不是新鲜事,深度揭秘AI换脸原理

    目前谷歌和加州大学伯克利分校的研究已经发表在学术网站arXiv上,论文标题为《用白盒、黑盒攻击绕过Deepfake图像鉴别工具(Evading Deepfake-Image Detectors with White- and Black-Box Attacks)》
    的头像 发表于 05-11 10:56 7769次阅读

    Facebook首届Deepfake检测挑战赛的结果:平均准确率65.18%

    据外媒报道,Facebook日前宣布了其首届Deepfake检测挑战赛的结果,获胜算法能够以65.18%的平均准确率发现非常逼真的Deepfake虚假内容。Deepfake检测挑战赛旨在寻找能够识别出由人工智能(AI)操纵的视频
    的头像 发表于 06-15 10:19 2113次阅读

    阿里DeepFake检测技术获国际顶会认可,实现更好的检测效果

    一段包含多个人脸的视频中,攻击者只对一个或者几个人的人脸进行伪造,这种“半真半假”的伪造情况能否被检测识别?近日,阿里安全图灵实验室宣布,其已成功打造出针对这种换脸视频的DeepFake检测技术,阐述该技术的论文被国际学术顶会ACM MM2020收录。
    的头像 发表于 09-02 17:06 1766次阅读

    用 “心跳”识别假视频,准确率高达 97%

    Deepfake 真是让人又爱又恨。 众所周知,基于深度学习模型的 Deepfake 软件,可以制造虚假的人脸视频或图像。它在影视、娱乐等行业有着广泛的应用场景。 但自 2017
    的头像 发表于 10-30 16:34 2615次阅读

    LastPass成功抵御Deepfake音频攻击,员工警惕度高未受影响

    据LastPass情报分析师麦克·科萨克介绍,该次攻击中,一位员工接收到多通电话、短信以及至少一封语音邮件,均为威胁者通过WhatsApp假冒公司CEO发出的Deepfake音频。
    的头像 发表于 04-12 15:41 68次阅读