微信分享链接失效(ZAO微信分享链接已停止访问)
微信分享链接失效(ZAO微信分享链接已停止访问)ZAO的火爆早在8月上旬内测阶段就有苗头,甚至在上线后,官方都都有点hold不住的赶脚:「换脸」就这么个意思,防止侵犯隐私将就看看吧编剧都不敢这么写。。。事情的来龙去脉想必屏幕前的你也知道关于ZAO换脸APP的七七八八。不可否认,ZAO还是赚足了眼球,小智和朋友们也是玩的不亦乐乎。
ZAO这出戏可以说跌宕起伏了
前一天,朋友圈齐刷刷“变脸”刷屏
后一天,朋友圈齐刷刷批判用户协议侵犯隐私
这一天,微信分享链接已停止访问,用户协议整改
编剧都不敢这么写。。。
事情的来龙去脉想必屏幕前的你也知道关于ZAO换脸APP的七七八八。
不可否认,ZAO还是赚足了眼球,小智和朋友们也是玩的不亦乐乎。
「换脸」就这么个意思,防止侵犯隐私将就看看吧
ZAO的火爆早在8月上旬内测阶段就有苗头,甚至在上线后,官方都都有点hold不住的赶脚:
但也产生了一个深深的疑惑,这技术不新啊,怎么这会突然推出这样一个APP?毕竟之前FB就因此而被推上舆论的风口浪尖。
这里有个老实人
果不出其然,网友们和众家媒体已经在抨击其用户协议的种种问题。
不甘心当一个吃瓜群众的小智,今儿也给大家说道说道刷脸咋就引发这么多问题了。
换脸的内核是Deepfake技术
什么是Deepfake?
Deepfake一词由“Deep learning”(深度学习)和“Fake”(假)组成,其含义是在图像或视频中把一个人的脸替换成另一个人的脸。这项技术的出现可以说是人脸交换技术的一个重要突破。
Deepfake中文网站
几年前的Deepfake技术并没有像现在这样广泛的获取渠道,技术门槛也比较高。后来,有人推出了Windows程序FakeApp,即使是对人工智能或是对视频剪辑一窍不通的外行,只需要一个GPU和一些训练数据,再通过按部就班的操作也能制作出换脸视频。
同时,Deepfake在GitHub 上也已经开源,这一系列的变化都大大降低了Deepfake的获取门槛。
技术原理
从技术角度而言,Deepfake是深度图像生成模型的一次成功应用。
在模型训练期间,先把目标人物A的脸抠出来,定位好A的五官位置,训练出一个“无论怎么扭曲和变化A的脸,最后都能生成正常的A脸”的网络。
五官定位示意图
网络训练好后,我们再向其中输入B的脸。此时,在神经网络的逻辑看来,B的脸就是“以某种方式扭曲的A的脸”,需要它来进行“纠正”。并且数据越多,效果越好。
操作流程
在FakeApp上的具体的操作大体分为3个步骤:原始数据集获取,模型训练,视频生成。
首先,我们需要一个包含Nvidia GPU的个人电脑,至少4GB的存储空间。至于训练神经网络所需的材料,用户则需要提供至少几百张照片或者时长足够的视频,以便FakeApp从视频中提取所有帧。然后调整合适的参数,就可以开始训练了。
图片或视频上传操作
在训练过程中,FakeApp会显示一个分数,数值越大则表示训练结果的偏差越大。当这个值低于0.02时效果通常就OK了,此时可以停止训练程序。这一过程需要的总时长从十几到几十小时不等。
最后选择上面训练好的模型和需要的换脸视频,再设置合适的帧率,就可以得到一段自制Deepfake视频。
关键机制
其实AI换脸也不算是新鲜事,不过早期的换脸效果确实差强人意。
你看得出换上的是谁的脸吗?
那使用Deepfake生成的人脸为何如此逼真?
这很大程度上归功于一种叫做GAN(生成式对抗网络)的关键机制。
在GAN中有两个机器学习模型,一个扮演“造假者”,在数据集上训练后生成假视频;另一个则扮演“检测者”,不断地检测这些假视频,一直到它再也不能检测出结果是假的。
此外,用于训练的数据集越大,做出的Deepfake视频越真实。这也是为什么我们看到的Deepfake视频中出现的人物几乎都是著名的政客和明星——他们有太多的公开视频素材可供训练了。
尼古拉斯·凯奇:作品太多怪我咯?
人脸侵权风险惹争议
ZAO的用户协议显示:如果您把用户内容中的人脸换成您或其他人的脸,您同意或确保肖像权利人同意授予“ZAO”及其关联公司全球范围内完全免费、不可撤销、永久、可转授权和可再许可的权利。
言外之意,只要你使用了该软件,等同于你主动放弃自己的肖像权,软件方可随意使用你的肖像,即便把你的脸换到色情视频上,你也不能多说一句。
原先被各种换脸视频刷屏的微博朋友圈,一时间人心惶惶。网友们纷纷谴责ZAO的霸王条款,担心自己一不小心成为“网黄”,甚至会被不法分子盗用视频图片等进行人脸识别造成财产损失。
8月31日傍晚,ZAO的工程师们,用修改协议的方式,对隐私权质疑做了回应:其修改了其用户协议内容,在用户协议的开头部分增加了“特别提示”。
然而互联网用户隐私问题已经不止一次被推上风口浪尖。2018年,中国消费者协会发布了《APP个人信息泄露情况调查报告》。该报告显示,受访者中曾因个人信息泄露而被骚扰或侵害的人数占比高达85.2%;近七成受访者认为手机应用存在过度索取用户隐私权限的情况;近八成受访者认为手机应用采集个人信息是为了广告推销。
早前滴滴被曝强制向用户调取通讯录等多项隐私权限,随后,华住集团被曝有5亿条数据在暗网兜售。紧接着,快递巨头顺丰的3亿条数据疑似泄露、“剑桥分析”公司盗取5000万Facebook用户数据影响美国大选。
近日苹果又被爆出聘请合同工对Siri的录音定期进行监听和分析……接二连三的数据泄露事件,一次又一次撩拨着用户脆弱的神经,如何在互联网时代保护用户隐私的问题亟待解决。
别慌,有办法应对!
为了防范Deepfake背后的社会安全隐患,纽约大学的研究人员研究后发现:在Deepfake生成的虚假视频中,人物的头部动作和瞳孔颜色通常会很怪异,并且几乎不怎么眨眼。这成了目前Deepfake无法逃脱的bug。
观察原视频和造假视频对应的关键帧,可以看出,假脸人物在原视频的眨眼处并没有眨眼
据了解,这一bug并非来自算法本身的问题,而是它使用的数据集。
当训练深层神经网络时,我们使用的是来自网络的静态图像。即便是像尼古拉斯·凯奇这样的公众人物,他的大多数照片也都是睁着眼睛的,一般很少有人会有大量的闭眼照。既然数据集中几乎没有眨眼图像,那么Deepfake就无法“学会眨眼”,或者眨眼的时长和频率都远小于正常人。
这样的进展,可以算是“魔高一尺,道高一丈”了。
写在最后:
怎么说呢,小智写完这篇文章的心情是复杂的。ZAO产品本身是一个好创意,好玩法,也确实带给用户很多乐趣。
但这样一款技术本身就争议不断地产品,是不是在创作初期就应该将用户协议放在心尖上谨慎处理。也不至于到目前众矢之的的状况。
守护用户隐私安全,尊重每一位用户,才能让产品有存在的意义和空间。
以此为鉴!