kaggle比赛汇总(KaggleDeepfake奖金百万各界封杀的它触犯了谁的利益)
kaggle比赛汇总(KaggleDeepfake奖金百万各界封杀的它触犯了谁的利益)2019年6月13日,美国众议院情报委员会召开关于人工智能深度伪造的听证会,公开谈论了深度伪造技术对国家、社会和个人的风险及防范和应对措施。听证会众专家一致认为,Deepfake技术不仅对政治领域有很大影响,同样对新闻行业也有影响,人们将不再信任公众媒体,这将会对公众信任造成巨大打击。小编当时就觉得,这不是小题大做么?只是因为佩洛西和扎克伯格的假视频?这种搞笑视频能对政治社会层面有多大影响?然而打脸总是来得那么快:据悉,不久前Facebook宣布关闭数百个虚假发布政治内容的账号,这些账号冒充媒体、政党、公众人物发布政治相关内容。一些账号使用Deepfake伪装成美国公民的个人资料照片,而发布的内容不是在支持特朗普,就是在攻击特朗普的竞争对手!试想一下,如果这些账号没有被关停,许多不明真相的群众将会对这些“政治家”信以为真,他们会在长期接触这些虚假信息中迷失对真相的判定和认知,而这种判定认知
一、百万美金的kaggle大赛
最近,kaggle的一项比赛引来了各界广泛热议:Deepfake视频检测。比赛旨在检测deepfake和被操纵的媒体,这项比赛奖金高达百万美金!小编仔细翻看比赛介绍,发现这次比赛的赞助商竟是由AWS,Facebook,微软,人工智能媒体诚信指导委员会的合作伙伴,以及学术界人士共同赞助推进,这么大手笔的比赛为哪般?
[kaggle官网截图]
二、Deepfake 搅乱美国政坛
2019年6月,艺术家Bill Posters和Daniel Howe在Instagram发布了一个关于Facebook首席执行官马克·扎克伯格的视频。视频中扎克伯格谈论到:通过Spectre漏洞,一个人能够完全控制着数十亿人被盗的数据,他可以掌握着他们所有的秘密,生活和未来。这真是一段令人震惊的发言,视频迅速引起了围观,然而事实上,这是一段假视频,但视频中的人无论是相貌,还是声音,都与扎克伯格几乎一模一样,他有丰富的面部表情,甚至会使用肢体语言来配合表达自己的思想。
有趣的是,这段视频发布的时机。就在这个视频发布前不久,有人通过加速、减速、切割、升调等方法编辑了一段美国众议院议长南希·佩洛西的视频。视频中的南希·佩洛西,讲话磕磕绊绊,像是嗑药了一样。这让与佩洛西一向不和的美国总统康纳德·特朗普可逮到了机会:特朗普转发了这个视频并配文字“PELOSI STAMMERS THROUGH NEWS CONFERENCE”(佩洛西在新闻发布会上结巴)
[图片来自优酷]
然而被发布的社交平台Facebook是怎么做的?Facebook没有删除这个引起政界大佬争议的视频,他公开拒绝删除佩洛西假视频,官方回应称:这个视频没有违反平台政策,所以我们不会删除这种假视频,但是我们会打上“假视频”的标签,让用户知道视频不是真的。而在这之后不久,就有人发布了本文开头提到的扎克伯格假视频。
[图片来自优酷]
三、美国国会针对Deepfake立法动向
2019年6月13日,美国众议院情报委员会召开关于人工智能深度伪造的听证会,公开谈论了深度伪造技术对国家、社会和个人的风险及防范和应对措施。听证会众专家一致认为,Deepfake技术不仅对政治领域有很大影响,同样对新闻行业也有影响,人们将不再信任公众媒体,这将会对公众信任造成巨大打击。小编当时就觉得,这不是小题大做么?只是因为佩洛西和扎克伯格的假视频?这种搞笑视频能对政治社会层面有多大影响?然而打脸总是来得那么快:据悉,不久前Facebook宣布关闭数百个虚假发布政治内容的账号,这些账号冒充媒体、政党、公众人物发布政治相关内容。一些账号使用Deepfake伪装成美国公民的个人资料照片,而发布的内容不是在支持特朗普,就是在攻击特朗普的竞争对手!试想一下,如果这些账号没有被关停,许多不明真相的群众将会对这些“政治家”信以为真,他们会在长期接触这些虚假信息中迷失对真相的判定和认知,而这种判定认知的迷失将会对美国这种在总统选举制度下的选举结果造成多么大的影响!
四、抵御Deepfake是否是保护“真相”的唯一途径
第一个广为人知换脸视频出现在2017年11月,当时一个名为“deepfakes”的Reddit用户上传了一系列视频,视频中将盖尔·加朵(Gal Gadot)和斯嘉丽·约翰逊(Scarlett Johansson)等著名女演员的脸嫁接到其它色情作品演员的身体上。从那时起,公众和新闻媒体开始使用“deepfake”一词来指代使用“deep”深度机器学习和“fake”假照片来混合生成这种换脸的视频。这些假视频是使用一套机器学习和人工智能技术制作的,这些技术能够对视觉数据进行复杂的操作,特别是身体的运动。有些人对这种技术的丰富表现力着迷,而其他人看到了这种能把语言和行动安在其他人的嘴和身体上的技术的可怕后果。
新闻报道对这种假视频发出了探讨:如果视频不能再被信任作为某人做了某事的证据,那么真相又将怎样才能被证明?Deepfake是否是人们对社会信任衰退的信号?
记者和政治家等声称Deepfake破坏民主的能力:篡改选举,危害国家安全,或引发广泛的对女性AV换脸的暴力事件。新闻报道称,Deepfake将破坏信任,人们从此以后将不能用视频作为证明“真相”的证据。但这些报道往往忽略了 “真相”从来就不一定是真正的真相,而是由社会、政治和文化决定的。
说到底,人们为什么要抵御Deepfake?是害怕Deepfake动摇公众媒体真实性?往后将无人相信公众媒体的报道和言论?实际上,人们对Deepfake的畏惧,其实是害怕“真相”的缺失。然而纵观历史,将什么算作“证据”,一直以来都是作为维护强权的关键性工具,要想保护真相,首先从政府方面要坚决态度,Deepfake的暴力只能通过技术和社会解决方案的结合来解决。但小编认为,除非那些最易受暴力侵害的群体能够影响公共媒体系统,否则恐怕Deepfake的灾难,将只是人们对社会信任衰退的开始。
[图片来自百度]
可以想象,这种应用在高速发展短视频的中国也同样适用。国内,快手抖音为主的短视频如火如荼。可是短视频非法内容远远跟不上约束短视频法规的发展。随着5G到来,短视频还会呈高速发展。许多同学也很犹豫转型算法岗位,CV太过饱和,NLP没有太好实际落地,如何能更好的选择方向,我们推荐可以重点考虑视频的侦测领域,这个领域区别于图像,但是又从图像技术中发展而来。继承了CV deeplearning大部分特点。美国已经有了很多视频鉴定类的创业公司发展迅速,他们为facebook和其他媒体提供服务。我们是否能从中得到更多启示?俗话说的好“知己知彼,方能百战百胜”,我们要想检测假视频,就要先了解制作假视频的技术特点。敬请期待,我们第二篇deepfake文章详细介绍现在deepfake技术发展的情况。