亚搏亚搏

欢迎光临
我们一直在努力

应战Deepfake中科大斩获亚军,与第一名仅差0.0005

美国大选在即,为了防备 Deepfake 视频搅扰选情,Twitter 和 Facebook 别离做出了应对战略,Facebook 将会删去其确定的 Deepfake 视频,而 Twitter 打算在相关视频页面给出提示。

早在上一年年末,Facebook 就拿出 1000 万美元当奖金,举行全球范围内的 Deepfake 检测大赛。这也是 Kaggle 渠道前史上奖金额度最高的竞赛。

后经半年的鏖战,国际科技大学的俞能海、张卫明教授团队从全球 2265 支部队中锋芒毕露,取得亚军,终究效果与第一名仅差 0.0005。此次挑战赛共收到 3.5 万个检测模型,可以夺得第二,实属不易。

该团队的周文柏博士独爱 DeepTech,本次竞赛所取得的 30 万美元奖金会用于实验室建造和选手奖赏。

这支名为 “\WM/” 的部队,首要由中科大信息处理中心的博士后、博士生和硕士生组成。虽然团队获奖信息在其时并未引起媒体太多重视,却在业界广为人知。不少企业自动来寻求协作,周文柏泄漏,华为、浙江省广电等企业就期望可以运用人工智能技能,期望防备手机拍照的媒体资料、或许电台揭露的资料被歹意篡改。

图 | Deepfake 检测挑战赛

算力不优胜,却能取得第二名

值得重视的是,这次迄今最大规划的 Deepfake 检测挑战赛也暴露出,现在的检测技能远远不够。在练习数据集上可以到达 90% 精确率的模型,到了验证数据集上,均匀正确率只要 65.18%。

因而两个阶段的名次改动十分大,不少第一阶段体现优异的模型,到第二阶段败下阵来。为什么会呈现这种状况?

这与竞赛的数据集有关,进行练习一切数据集都是预先发布的;而在验证环节,许多直接来自视频网站,根本同等实战。正是在这些初次遇到的视频面前,一众模型纷繁失去了被调教出的火眼金睛。

来自中科大团队的周文柏博士解说,由于验证阶段的数据集许多是从视频网站上获取的野生数据,这会十分检测经过已知数据练习出模型的搬迁才能。在第一阶段中,排名靠前的许多团队来自企业,具有较好的算力资源,因而或许发挥的是算力优势,而非算法优势。

在练习阶段一些模型有潜在的过拟合现象。当遇到生疏数据集,这个缺陷就会被扩大。

难能可贵的是,中科大团队却势如黑马。第一阶段在 37 名,第二阶段直接蹿升到了第 2 名。

本次竞赛中,有的大型企业团队使用了 100 多块 NVIDIA V100 GPU,中科大团队只用了不到 50 块 NVIDIA RTX 2080Ti GPU。不管是数量仍是功能,中科大团队所使的 GPU 都与企业团队有较大距离,却仍旧能得到终究第二名的优异效果,这足以阐明其算法的优胜。

图 | 中科大参赛团队 \WM / 验证阶段取得第二名,比练习阶段名次上升了 35

Deepfake 检测归于二分类的问题,即判别是真仍是假。现有的分类办法大多是两种思路。一种从微观视点,沿袭的是计算机视觉中图画分类的办法,比方寻觅视频经过篡改所留下的像素痕迹,或是人脸部的纤细特征差异。

另一种微观视点,则学习了传统的取证技能的思路,从视频的全体内容进步行检测,比方语音信息和人像结合,人物形象和布景交融等方历来寻觅头绪。

周文柏介绍,他们团队的思路则介于微观和微观之间,将 Deepfake 检测作为一个细粒度分类的使命。传统的图画分类是指将花、猫、鸟等目标进行分类,而细粒度分类使命则是在某一个大类下,继续分出不同的类别,比方不同的鸟类、不同类型的轿车。

大多数 Deepfake 视频的篡改痕迹十分弱小、而且只会集在部分区域,因而模型首先要捕捉到这些纤细的篡改痕迹;其次,在应对实践状况时,包括光照、人脸转向等不同场景的改动,要求模型还能完成细节捕捉。

相较于密码学,或许互联网通讯这样的范畴,Deepfake 检测仍旧处于很开始的阶段,“哪种办法作用好,就向哪个方向去接近,没有完好的理论体系。” 周文柏描述,“咱们或许抓住了问题比较实质的视点,所以取得了比较好的作用。可是现在以为的这套理论也不一定正确。”

现在的 Deepfake 检测只能判别视频是真仍是假,在接下来的研讨中,周文柏和搭档想完成对视频的假造做出解说。此外,还期望更多地使用视频帧与帧之间的信息作为检测根据。

现在现已有一些办法在使用这种帧与帧之间的相关进行检测,可是使用还不充沛,这就导致视频的检测效果往往差于图画。“但视频有一个继续的特征,有或许比图画包括更多的信息,所以视频检测还具有十分大的研讨空间。” 此外,使用生物信号来检测,也是值得研讨的方向。

信息和人工智能安全研讨团队,多项技能现已使用

在此次 Deepfake 检测竞赛中凭仗一般的算力支撑,取得了第二名,显现了中科大团队在人工智能安全范畴的实力。这仅仅团队的效果之一。俞能海、张卫明教授团队来自中科大信息处理中心,他们研发的多项技能已在实践中运用。

图 | 俞能海、张卫明

其间,“摄屏溯源水印” 技能已在中电科、国家电网、国际电子、国际金融期货交易所等多家单位使用,并在 2019 年国家网络安全宣传周取得 “网络安全立异产品优异奖” 和最具出资价值奖。

电子年代的信息方法产生了改动。在许多时分,电脑屏幕上的内容被手机顺手拍照,就可以容易撒播出去,而且由于没有物理痕迹,难以查验。

中科大团队开宣告的 “数字水印” 便是在电子屏幕上以人眼看不见的办法打上水印。这样,被摄屏的相片就会留下符号,也便是水印中所供给的信息。用特别的东西从图片中提取信息,就可以得知拍照产生的时刻、地址、以及机器辨认码。经过这样的信息,就能在物理国际中进行泄密溯源和追寻。

图 | 数字水印技能

在人工智能安全范畴,团队也一向在与阿里巴巴进行协作。像淘宝、天猫等渠道的信息发布审阅中,需求过滤掉风险和有害的信息。或许存在的风险是,进犯者使用人工智能技能躲过信息审阅。团队在做的工作便是使用人工智能技能进行防护。

深度学习技能现在一向存在无法消除的缝隙,所以带来了相应的研讨主题:对立性进犯。

根据深度学习的计算机视觉技能虽然开展很快,却存在着丧命的缺点。举例来说,一张可以被模型辨认的图片,我们被参加一些噪声信息,虽然人眼看不出改动,但模型就无法精确辨认了。

除了网络上的信息安全或许受这项技能影响,这项也现已被美国写入 “算法战” 中。无人机侦测的意图是把军事目标辨认出来,然后传递给指挥部。使用对立技能,将噪音以物理方法添加在武器装备上,就可以搅扰无人机侦测,构成过错的作战指令。

在 Facebook Deepfake 竞赛获奖之后,团队也接到了许多相关的协作需求,华为、浙江省广电等企业期望可以运用人工智能技能,以防止手机拍照的媒体资料、或许电台揭露的资料被歹意篡改。

这归于关于 Deepfake 的自动防护。中科大供给的解决方案便是根据 “对立性进犯”,在媒体资料上添加噪音,不影响媒体视频自身的质量,可是却会对算法构成显着搅扰,然后无法进行篡改。

潘多拉魔盒已开,防患于未然

Deepfake 一词诞生于 2017 年,源于网友将深度学习技能运用到视频假造范畴,现在这个词现已泛指图片和视频的 “人脸假造” 技能。

7 月份,麻省理工学院发布了一个 7 分钟的视频。视频中,尼克松总统悲伤地宣告了阿波罗 11 号方案失利:“命运现已注定,那些前往月球进行平和探究的人将留在月球上安眠。”

这个视频来自 MIT 高档虚拟中心新建立的 “月球灾祸事情” 项目。项目期望能协助人们了解 Deepfake 可以带来的风险。

图 | MIT 月球灾祸事情项目

Deepfake 自呈现以来,从技能开展上而言仍旧处于前期阶段,只能给人们供给简略的文娱。我们从国家和社会安全的层面而言,这项技能将来我们继续开展,带来的要挟远大于便当。

这也是为何不管业界、学界、仍是政界都对这项技能高度重视的原因。

“或许现在 AI 换脸还没有掀起大风云,但从我曩昔几年的沉痛阅历看,应该提早做好预备,而不是被突发事情打个措手不及。”Facebook 首席技能官迈克?施罗普弗表明。

更痛的回忆来自稍远的一段前史:本?拉登凭借荫蔽通讯制作了 9?11 事情。亡羊补牢的效果之一,是之后十几年荫蔽通讯及检测技能得到了快速开展。

环绕 Deepfake,必定也会有一场长时间的技能对立。

赞( 134 )
未经允许不得转载: 亚搏 » 应战Deepfake中科大斩获亚军,与第一名仅差0.0005