我们已经更新我们的隐私政策使它更加清晰我们如何使用您的个人资料。

我们使用cookie来提供更好的体验。你可以阅读我们的饼干的政策在这里。

广告

看到的是欺骗:培训更好Deepfake-Detecting算法

看到的是欺骗:培训更好Deepfake-Detecting算法内容块的形象
一些deepfake照片的一个例子是使用不同的处理方法(DF、F2F FS和NT)。deepfake探测器被训练使用一个数据集的样本建立deepfakes (FF + +),而重复的探测器被训练使用研究者的self-blended图像(sbi)。上面给出的两个探测器deepfake照片。假彩色图像显示的列使用现有的数据集之间的差异培训和培训使用,印度国家银行。信贷:©2022山崎裕和Shiohara

想要一个免费的PDF版本的这个新闻吗?

完成下面的表格,我们将电子邮件您的PDF版本“看到的是欺骗:训练更好Deepfake-Detecting算法”

听与
喋喋不休地说
0:00
注册免费听这篇文章
谢谢你!听这篇文章使用上面的球员。
阅读时间:

Deepfakes是图像和视频结合混合原料生产合成的结果。他们的使用范围从琐碎的恶意,所以方法检测人追捧,与最新的技术通常基于网络训练使用成对的原始和合成图像。新方法违反本公约通过训练算法使用新颖的合成图像中创建一个独特的方式。称为self-blended图像,这些新的训练数据可以明显提高算法旨在发现deepfake图片和视频。


所以他们说,眼见为实。然而,由于记录视觉媒体的出现,总有那些试图欺骗。事情从琐碎的,如假电影的不明飞行物,更严重的问题,如政治人物的擦除官方照片。Deepfakes只是最新的一长串操纵技术,通过令人信服的事实和他们的能力是远远超过工具发现他们的进步。


山崎裕行长副教授和研究生枫Shiohara从计算机视觉和东京大学媒体实验室探索人工智能相关漏洞,在其他的事情。deepfakes抓住他们的兴趣和他们的问题决定研究的方法来提高检测合成的内容。


“有很多不同的方法来检测deepfakes,还有各种训练数据集可用于开发新的,”山崎裕说。“问题是现有的检测方法往往表现良好的范围内一个训练集,但跨多个数据集或更少,更关键的是,当坑与先进的真实世界的例子。我们认为改善成功的检测的方法可能会重新考虑使用训练数据的方式。这导致了我们发展我们称之为self-blended图像(或称为印度国家银行)”。


典型训练数据deepfake检测包括对图像,组成unmanipulated源图像和对应伪造图像——例如,在一个人的脸部或身体已经换成别人的。训练这类数据有限检测某些视觉腐败,或者工件,产生的操纵,但错过了别人。所以他们尝试用训练集组成的合成图像。这种方式,他们可以控制的工件类型培训包含图像,这可能反过来更好地训练检测算法来找到这样的工件。


“本质上,我们把清洁源图像的人建立数据集,并引入不同造成微妙的工件,例如,调整或重塑形象,”山崎裕说。“然后我们原始的源图像的混合。混合这些图像的过程也将取决于源图像的特征——基本上就是一个面具将这只操纵图像的某些部分会使混合输出。许多印度国家银行被编译成我们修改的数据集,然后用来训练探测器。”


研究小组发现修改的数据集准确的检出率提高了5 - 12%左右,根据原始数据集相比。这些听起来或许不像是巨大的改进,但它可以使有人不怀好意地成功或失败之间的差异在某种程度上影响他们的目标受众。


“自然,我们希望改进这一想法。目前,它在静态图像效果最好,但视频可以有时间我们还不能检测工件。同时,deepfakes通常只是部分合成。我们也探索检测完全合成图像,”山崎裕说。”然而,我想象在不久的将来这种研究可能工作到社交媒体平台和其他服务提供者,这样他们可以更好的国旗可能操纵图像某种警告。”


参考:山崎裕Shiohara K, t检测deepfakes self-blended图像。2022年4月18日在线发表。doi:10.48550 / arXiv.2204.08376


本文从以下转载材料。注:材料可能是长度和内容的编辑。为进一步的信息,请联系引用源。

广告
Baidu