我们已经更新我们的隐私政策使它更加清晰我们如何使用您的个人资料。

我们使用cookie来提供更好的体验。你可以阅读我们的饼干的政策在这里。

广告

新的AI隐私过滤器禁用面部识别

新的AI隐私过滤器禁用面部识别内容块的形象
大学工程研究人员设计了一个“隐私过滤器”,扰乱了面部识别算法。系统依赖于两个AI-created算法:一个执行连续的人脸检测,另一个用来扰乱第一。(来源:Avishek Bose)

想要一个免费的PDF版本的这个新闻吗?

完成下面的表格,我们将电子邮件您的PDF版本“新AI隐私过滤器禁用面部识别”

听与
喋喋不休地说
0:00
注册免费听这篇文章
谢谢你!听这篇文章使用上面的球员。
阅读时间:

每次你上传照片或视频社交媒体平台,其面部识别系统更加了解你。这些算法摄取数据关于你是谁,你的位置和你认识的人,他们不断提高。


社交网络中的隐私和数据安全的担忧增加,大学工程研究人员由教授Parham Aarabi (ECE)和研究生Avishek Bose(德文ECE候选人)发明了一种算法来动态破坏面部识别系统。


“个人隐私是一个真正的问题随着面部识别变得越来越好,”Aarabi说。“这是一种有益的anti-facial-recognition系统作战能力。”


他们的解决方案利用深度学习技术对抗训练,这坑两种人工智能算法。Aarabi和玻色设计一组两个神经网络:面孔识别第一个工作,第二个工作先破坏的面部识别任务。两人不断地斗争和相互学习,建立一个持续的AI军备竞赛。


结果是一个Instagram-like过滤器,可以应用于保护隐私照片。他们的算法改变非常具体的像素在图像,进行更改,人眼几乎听不清。


“破坏性的AI可以‘攻击’人脸检测的神经网络是寻找,“Bose说。“如果检测AI找眼睛的角落,例如,它调整眼睛的角落里,这样他们就不太明显。它创造了非常微妙的照片中的干扰,但他们足够重要的探测器来愚弄系统”。


Aarabi 300 - w和玻色测试系统面临数据集,一个行业标准池超过600的面孔,其中包括各种各样的种族,照明条件和环境。他们表明他们的系统可以减少面孔,最初可检测的比例近100%降至0.5%。


“这里的关键是培养两个神经网络相互——一个创建一个越来越健壮的人脸检测系统,和其他创建一个更加强大的工具来禁用面部检测,“Bose说,项目的主要作者。团队的研究将发表在2018年IEEE国际研讨会上多媒体信号处理今年夏天晚些时候。


除了禁用面部识别,新技术也会破坏图像搜索,特征识别、情感和民族估计,和所有其他face-based属性,可以自动提取。


接下来,团队希望公开隐私过滤器,通过一个应用程序或网站。


“十年前这些算法需要人类的定义,但自己现在神经网络学习,你不需要提供任何东西除了训练数据,“Aarabi说。“最后他们可以做一些很神奇的事情。这是一个有趣的时间,有巨大的潜力。”

这篇文章被转载材料提供的多伦多大学。注:材料可能是长度和内容的编辑。为进一步的信息,请联系引用源。

参考:玻色,a·J。& Aarabi p (2018)。对手的攻击面探测器使用基于神经网络的约束优化。ArXiv预印本ArXiv: 1805.12302。

广告
Baidu