我们已经更新我们的隐私政策使它更加清晰我们如何使用您的个人资料。

我们使用cookie来提供更好的体验。你可以阅读我们的饼干的政策在这里。

广告

神经网络攻击可能导致更好地了解人工智能

攻击可能导致更好地了解人工智能神经网络图像内容块
洛斯阿拉莫斯国家实验室的研究人员正在研究新的方法来比较神经网络。这张照片是用一个人工智能软件创建名为扩散稳定,使用提示“窥视到神经网络的黑箱。“信用:洛斯阿拉莫斯国家实验室

想要一个免费的PDF版本的这个新闻吗?

完成下面的表格,我们将电子邮件您的PDF版本“攻击神经网络可能导致更好地了解人工智能”

听与
喋喋不休地说
0:00
注册免费听这篇文章
谢谢你!听这篇文章使用上面的球员。
阅读时间:

一个团队在洛斯阿拉莫斯国家实验室开发了一个新颖的方法比较神经网络是人工智能的“黑盒”内,帮助研究人员了解神经网络的行为。在数据集的神经网络识别模式;在应用程序中使用它们在社会,如虚拟助理,面部识别系统和无人驾驶汽车。


“人工智能研究社区并不一定完全理解神经网络在做什么;他们给我们好的结果,但我们不知道如何或为什么,”琼斯海顿说,研究人员在网络系统集团的高级研究洛斯阿拉莫斯。“我们的新方法才能更好的神经网络相比,这是一个更好的理解背后的数学AI至关重要的一步。”


琼斯是论文的主要作者”如果你训练一个训练:Inter-Architecture相似增加鲁棒性》最近发表在会议上不确定性人工智能。除了学习网络的相似性,本文描述的行为是一个关键的一步强健的神经网络。


神经网络是高性能,但脆弱。例如,自动驾驶汽车使用神经网络来检测信号。当条件是理想的,他们这样做很好。然而,最小的偏差,如停车标志上的贴纸,可以导致神经网络识别错标志和从未停止。


改善神经网络,研究人员正在寻找方法来提高网络的鲁棒性。一个最先进的方法是训练过程中“攻击”网络。研究人员故意引入畸变和训练AI忽略它们。这个过程称为对抗训练和本质上很难欺骗网络。


琼斯,洛斯阿拉莫斯合作者雅各Springer Garrett肯扬,琼斯的导师Juston摩尔,应用他们的新度量网络相似的对抗训练神经网络,并发现,令人惊讶的是,敌对的训练会导致神经网络在计算机视觉领域收敛非常相似的数据表示,不管网络体系结构,随着攻击的大小增加。


“我们发现,当我们训练神经网络强大的敌手的攻击,他们开始做同样的事情,”琼斯说。


有广泛的工业和学术界努力寻找“正确的架构”为神经网络,但洛斯阿拉莫斯团队的调查结果表明,对抗训练的引入大大缩小搜索空间。结果,人工智能研究社区可能不需要花费那么多时间探索新的架构,知道对手的训练会导致各种体系结构收敛于类似的解决方案。


“发现鲁棒神经网络类似于对方,我们使它更容易理解健壮的AI可能真的是如何工作的。我们甚至可能揭示提示如何感知发生在人类和其他动物,”琼斯说。


参考:琼斯H,施普林格JM,肯扬GT,摩尔j .如果你训练一个训练:Inter-architecture相似增加鲁棒性。在第38届会议上不确定性人工智能,埃因霍温,荷兰,2022年8月。

本文从以下转载材料。注:材料可能是长度和内容的编辑。为进一步的信息,请联系引用源。

广告
Baidu