计算与数据科学研究所

用户信任AI和人类一样萎靡不振的问题内容

研究人员发现,社会媒体用户可能相信人工智能,人工智能,人工编辑国旗仇恨言论和有害内容。可以帮助开发人员创建内容编辑系统,更有效和更值得信赖。信贷:约翰Schnobrich / Unsplash保留所有权利

大学公园,爸爸。——社会媒体用户可能相信人工智能- AI人工编辑国旗仇恨言论和有害的内容,根据宾夕法尼亚州立大学的研究人员。

研究人员表示,当用户机器的思考积极的属性,就像他们的准确性和客观性,他们更相信人工智能。然而,如果用户提醒关于机器无法做出主观的决定,他们的信任更低。

发现可能帮助开发人员设计更好的AI-powered内容管理系统能够处理大量的信息正在生成,同时避免认为材料审查,或不准确分类,美国Shyam桑达尔说,詹姆斯p Jimirro教授的媒体效应唐纳德·p·Bellisario学院通信和副主任媒体影响研究实验室

“有个迫切需要对社交媒体和内容适度更一般的意义上,网络媒体,“Sundar说,他也是一个从属的宾夕法尼亚州立大学研究所的科学计算和数据。“在传统的媒体,新闻编辑作为把关人。但是在线,城门大开,和守门不一定是可行的人类来执行,特别是在信息产生的体积。所以,行业越来越朝着自动化解决方案,本研究着眼于人类之间的区别和自动化内容版主,在人们如何应对他们。”

人类和人工智能编辑器都有优点和缺点。人们倾向于更准确地评估内容是有害的,如当它是种族主义者或潜在可能引发自残,据玛丽亚·d·莫利纳广告和公共关系助理教授,密歇根州,他是这项研究的第一作者。然而,人们无法处理大量的内容,现在正在网上生成和共享。

另一方面,人工智能编辑器可以迅速分析内容,人们经常不信任这些算法准确的建议,以及担心信息可能会被审查。

“当我们想到自动化内容适度,它提出了一个问题:人工智能编辑器是否侵犯一个人的言论自由,“莫利纳说。“这创建了一个事实,我们需要之间的二分法内容节制——因为人们分享这些有问题的内容,与此同时,人们担心AI温和的内容的能力。所以,最终,我们想知道我们可以建立人工智能内容版主,人们可以信任的方式并不侵犯言论自由。”

透明度和交互式透明

莫利纳说,把人们和人工智能在审核过程中可能会建立一个可信节制系统的一种方法。她补充说,透明度——或信号用户机器参与节制——一种方法改进AI的信任。然而,允许用户对AIs提供建议,研究人员称之为“交互式透明,”似乎更增加用户的信任。

研究透明和交互式透明等变量,研究人员招募了676名参与者与内容分类系统进行交互。参与者被随机分配到18实验条件之一,用来测试如何适度的来源——人工智能,人类或两-和透明度定期互动或不透明度——可能会影响参与者的信任在AI内容编辑。研究人员测试分类决策——内容是否列为“标记”或“标记”被有害或仇恨。“有害的”测试内容处理自杀意念,而“可恶的”测试内容包括仇恨言论。

其他研究结果,研究人员发现,用户的信任取决于是否存在一个AI内容主持人调用积极属性的机器,比如他们的准确性和客观性,或负面属性,如无法做出主观判断人类语言的细微差别。

给用户一个机会,帮助人工智能系统决定是否网上有害信息也可能提高他们的信任。研究人员说,研究参与者自己的方式添加到结果AI-selected单词列表用于分类文章可信智能编辑器一样他们相信人类的编辑器。

伦理问题

桑达尔表示,缓解人类回顾的内容不仅仅是给员工一个喘息的机会从一个单调乏味的苦差事。招聘人力编辑任务意味着这些工人暴露在小时的仇恨和暴力的图片和内容,他说。

“有一个道德需要适度自动化的内容,“Sundar说,谁也在宾夕法尼亚州立大学的主任社会责任中心的人工智能。“需要保护人类内容版主,表现一种社会福利当他们这样做——从持续的接触到有害内容天天。”

莫利纳说,未来的工作不仅可以看看如何帮助人们相信人工智能,但也理解。交互式透明可能了解人工智能的关键部分,太,她补充道。

“真正重要的东西不仅是对系统的信任,但也在某种程度上与人们接触,他们真正理解AI,“莫利纳说。“我们如何使用这个概念的互动透明度和其他方法来帮助人们更好地了解人工智能吗?人工智能,我们如何能最好的礼物调用升值机器的平衡能力和质疑它的缺点吗?这些问题是值得研究的。”

研究人员把成果发表在最新一期的《电脑仲介沟通

最后一次更新2022年9月21日

联系人

Baidu