排毒治疗清理人工智能聊天机器人的语言
加利福尼亚圣地亚哥大学的研究人员已经开发出算法来消除语音在线机器人产生的攻击性语言,社交媒体和其他地方。
聊天机器人使用有毒的语言是一个不断发展的问题。但也许最著名的例子是茶,一个Twitter chatbot微软公布的2016年3月。在不到24小时内,茶,学习对话发生在推特上,开始重复一些最无礼的话语在推特上的机器人,包括种族歧视和厌恶女人的语句。
问题是,聊天机器人往往重复训练他们的对话者的陈述在谈话。此外,机器人被训练在大量的文本,通常含有有毒的语言往往是有偏见的,某些群体的人过多的训练集和机器人学习语言代表的集团。一个例子是一个机器人产生消极的陈述一个国家,传播偏见,因为它的学习训练集那个国家人们的负面看法。
“行业正试图推动语言模型的限制,“说加州大学圣地亚哥分校计算机科学博士生Canwen徐,论文的第一作者。“作为研究人员,我们全面考虑语言的社会影响模型和解决问题。”
研究人员和业内专业人士尝试了几种方法来清理机器人的语音都收效甚微。创建一个列表的有毒的词语了单独使用时不是有毒,但成为进攻当与他人结合使用。试图把有毒的演讲从训练数据是耗费时间,远离万无一失。开发一个神经网络识别有毒的演讲也有类似的问题。
相反,加州大学圣地亚哥分校的计算机科学家团队第一次美联储有毒提示pre-trained语言模型生成有毒的内容。研究人员然后训练模型来预测内容将有毒的可能性。他们称之为“邪恶的模型。”然后他们训练好的模型”,这是教为了避免所有的高排名的内容”邪恶的模式。”
他们证实他们的好的模型以及先进的言论methods-detoxifying高达23%。
他们提出了人工智能在AAAI工作会议在2022年3月举行。
人员能够开发这个解决方案,因为他们的工作跨越了一个广泛的专业知识,教授朱利安McAuley说在加州大学圣地亚哥分校计算机科学与工程系和文章的资深作者。
“我们实验室算法语言方面的专业知识,在自然语言处理和算法de-biasing,”他说。”这个问题和我们的解决方案在这些话题的交集。”
然而,这种语言模型仍有缺点。例如,机器人现在羞于讨论的弱势群体,由于主题通常与仇恨言论和有毒相关内容。研究人员计划在未来关注这个问题的工作。
“我们想做一个友好的语言模型对不同的群体,“说计算机科学博士生Zexue他论文的合著者之一。
工作领域的应用除了聊天机器人,说计算机科学博士生和论文合著者Zhankui他。例如,它可能也在多样化和排毒的推荐系统是有用的。
参考:他徐C、Z, Z, McAuley j .皮带内部恶魔:Self-Detoxification语言模型。会议上AAAI人工智能;2022年3月。https://arxiv.org/pdf/2203.03072.pdf2022年4月22日通过。
本文从以下转载材料。注:材料可能是长度和内容的编辑。为进一步的信息,请联系引用源。