我们可以在线算法结束性别偏见吗?
无尽的文章已经写的网络算法是否不断遭受交互性别偏见,所有您需要做的就是执行一个简单的搜索自己看到这。然而,根据研究人员在一项新的研究,试图在这个问题上达成一个结论,“直到现在,这场辩论并没有包含任何科学分析”。这篇新文章,一个跨学科的团队,提出了解决问题的新方法,并建议一些解决方案防止这些太多的数据和他们带来的歧视。
算法使用越来越多的决定是否同意贷款或接受应用程序。随着人工智能(AI)的应用范围的增加,它的功能和重要性,它变得越来越多至关重要的评估任何可能的偏见与这些操作有关。“虽然这不是一个新概念,在许多情况下,这一问题还没有得到检查,因此忽略了潜在的后果,”研究人员说,他的研究,发表在开放获取的算法杂志,主要关注性别偏见在人工智能的不同领域。
这种偏见可能对社会产生巨大影响:“偏见影响一切歧视,排斥或与刻板印象有关。例如,性别或种族在决策过程或可能被排除在外,简单,某些行为可能是假设,因为一个人的性别或人的皮肤的颜色,“解释这项研究的首席研究员,朱莉安娜卡斯塔涅达吉梅内斯,一个工业博士学位学生在大学Oberta加泰罗尼亚(UOC大学)的监督下天使a .胡安的大学为瓦伦西亚,和哈维尔·Panadero,大学为加泰罗尼亚——BarcelonaTech (UPC)。
卡斯塔涅达表示,“这是可能的算法流程因性别歧视,即使程序“盲目”这个变量”。研究团队——还包括研究人员魔术赢面以及塞尔吉燕,性别和ICT (中的)网络跨学科研究所的研究小组(IN3),劳拉Calvet、慈幼会大学Sarria Assumpta木星,瓦伦西亚大学的,和天使a胡安-说明这与一些例子:著名的招聘工具的情况下首选的男性/女性申请者,或者提供的信贷服务女人比男人不那么有利的条款。“如果老、不平衡数据,你可能会看到消极的调节对黑人,同性恋,甚至女性人口,根据数据的时间和地点,”卡斯塔涅达解释说。
科学是女孩对男孩和艺术
理解这些模式是如何影响着我们不同的算法处理,研究人员分析了之前的工作,确定数据过程中的性别偏见在四种AI:那些描述应用于自然语言处理和生成、决策管理、语音识别系统和面部识别。
总的来说,他们发现所有的算法识别和分类白人更好。他们还发现,他们复制错误信念的物理属性应该定义一个人根据他们的生理性别,种族或文化背景或性取向,而且他们的关联链接与艺术科学的男性和女性。
许多程序中使用图像和语音识别也基于这些刻板印象:相机更容易识别白面孔和音频音调高的分析问题,主要是影响女性。
情况下最有可能遭受这些问题是那些算法分析的基础是建立在真实的数据与特定的社会背景有关。“一些的主要原因代表名额不足的女性在人工智能产品和服务的设计和开发和使用数据集的性别偏见,”研究者所指出的,他认为,这个问题源于它们发展的文化环境。
“一个算法,当训练与偏见的数据,可以发现隐藏在社会模式,操作时,复制它们。所以在社会中,如果男人和女人不平等的表现,人工智能的设计和开发产品和服务将显示性别偏见。”
我们怎样才能结束呢?
许多性别偏见的来源,以及每个给定类型的算法和数据集的特性,意味着废除这个偏差是一个非常艰难的——尽管不是不可能的挑战。“设计师和其他人参与他们的设计需要通知的可能性的存在偏见与算法相关的逻辑。更重要的是,他们需要理解这些措施用于最小化,尽可能潜在的偏见,并实现他们,使他们不发生,因为如果他们意识到歧视发生在社会的类型,他们将能够识别解决方案开发复制它们”,建议卡斯塔涅达。
这项工作是创新的,因为它已经由不同领域的专家,包括社会学家、人类学家和性别和统计专家。”团队的成员提供了一个视角,超出了自治的数学算法,从而帮助我们把它们作为复杂社会技术系统,”这项研究的首席研究员说。
“如果你与别人比较这项工作,我认为它是仅有的几个存在偏差的问题,算法从中立的角度来看,突出的社会和技术方面找出为什么一个算法可能会让一个有偏见的决定,”她总结道。
参考:卡斯塔涅达J,木星,Calvet L,燕,胡安AA,赢面m . data-algorithmic流程处理性别偏见问题:social-statistical视角。算法。2022;15 (3):303。doi:10.3390 / a15090303
本文从以下转载材料。注:材料可能是长度和内容的编辑。为进一步的信息,请联系引用源。