为什么中性的面部识别技术将改变我们如何看
当我们看世界,我们并不总是清楚地看到。我们可以绊倒自己的个人偏见,或者是缺乏信息。人脸识别算法可以帮助我们改变这种情况。
面部识别技术,通过人工智能技术的进步,有一个广泛的潜在用途——允许职工扫描进办公室只使用自己的脸识别一个人如何真正的感觉。
该技术也面临严峻的挑战。人脸识别算法的研究已经发现,开发商并不总是占偏见在数据集。在某些情况下,这些面部识别算法是加强医疗领域的偏见和执法。
如果更具包容性的面部识别技术能够克服这些批评,然而,它可以彻底改变我们如何与技术交流。
人脸识别技术的潜力
谷歌最近的头条当公司改变了AI看着人影像识别算法。而不是标签的人“男人”或“女人”系统现在使用这个词“人”。
谷歌的决定是一个更广泛的一部分主对性别中立的技术。其他公司也开始创建技术挑战的刻板印象和更具包容性——就像新的性别中立的声音虚拟助手。
面部识别技术的一个原因是如此令人兴奋的技术专家现在完全是因为这些算法可能有可能重塑我们如何与技术交流。
例如,面部识别技术的一个潜在的应用程序可以使用检测模式的面部表情的能力利用人们的真实的情绪状态。
一些新的面部识别技术可能很快就可以剥夺人们的“扑克脸”人真的是感觉如何。技术可以用来检测当有人撒谎或准备暴力——或者它也可以帮助,例如,学校辅导员确定如果一个活泼的学生真的需要有人说说话。这些算法可能会过去戴上面具人,和更准确地确定当他们需要帮助,但不能找到一种方法来问。
一些专家已经试图使该技术成为现实——像罂粟花床,杜比首席科学家,谁在使用先进的传感器和人工智能,让计算机来检测用户的情感信号。她希望这项新技术能创造更富有同情心的机器。例如,设备如Alexa可能转化成更加关注医疗助手——一个没有偏见的人,这并不厌倦或开发同情疲劳。
很容易想象这些算法作为未来的一部分,计算机可以看到过去的偏见和人们戴上的面具。然后,这些机器可以传递信息给别人,帮助达到过去沟通障碍。
面部识别技术的批评
然而,面部识别技术也面临着重大挑战。
因为这些项目如何学习,通过识别各个组件之间的关系和相关性在现有数据集——足够训练AI只能再现现实。因此,人工智能算法很容易复制现有的系统性偏差。
例如,面部识别的算法被用于执法被发现不成比例的目标非裔美国人。算法开发的日本、中国和韩国往往是好多了在确定东亚的脸比白种人的脸。另一项研究发现医疗算法,旨在帮助医生决定医疗、优先的需要白色的病人在这黑色的病人。
多个亚马逊的人脸识别算法的研究已经发现的技术是有偏见的。在一个最近的研究中,该算法发现一直犯错误当确定一个人的性别的人,如果他们被一个女人或有色人种。
和谷歌的变化的人脸识别算法,而通常被认为是一个积极的朝着更好的待遇性别问题的技术,只有进来后,批评。改变之前使用“人”,每个人,无论性别,倾向于识别公司的人脸识别算法人做饭是女人的照片——即使是一个人。
看来,没有正确的监督现有的偏见会蠕变回系统。更糟糕的是,这些人工智能算法甚至可能会加强这一偏见如果他们的用户相信算法是公正的。
监管,有可能开发人员为这些挑战并创建正确的算法,为大家服务。实现最佳实践——如建立公平指标,组织更加多样化的开发团队和测试算法在真实的场景中,可以提供帮助。也有旨在帮助开发人员工具集识别数据中的偏见对于一些开发商可能有用。
然而,随着这些失败表明,开发人员并不总是把这些额外的步骤。
面部识别可能会改变我们如何看待技术
人脸识别算法有可能重塑我们如何看待技术。创造更多的性别包容性和富有同情心的工具可以极大地扩展技术可以扮演的角色在我们的生活中。在未来,面部识别技术可以使虚拟辅导员的助理或医疗助手。
还有很多犯错的余地。如果管理不当,这些面部识别算法可以很容易地一样有偏见的人。更糟糕的是,客观的外观这些算法可以提供甚至可能加强的偏见。
正确的监管,有可能为开发人员避免再现偏见的算法和创造未来技术更具包容性。然而,这只会是可能的,如果正确的措施和潜在风险的面部识别技术是认真对待。