创富干货 cfgh

您现在的位置:首页 > 创富干货 > 构建AI工具时要解决的4种重要偏见

构建AI工具时要解决的4种重要偏见

 

去年,AI4ALL首席执行官泰斯·波斯纳(TessPosner)向《卫报》发表讲话,该组织致力于提高人工智能内部的多样性,得出的结论是,就AI潜在的多样性危机而言,我们已经达到“临界点”。随着时间的流逝,减轻为AI工具和系统提供动力的偏见变得越来越具有挑战性。现在,比以往任何时候都更需要将对这些偏见的认识和考虑放在所有AI开发和实施的最前沿。

为了解决AI偏见,重要的是要考虑存在的各种不同类型的偏见,并努力与之对抗。

种族和文化偏见

种族和种族偏见普遍存在于AI工具中。在一个令人不安的例子中,亚马逊的面部识别软件错误地将28名国会议员标记为犯罪分子。错误的比赛绝大部分是有色人种,其中包括国会黑人核心小组的六名成员,其中一位是民权传奇人物RepJohnLewis。另一项研究评估了三种商业性别分类系统,发现与肤色较浅的男性相比,肤色较黑的女性被错误分类的频率更高(错误率高达35%),而肤色较浅的男性被错误分类的频率则要低得多(错误率高达0.8%)。该研究指出:“如果商业公司要建立真正公平,透明和负责的面部分析算法,则在性别分类系统中对较黑的女性,较浅的女性,较黑的男性和较浅的男性进行分类的准确性存在巨大差异。”

在AI工具中,种族和文化多样性绝不限于人脸识别软件。例如,考虑一名韩国妇女的案例,该妇女在机器人吸尘器在地板上睡觉时吸起了头发,需要被消防员救出。该技术的设计师未能考虑到在某些文化中通常会睡在地板上。

种族和文化多样性已被证明可以改善公司的财务前景。这些积极的性能优势可能只有在扩展到AI的发展时才能得到增强。根据麦肯锡的研究,在执行团队中,种族/文化多样性排在前四分之一的公司拥有行业领先的获利能力的可能性要高出33%。

性别偏见

不管他们的意图多么真实,人工智能工具的设计师都将自己的偏见转移到了他们构建的技术中。困扰AI发展的最普遍的偏见之一是性别偏见。人工智能技术充斥着性别偏见的例子不胜枚举。例如,考虑一项2016年的研究,该研究发现在Google新闻文章上经过训练的单词嵌入揭示了性别刻板印象。在一个示例中,向量比喻“男人是计算机程序员,女人是x”是用x=homemaker完成的。

在某种程度上,性别偏见反映出人才方面缺乏性别多样性。研究由世界经济论坛和LinkedIn发现,只有22%的AI职位由女性担任,甚至更少的控股高级职务。减轻AI工具中性别偏见的最有效方法之一是优先实现AI人才中的性别均等。这不仅在道德上是正确的事,而且在财务上也有意义。麦肯锡的研究还发现,性别多样性与积极的公司绩效有关。在执行团队中,性别多样性排名最高的四分之一的公司在盈利能力方面的表现要高出21%,在创造卓越价值方面的可能性要高出27%。

数据集偏差

数据是AI的油。当用于开发算法和训练AI的数据出现偏差时,只有在采用和实施AI工具后,这些偏差才会得到加强。例如,请考虑上面的“嵌入”一词的示例,该词将女性与家庭主妇联系在一起。如果将这些类型的关联内置到AI工具中,则无论AI开发背后的团队有多多样化,它们都将永存。

考虑数据集偏差时,仅考虑性别和种族偏差是不够的。对于构建旨在寻求客户见解并向客户提供建议的AI解决方案的公司而言,考虑用于训练机器学习和AI算法的数据是否代表其客户群尤其重要。您的培训数据集是否包括客户群中的每个人?如果没有,您可能会在不知不觉中将哪些偏见内置到AI工具和系统中?

功能多样性

通常,AI工具是由不是该技术的最终用户的人在筒仓中构建的。AI设计应该是跨组织的。至少,不同的部门和部门应该输入如何设计算法,尤其是这些算法所基于的假设。一些有远见的组织已经认识到优先考虑部门和部门多元化的重要性。例如,考虑开发会话式商务和AI软件的LivePerson。正如MITSloan报道的那样,LivePerson在开发过程中将其客户服务人员与编码人员并驾齐驱,以便从多种角度受益。

人工智能工具的构建者应被视为合作伙伴,而不是孤立的实体。当您在构建AI工具时利用并利用跨部门和部门的多样性(包括人力资源,销售,市场,财务和IT)时,您会发现在克服偏见和开发精心设计的AI工具的能力方面有了可观的提高。

性别,种族,文化,部门和数据集的偏见绝不构成AI偏见的全部内容。例如,生物老年医学研究基金会的科学家开发了一种“衰老的AI”,它使用了经过对相对健康的患者进行血液测试而训练的深度神经网络。由于许多与年龄相关的疾病都与症状有关,因此只有极少数60岁以上的健康患者可用于开发该系统。当开始对该系统进行测试时,发现该工具普遍存在年龄歧视。

减轻AI工具中的偏差的重要性不可夸大。对于每个行业的所有企业,无论大小,这都应该成为优先事项。至少,公司应遵循Microsoft的领导,Microsoft成立了“公平,问责,透明和道德”(FATE)AI团队,以发现MicrosoftAI系统中的偏见。这种监督机构对于确保偏差不会弥漫我们不久将不可避免地依赖的工具至关重要。在构建AI工具时,值得考虑一个关键问题(FATE也正在探索一个问题):“随着我们的世界逐渐依赖智能代理,我们如何创建个人和社区可以信任的系统?”

姓 名:
邮箱
留 言: