CTI论坛(ctiforum.com)(编译/老秦):人工智能(AI)作为客户服务技术(包括启用语音的技术)中的嵌入式功能正变得越来越普遍。
公司每年使用AI来处理数十亿的客户通信。AI系统可以响应最常见和最简单的查询,例如我的帐户余额是多少,从而使人工座席可以自由处理更复杂的客户服务问题。AI系统的设计不仅可以理解客户的查询,还可以确定最佳的响应方式,这是否意味着提供直接答案,提出明确的问题,将交互传递给现场座席,下订单或其他。
对系统进行编程以做出这些决定并采取这些行动绝非易事,而且要承担与承担该任务的人员相同的失败。因此,偏见可能会渗入算法,特别是因为AI仅与输入的训练数据一样好,并且该数据可能包括关于性别,种族,性取向或其他历史或社会不平等因素。
在许多公司正在扩大对AI的使用的时候,意识到这些偏见并缓解它们是当务之急。
这是一个重要的问题,因为我们正在做出越来越重要的AI决策,Spark Beyond的首席执行官兼联合创始人Sagie Davidovich说。Spark Beyond是使用AI的自动化研究引擎的提供商。您要有责任心,透明性和包容性。
发现AI语音识别系统包含歧视特定人群的偏见。Pro Privacy.com的数字隐私专家Ray Walsh说:这令人不安,因为这类算法通常部署在所有公民使用的平台上。结果,这些技术可能积极地导致偏见或歧视的重新表达。
如果不加发现,人工智能的偏见可能导致有害的歧视性做法,竞选结果失真,违反法规或失去公众信任。
没有比在2016年失败的Microsoft Twitter机器人Tay失败命运更明显的事实了。Microsoft将Tay描述为一种对话理解的实验,其中Tay参与度越高,越聪明,它就会通过随意而有趣的对话。
但是,一旦Tay上线,人们就开始在Twitter上发布推文,其中包括各种厌恶种族主义言论。Tay开始向用户重复这些种族主义,厌恶女性的情绪。仅仅运行了16个小时,Microsoft就停止了该技术的使用。
Tay当然不是第一次发生这样的事情。多年来,自动化技术也被归咎于贷款行业的偏见。金融机构成群结队地转向自动化,以加快贷款批准和拒绝决策的速度,大概没有相同的偏见,而这种偏见可能会渗入人类的思维过程。
WPEngine的研究至少在理论上支持了这一观点。在接受调查的受访者中,有92%的人表示,他们相信AI将为检查组织和数据相关偏见提供机会。53%的人表示,他们相信AI为克服人类偏见提供了机会。
但是研究还发现,将近一半(45%)的人认为AI的偏见可能导致少数群体的代表不平等。
最后,确实发现借贷过程中的自动化系统存在偏见,因为它们使用的数据和变量往往会歧视属于少数族裔的抵押贷款申请人。
如今,已显示出功能更强大的计算系统和更易获得的数据可以消除早期技术的某些固有偏见,但许多专家都同意,当今的系统中仍然存在某些偏见。
Davidovich说:我们需要开始考虑AI系统中的偏见。
声明:版权所有 非合作媒体谢绝转载
原文网址:https://www.speechtechmag.com/Articles/Editorial/Features/Overcoming-Bias-Requires-an-AI-Reboot-140548.aspx