每个机器学习应用程序或引擎的核心都是算法。算法执行必要的计算、数据处理和自动推理以产生期望的结果。没有它们,就没有机器学习,就没有人工智能。

算法的问题是它们是由人创造的。人们可能会有偏见.即使他们选择的数据也可能有偏差。当偏差进入算法方程时不管是有意还是无意意外和不幸的事情会发生。

正如维基百科所定义的那样算法偏差当计算机系统反映参与编码、收集、选择或使用数据训练算法的人类的隐式值时发生。”

算法偏差会对过程和人员产生非常实际的负面影响。它们可能是拒绝银行贷款或拒绝信用卡申请的原因。最坏的情况是,算法偏差甚至会导致种族和性别歧视。

例如,亚马逊最近终止了一款人工智能人力资源招聘工具路透社. 对自动化并不陌生,亚马逊早在2014年就开始开发一种“搜索顶尖人才的机械化”的方法通过创建一个机器学习工具,更快地审核简历并确定最佳候选人。

结果是:招聘引擎歧视女性。

令他们大吃一惊的是,亚马逊研究院的科学家们发现,该工具对带有“女性”字样的简历的评分较低,甚至还对女性大学毕业的求职者进行了降级。问题在于,亚马逊开发的机器学习引擎正在分析前10年的申请者数据,追溯到该公司早期科技行业更为男性主导的时代。这与男性申请人在历史上更成功的候选人和找到工作的人有关,而女性申请人的得分较低。值得称赞的是,亚马逊立即关闭了这个项目。

那么,什么是一些解决方案?

最近有线物品有了标题,公平算法实际上是什么样子的?,讨论“算法透明性”的概念这是一个相对较新的概念,它提倡公司对算法的实际工作和决策方式持开放态度。虽然大多数人都同意需要某种程度的算法透明性,但对于它需要走多远仍有很多争论,而且我们离达成一致的任何类型的标准或道德规范还有很长的路要走。

另一方面,麦肯锡在最近一篇题为,控制机器学习算法及其偏差. 这篇文章为那些希望在现在和将来尽量减少算法偏差的公司提供了三个保障。见下文:

  1. 了解算法的局限性麦肯锡称,不要问那些答案可能无效的问题。算法是为非常特殊的目的而设计的。了解算法如何产生输出对于识别结果中的偏差至关重要。
  2. 使用广泛的数据样本如Amazon示例所示,仅使用历史数据或单一数据源可能会导致算法偏差。历史数据与较新或“新鲜”的数据相结合可以帮助减少这种情况。
  3. 知道什么时候使用机器学习(和何时不)不是每一个算法都是最佳的。对于正确的任务和业务流程,大数据分析和机器学习提供“快捷,便利”但这并非一刀切。当决策需要更大的透明度或需要更大的灵活性时,手工编制的决策模型和人工决策仍必须是其中的一部分。

正如文章的结论,“好消息是,偏见是可以理解和管理的——如果我们诚实地对待它们的话。我们不能相信机器完善智能的神话。”

要了解更多,请阅读全文麦肯锡文章在这里.