如果你问当今的商业领袖关于人工智能(AI)的道德使用,你会发现很难找到反对它的人。问他们实际上在做什么,你可能得到不同的答案,或者根本没有答案。

无论你在人工智能的旅程中处于什么位置,现在都是时候开始思考这项技术的伦理含义,并开始为此做些什么。这可以从建立一套员工指导方针开始,并教育你的员工关于AI道德的重要性,然后演变成更多的战略性举措,将道德AI最佳实践融入你的发展和工作流程中。

为什么这很重要?

所有迹象都表明,人工智能的使用将开始受到更密切的关注,包括政府和公共监督组织。就像个人数据隐私在过去几年受到审查一样,由于人工智能对人类生活、就业和社会的影响,企业实施和使用人工智能的方式正获得全球关注。

欧盟(EU)最近公布了发展道德人工智能的新原则。欧盟表示,其目标是让人工智能的使用更加“负责、可解释和公正”。的的指导方针注重确保人的监督、准确性、私密性、透明度、多样性、问责性和可持续性。虽然不像欧盟的《通用数据保护条例》(GDPR)那样具有法律约束力,但这些指导方针可能为未来的监管铺平道路。

那么,你能采取哪些具体行动呢?最近的一次关于人工智能伦理的文章除了诚实和透明之外,还提供了一些有用的建议,可以真正起到作用,并有助于长期的解决方案。看一看:

1.与公营部门伙伴建立工作关系:

推进人工智能的道德使用可以从你的当地社区开始,支持当地学校的项目,也可以作为平台来教育人们全面的人工智能。这也是培养未来人才的好方法。

2.为孩子们提供数字扫盲机会

支持“常规教育领域之外”的儿童和年轻人的数字学习机会,是促进人工智能伦理的另一种方式。这可能包括帮助那些可能感兴趣并有钱“选择加入”的年轻员工接受额外教育,以发展他们在人工智能方面的技能,甚至帮助他们更多地了解潜在的人工智能工作机会。

3.积极主动地对技术和开发人员进行再培训

根据TechCrunch的文章,商业领袖必须“向高管和人力资源人员赋予工具、数据和空间,以理解以道德的方式与人工智能合作所需的不断发展的技能集。”“在人工智能成为企业重要组成部分的当今世界,培训当前和未来的员工,是确保人工智能得到采用和全面成功的关键。”

要了解更多,请查看最近的这篇文章麦肯锡播客“人工智能的伦理”并深入挖掘诸如深度学习和深度造假等主题。