无可否认的是人工智能(AI)既为我们的职业和个人生活保持承诺。然而,随着技术的日益流行也引起了一些伦理问题,其中许多是由Chris Preimesberger在最近的检查每周电脑报件

Preimesberger写道:“我们现在面临着一个全球性的需要......教育我们如何申请护栏,以确保使用AI的既是道德和对所有人都有益的社区。”

这种教育包括检查与人性化,不平等,失业和安全问题。它还需要企业,政府,并在与AI专家和开发商大协作公开,以确保技术达到充分发挥其潜力,是可持续的,构成对社会的威胁。

该eWEEK的文章提出五个统筹,以满足上述目标,建设“一个道德和有竞争力的AI经济” - 看看下面的摘要:

  1. 引进AI公司治理和道德框架- 公司应该设计秉持道德利用该技术,类似于许多发达国家的技术变得越来越普遍,监督社会化媒体AI准则。此外,企业应作出道德AI整个组织日常讨论的一部分 - 从像董事会会议和绩效评估,以非正式员工会议正式方案。
  2. 神秘性AI和AI责任- 作为任何AI实施的一部分,企业应该首先承认推出的技术,并制定战略,以测试它的潜在风险 - 实施之前,也曾经是在使用中。
  3. 产生信任的企业AI- 关于公司使用禽流感对员工和相关外部各方就像合作伙伴和客户沟通时的透明度是至关重要的。企业需要对技术的预期目的,为什么领导层认为AI应该在组织,以便采取在技术构建人类信托公开赛。
  4. 把AI进入劳动力- 鼓励将AI加入劳动力队伍,企业应该投资于培训/与技术再培训所有员工互相作用显著。虽然有些角色会调整和变化,AI应该被定位为增强人类,而不是取代它们的工具。
  5. 培养未来的世代- 为了确保道德地使用AI的,单向的企业和政府能够帮助支持学生数字教育计划。作为Preimesberger所说的那样,“在一个理想的世界中,学生们将离开教育和预测周围使用人工智能技术的伦理框架和原则;他们会明白负责任的担忧导致了创作的这些原则,反过来,预计从公司与AI做生意的透明度“。

这些只是确保道德几方面的考虑是所有的一部分人工智能实现方式中,这必将保持的讨论作为AI通过的面积增加。