根据圣达菲研究所(Santa Fe Institute)戴维斯复杂性教授梅兰妮·米切尔(Melanie Mitchell)的一篇新论文,这种目标缺失循环背后的一个关键驱动因素是关于人工智能和自然智能的许多错误假设。米切尔概述了四种常见的人工智能谬论,这些谬论让我们对我们离实现与人类的认知和解决问题能力相匹配的人工智能系统有多近产生了错误的信心,如下所示:

狭窄的ai和一般ai不在相同的范围内

当前的AI系统擅长解决狭义定义的问题 - 例如,将音频数据转换为文本或在X射线图像中找到癌症模式。但是,只要这项技术可以解决单一问题,并不一定意味着整个行业更接近解决更复杂的问题。例如,自动聊天禁止可以解决非常具体的查询,但不能在长时间失去连贯性的开放式对话。这是因为这些能力不仅仅需要解决较小的问题;他们需要常识,是ai的主要取消解决挑战之一。

简单的事情很难自动化

根据米切尔的说法,人类没有意识的事情的说法实际上是最难自动化的。这些任务的一些例子包括携带谈话,在没有碰撞的情况下走过人群,并感受到我们在世界上所看到的。在翻盖方面,设计机器对人们掌握难以准确地掌握国际象棋或将句子转换为不同语言的任务,这相对容易。

将人工智能拟人化没有帮助

另一个导致人们对人工智能产生错误信心的问题是,该行业倾向于将软件置于与人类智能相同的水平。例如,使用“学习”、“理解”和“思考”等术语来描述人工智能算法是如何工作的,这表明我们在真正像人类大脑一样工作的技术发展方面走得更远。

没有身体的ai

米切尔是一个支持者的想法,即情绪,感受,潜意识的偏见和物理体验与情报不可分割。因此,她认为努力开发生活在服务器中的AI,并匹配人类智力将最终失败。然而,在临时临时,她建议这种概念正在阻碍我们对当前一代AI的理解以及我们可以随着技术成熟所期望的。

要了解更多关于这些和其他常见的人工智能谬论,请前往Vonturebeat.