但是,对于以上所有被实现的事实和功能,这个星球上却没有一个大脑能够知道自己到底是怎么做出来的。人工地去实现它——AGI领域(AGI,artificial general intelligence,人工通用智能)——六十年来,没有任何进展。
尽管如此,AGI肯定有可能。这源于物理定律的一个深刻特性,计算的通用性(universality of computation,译者注:意思是说通过计算过程模拟自然过程的普遍可行性)。这一特点要求,只要时间和储存能力允许,通用(general-purpose)计算机上的某种程序能够模拟出物体遵循物理定律所做的每件事的任何细节。
「我们至今所不可实现的是…『人类智能』」,这是另外一种合理化(解释)。这种解释的代表性人物是哲学家John Searle(他属于「不可能」阵营),他认为在计算机诞生之前,蒸汽发动机和后来电报系统都曾被用来隐喻人类心智的工作方式。他认为,AGI可能仅存在于类似脆弱的隐喻上,亦即心智「本质上(essentially)」是计算机程序。但是,那并不是一个隐喻:计算的通用性(universality of computation)遵循已知的物理定律。
我们必须停止使用的含义之一就是将(人类或类似AGI的)教育视为指令(instruction)——作为一种不加变更灌输既有知识的手段,让既有价值得以遵从。正如波普尔写道的(在科学的发现的语境下,它既适用于AGI编程也适用于孩子教育 ):「没有(不受认知框架影响的)指令…我们不是通过复制而发现新事实或新影响,也不是从观察中归纳推导出它们,或者用任何其他依靠环境指导的办法发现新事物。 毋宁说,我们的办法是试错。」(译者注:这是波普尔在其《The Myth of the Framework》中说的话)也就是说,推测和批判。学习一定是指新创造的智能为自己行事和控制自身。
对于使用因果推理的计算机来说,它们需要知道场景中每一件事的确切规范,纽约大学从事常识推理工作的计算机科学家 Ernest Daviss说。机器人也需要多次看到同一场景以便完全了解发生了什么。人类则不需要,我们能够采用想象未来的能力来思考不同场景以及推理它们是如何发生的。
人类目前领先机器人的另一点是同时处理很多不同任务的能力,我们现在拥有的大部分人工智能项目都对非常具体的任务很擅长,比如玩视频游戏或者下象棋。但是人类能同时进行多项任务,比如理财、运动、抚养孩子或者打开包裹。「人工智能系统不能同时拥有所有能力,特别是同时结合视觉、语言和身体操纵。」人工智能发展协会(the Association for the Advancement of Artificial Intelligence)主席Thomas Dietterich说。
Peter Norvig则认为阻止机器人和人类一样智能的最大原因是征服感知。对于Norvig来说,人工智能系统只有在它们能更好地看到和感觉到这个世界的时候才能更好进行推理。「我们很擅长收集数据,并用这些数据来发展算法,但是仅仅基于数据的推理会让我们远离真实情况,」Norvig说。「我认为只有我们不断地让系统感知世界并与其交互,而不是让其被动学习别人选择好的信息,才能更好地改善其推理能力。」