Likan Zhan

如何使人工智能更像人类智能?

侃侃迩行 · 2017-05-24

人工智能 (Artificial Intelligence) 专家正在试图找到让计算机学习这个世界的方法。而如果你与孩子呆得足够久,你一定会惊讶人类儿童为何能在如此短的时间内学习到如此多的知识。人类儿童学习的速度和广度是目前的人工智能难以企及的。这或许是因为人类儿童的学习优化融合了目前两种机器学习策略的优点:自下而上和自上而下学习。

1. 自下而上的学习

经验主义 (Empiricism) 认为人类的知识起源于感觉,如哲学家休谟 (David Hume) 和穆勒 (John Stuart),心理学家巴浦洛夫 (Ivan Pavlov) 和斯金纳 (B. F. Skinner) 等。这就构成了自上而下学习 (Bottom-up approach) 的哲学渊源。

神经科学研究发现,人的神经系统是按层级性分布的。而在这些不同层级上,人脑对外部刺激的表征是由具体到抽象变化的。就视觉系统而言,可粗略分为:视网膜感官细胞 -> 外侧膝状体细胞 -> 初级视觉皮层细胞 -> 次级视觉皮层细胞等。随着神经信号的自上而下传递,视网膜感官细胞首先对接收到的光子进行分析,如亮度和颜色;然后提取相关特征,如线和棱角;然后更为抽象的特征朝向和形状等;最终形成抽象的对外部世界的表征,如鼻子或面孔等。

人工智能中的自上而下方法借助了连接主义 (Connectionist) 和神经网络 (neural network) 理论。该方法首先假定一些层级性和相互联系的数据处理单元,类似于人类的神经系统。该系统首先对计算机存储的数字图像进行像素分析。随着像素数据从神经网络上的较低水平节点向较高水平节点传递,该神经网络对图像的表征也一步一步的抽象化,最终形成与人类大脑表征类似的抽象表征。

近些年来,由于深度学习 (deep learning) 技术的发展,神经网络思想得到了进一步的发展。大量神经网络技术被一些科技公司如谷歌、脸书等进行了商业化。计算机运算能力的发展也促成了该变化,即摩尔律 (Moore’s law):当价格不变时,集成电路上可容纳的元器件的数目,约每隔 18-24 个月便会增加一倍,性能也将提升一倍。

自上而下学习的一种方法叫做监督学习 (supervised learning)。 以学习猫这个概念为例,计算机需要的刺激是成千上万辐图画,其中一类图是猫,另一类图不是猫。计算机分析通过分析两类图片之间的差别和联系,找到猫所对应的抽象特征。基于这些抽象特征表征,计算机也就可以对一幅它从来没见过的图片进行判断了。自上而下学习的一种新兴方法叫非监督式的学习 (unsupervised learning)。在非监督式学习中,研究者只需要提前确定几个前提特征维度,而不需要对刺激进行分类。该方法可以通过刺激在不同维度上的特征变化模式确定刺激的类型。例如,鼻子和眼睛始终同时出现这一特征模式,会让机器能够正确区分面孔刺激和其他刺激。 (po 主注:如果没理解错的话,AlphaGo 从 1.0 到 2.0 的进化就是从监督学习到非监督学习的进化,因为 AlphaGo 2.0 不再像 1.0 版本那样学习人类棋谱了。)

用自下而上学习方法解释人类行为的一个问题是:人类在学习猫这个概念的时候是完全不需要大量例子进行练习的,人类儿童在非常早期就能正确识别小猫和小狗;人类也不会像机器一样犯一些看起来很无厘头的错误。

2. 自上而下的学习

与经验主义不同,理性主义 (Rationalism) 则认为人的推理可以作为知识的来源,如哲学家柏拉图 (Plato) 和笛卡尔 (Rene Descartes) 等。哲学渊源来自于理性主义的人工智能方法采取了一条完全相反的路子,即自上而下的学习 (Top-down learning)。该方法认为我们能够从具体经验中获得抽象的知识是因为我们已经具有了大量的知识,尤其是大脑已经具有了理解抽象概念的能力。个体认知世界就像科学家一样:利用已有概念形成对外部世界的假设,并预测在这些假设正确的前提下,数据将是什么样子或事件应该如何发生。

计算机科学家把此类模型叫做产生模型 (Generative model)。此类模型是二十世纪六十年代的主要计算模型。但产生模型存在两个重要缺陷。首先,研究者目前尚不清楚组成产生模型的基本概念来自何处。哲学家笛卡尔和语言学家乔姆斯基认为此类概念是先天具有的,即先天论观点 (Nature)。其次,大多数数据理论上都能由不同的模型假设进行解释。为了解决该问题,当代产生模型引入了概率的概念。融合了概率的产生模型叫做贝叶斯模型 (Bayesian models)。贝叶斯模型能够告诉你当一个特定假设为真时,你能够观察到某一特定数据模式的可能性。大量研究发现,自上而下模型比自下而上模型更能准确模拟儿童的习得过程。

3. 取二者之长

自下而上和自上而下学习有着各自的缺点。自上而下学习不需要任何前提假设,但需要大量的数据进行学习。相反的,贝叶斯方法只需要很少一些例子就可以了,而且贝叶斯方法的范化范围要更广;但是该方法需要在最开始就确定正确的假设集合。

儿童的学习过程更像是回避了两种方法之短而取二者之长。儿童既能从像自上而下学习一样从有限的几个例子中提取出抽象的概念结构,又能像自下而上学习单靠数据就可抽取出抽象的概念结构。而要使人工智能更像人类,似乎也应该把两种学习方法融合起来。

4. 参考文献

Gopnik, A. (2017). Making AI More Human. Sci Am, 316(6), 60-65. doi:10.1038/scientificamerican0617-60