财新传媒
位置:博客 > 集智俱乐部 > 21世纪的人工智能?

21世纪的人工智能?

也许是长期思考的释放,我写下了这篇文章,首先是回顾并展望了人工智能的发展,其次对一些相关的哲学问题进行了探讨。 我们先来看看人工智能几十年来的发展历程。

首先,是符号学派大出风头,人们非常自信的相信假如把足够的知识输入给电脑,它就可以进行通用问题的求解。早期 的这类AI方法明显属于一种自上而下的思维方式。人们直接对头脑的搜索、求解行为进行模拟,并认为理性就是全部。然而这种Ai不如说是 AS(Artificial stupid),他们用数学模型的精确性换来的却是机器人的死板性。

20多年以后,另外两个学派开始占上风了。一类学派是连接学派,也就是现在已经热过头的ANN(人工神经网络),另一个是行为学派。这两种学派的思路其实 都是一种自下而上的建造人工智能的方法。ANN更强调对大脑结构的真实模拟,行为学派则干脆极端的否定智能需要知识的表达及其求解。这两种学派都认为,只 要给我足够的硬件资源,建造足够大的网络,让机器足够充分的进化,人类的智能特性就会一个接一个的从模型中“蹦”(涌现)出来。

之后,90~2000年代,人们开始考虑新的综合,也就是把早期的符号学派和后期的连接与行为学派相结合。并且,人们越来越发现,要让一个系统足够聪明, 我们需要赋予该系统足够充分的功能。ANN仅仅模拟学习功能,符号学派仅仅关心推理功能,然而单个儿的系统并不能解决所有问题,所以人们越来越关心构造一 个完整的模型,这就是Agent的概念。虽然目前,Agent仍旧五花八门,但其最主要的目标就是把一个较完整的独立思考、决策的过程做到计算机模型中, 所以Agent需要推理、学习、反应等等。

沿着这种思路,人们发现了情感的重要性。因为人们发现智能重要的学习功能来源于一种评价机制,早期的评价机制是一种外在的仲裁者,然而真正的智能体需要内 建这种评价机制。于是这就是情感的作用,Agent需要自己的好恶才能体现真正的智能!

有了这些零零碎碎的知识,人们开始整合一个大的系统。这就是很多Agent框架的提出。目前越来越多的人开始思考一种有机的整合方式能够把推理、反应、学 习、情感统统包容起来。最好是设计一套底层的规则,让所有的那些属性全部自发的在宏观涌现。于是很多西方科学家在思考人工脑工程(Artificial mind),也就是寻找一种类似细胞自动机这样的底层规则,涌现出一类类似智能的系统。

上述为对我所认识到的AI发展的局部总结。沿着这个思路想下来,我们不难看到,人们目前主要的目标就是要搭建一个框架能够整合所有我们已经掌握的功能。我 换一种说法来表达我的意思也许能引起更多人的重视: 目前,人们的最主要目标就是建立一个最小(最简)的脑模型,这个脑模型的底层规则要足够简单,但是在整体要能体现以下几种功能:1、适应性的反应行 为;2、以情感为中心的内建评价机制;3、涌现出的适应的逻辑搜索、问题求解等功能。 总之,新的人工脑模型首先要是一个自下而上的涌现、进化的适应系统。

其次,这个模型要能在一定程度上体现出早期符号学派的功能,包括推理和问题求解等等。 目前的深度学习理论和技术已基本能够达到这个目标,只不过在高层次的逻辑、问题求解方面还是稍显不足,但目前Deep Mind公司正在致力于这方面的努力。

这样一套人工智能模型最终将会达到什么样的程度呢?我认为随着模型的日渐完善,它将会最终逼近一个哺乳动物脑的智能,或者说可能是一个儿童的智能水平。

我相信这样的一个模型框架应该不算非常遥远了。然而这一切就能解决人工智能的全部问题么?我们还有哪些问题没有解决呢?

1 自我觉知的能力

人类的一个伟大地方就是自我觉知的能力。也就是说自己知道自己在做什么。这种知道不仅仅是学习,也不仅仅是从环境的反馈中获得的对自我的认识,而是能够在 头脑内部自建一个自己的模型。自我觉知的能力来源于对自己的直接观察,或者说直接把系统的输出不经外界输入给自己。这种觉知其实就是一个非常简单的自观察 系统,我相信它不难实现,但是却没有被AI主流重视。我个人认为这种自观察、自我觉知的能力是让机器聪明起来的关键之一。

2 高层次的学习能力

目前,低层次的学习能力机器已经基本具备,然而人类高层次的学习能力则还在艰难的探索中。其中包括类比、联想、创造等等,目前已经有一批科学家正在研究类 比与创造。

3 理解

什么是理解?我们用理性的头脑来理解,然而我们的头脑是否能够理解“理解”本身呢?当我们说理解了某一类事物的时候究竟意味着什么?显然,理解不同于简单 的学习和推理。似乎,理解就是一个从规则上升到元规则的过程。那么,现在我们要创造人工智能,这种AI自己可以“理解”么?世界上的所有事物都是可理解的 么?我们探索人工智能的过程始终伴随着用人类智能来理解智能的过程。

到目前发展的每一步,都是我们先理解了其工作的过程才能把它赋予人工智能。比如,情感 的机制,心理学家先理解了情感的工作原理,才能总结出1、2、3的规则,然后计算机专家把它编成计算机算法。我的一个猜想是:似乎可理解的事物都能够编写 成算法。

回想人类的科学史,只要我们能够用纯粹理性的手段把某一事物描述清楚了,就能够把它抽象成1、2、3的算法规则。这是人类理解的本质。所以我认为 理解本身就是一个算法的抽象形成过程。人工智能能否解决理解问题?可以肯定,直接对理解进行编程不太可能完成,然而借助涌现是否可以完成呢?似乎可能,涌 现和理解有着非常奇妙的关系。因为不能用算法做的东西可以用涌现来逼近,但是目前所有的涌现模型都没有直接针对理解来进行,也许这也是未来的一个重点。

4 意识

目前世界的一大群一流科学家已经开始思考人类智能的最后堡垒:意识。意识是什么?请注意,我们正在用我们的意识来思考这个问题。假如我们创造了真正的人工 智能,它们也会具有意识,那么它们也会思考同样的问题。阿西莫夫很早就聪明的给智能生命下了这样一个定义:所谓的智能生命就是那种能够创造出比它们的造物 主更聪明的东西。这意味着一个无穷增长的链条,1类智能生命创造了2类智能生命,2类智能生命创造3类……。

如果人工智能可以实现,那么它们必然会创造属于它们自己的人工智能。也许只有这样,我们才能获得对智能的绝妙定义。 有些人可能会争论,既然大自然创造了人类智能,人类智能是从无机物进化来的,那么我们为什么不能创造大自然的这种条件,再造智能呢?我觉得这个思路真的很 难驳倒,但是有一点是肯定的,这种纯粹的涌现思路是不可理解的。也就是说我们让一群人工神经元相互作用期望它们涌现出智能从理论上说是可能的,然而该过程 却不是我们能理解的。这就好像我们说人脑是亿万个分子构成的一样,我们并没有对该问题具有深刻的理解。因此,这种不可理解的涌现性正是坚信涌现创造智能的 一个误区。

究竟人们会不会完成人工智能呢?我认为从涌现技术上也许可能,但是从理论上理解不会,然而人们又必须完成。回顾人类整个的科学发展史,不难发现,整个人类 的脑区:科学界已经逐渐形成一个自指的怪圈,而且这个怪圈正在以前所未有的速度收缩,没有任何一个人能够停止它。它似乎是一种宿命,就好像人天生就是为了 了解自身为终极任务一样,人类的最终目的就是要形成对人类意识、智能的自我意识。 智能这个问题具有很多奇妙的性质,我只是看到了一两个能勾引我自己兴趣的神奇特征说了出来。当然,这仅是我个人的观点,至于它的对错,是否有价值,希望各位点评。

作者:张江 北京师范大学系统科学学院副教授。主要关注领域:复杂系统中的流网络、异速生长、计算社会科学。2003年创办早期的集智俱乐部网站,2007年创办线下活动的集智俱乐部,组织多学科研讨会、读书会。

推荐 0