财新传媒
位置:博客 > 集智俱乐部 > 贝叶斯网络之父:如何真正教会机器理解

贝叶斯网络之父:如何真正教会机器理解

文 | Kevin Hartnett 译 | 集智翻译组
导语
贝叶斯网络之父,人工智能领域的先驱,Judea Pearl 认为,人工智能已经在近十几年的快速发展中陷入了僵局。人工智能如何进一步发展?Pearl 的想法是,教会机器理解问题背后的根源。
Judea Pearl 对人工智能的发展贡献很大。在20世纪80年代,他曾主导能够使机器人进行概率性推理的研究。然而,现在他已经成为这个领域最尖锐的批评者之一。在他的新书《为什么:因果关系的新科学》(The Book of Why: The New Science of Cause and Effect)中,他认为人工智能的发展正在因为对于“什么是真正的智能”的不完全理解而受到阻碍。
 
三十年前,研究人工智能的主要困难在于,设计一种可以把一系列可观测状态与其潜在的原因联系起来的机器。Judea Pearl 利用一种叫贝叶斯网络的理论提出了解决办法。贝叶斯网络让机器能够实现预测,比如一个从非洲回来的病人,发烧并且浑身疼痛,那最有可能的解释是得了疟疾。2011年 Pearl 获得了计算机科学的最高荣誉——图灵奖,很大程度上归功于在贝叶斯网络方面的工作。
 
但是正如 Judea Pearl 所说,人工智能领域正陷入概率关联(probabilistic association)的泥潭。在近期的新闻中,标题党们大肆宣扬机器学习和神经网络的最新突破。我们得知计算机既能成为围棋大师,又能驾驶汽车。Pearl 对此很不以为然。他认为,如今最先进的人工智能技术不过是上一代机器已经能做的事情的升级:从大量数据中发现隐藏的规律。“深度学习所有令人印象深刻的成就只不过是曲线拟合(曲线拟合:是指选择适当的曲线类型来拟合观测数据,并用拟合的曲线分析两变量间的关系。)”,他说。
 
现如今81岁的 Pearl 在他的新书中阐述了真正的智能机器如何思考。他认为,关键在于用因果推理(causal reasoning)取代关联推理(reasoning by association)。机器不仅要能将发烧和疟疾联系起来,还需要具备推理出是疟疾导致发烧的能力。一旦具备这种因果推理的机制,机器就有可能提出虚拟的问题——追问在有干扰的情况下,因果关系将如何变化——Pearl 认为这是科学思维的基石。 Pearl 还提出了一种让这种思考成为可能的形式语言(formal languange)——一个21世纪版本的贝叶斯框架,使机器能够基于概率思考。
 
Pearl 期望因果推理可以为机器提供人类水平的智能。他进一步解释道,机器将能够更高效、更平等地和人类进行沟通,以具备自由意志,乃至邪恶的能力获得道德实体的地位。
 
最近,Quanta Magazine 在圣地亚哥的一次会议上采访了 Pearl ,并在随后通过电话进行了跟进采访。以下是经过编辑提炼的对话。
 
为什么你的新书叫作《The Book of Why》?
 
这是作为过去25年来我一直从事的关于因果关系的工作的总结:因果关系在一个人的生活中意味着什么,它的应用,以及我们如何回答那些本质上是因果关系的问题。奇怪的是,这些问题已经被科学抛弃了,所以我是为了弥补被科学忽略的部分。
 
科学已经抛弃了因果推理?真是个有意思的说法。所有的科学不都是关于因果推理吗?
 
确实如此,但是你无法在科学方程式中看到这个崇高的愿望。代数语言是对称的:如果X推出Y,那么Y就会反推出X,我说的是确定性关系。使用数学没有办法确定一个简单的事实——例如,即将来临的风暴让气压开始下降,而不是上升。
 
数学还没有发展出一种不对称的语言来表达我们的理解,如果X导致Y,并不意味着Y会导致X。我知道对科学说这种话听上去是一件很可怕的事。如果我对我妈妈说了这种话,她一定会打我。
 
但是科学更为宽容一些:如果我们缺少关于不对称关系的微积分,那么科学就会鼓励我们去创造一个。数学就是从这里介入的。看到一个简单的因果关系微积分,解决了被我们这个时代最伟大的统计学家视为不确定或者无法解决的问题,对我来说是一件非常激动的事情。这一切就像找到高中几何的证明方法一样轻松有趣。
  
你几十年前因为教会机器基于概率进行推理,在人工智能领域获得了成功。能不能说明一下当时人工智能的情况?
  
20世纪80年代初出现的问题具有预测和判断的性质。医生会从病人身上观察一系列的症状,希望找出病人身患疟疾或者其他疾病的可能性。我们希望能有一套智能系统、专家系统,能够代替收费高昂的专业人士——无论是医生,地质学家,或者其他领域的专家。基于这一点,我想出了一个从概率上分析的方法。
 
不幸的是,标准概率计算需要指数空间和指数时间。 我提出了一个叫做贝叶斯网络的方案,该方案需要多项式时间,而且非常透明。
 
然而在你的新书中,你把自己描述为当今人工智能社区的一个叛教者。这是什么意思?
 
意思是,当我们开发出能够让机器基于不确定性进行推理的工具时,我就离开了传统人工智能,转而去尝试另一项更有挑战性的任务:基于因果关系进行推理。我的许多人工智能领域的同事仍然被不确定性支配。有一些圈子的研究继续致力于判断行为,而不去关心问题的因果层面。他们想要的只是预测成功并且判断准确。
 
我可以给你举个例子。我们今天看到的所有机器学习工作都是在判断模式下进行的——比如说,给物体贴上“猫”或者“老虎”的标签。它们不关心被干预的情况,它们只是想识别一个物体,并预测它如何随时间演化。
 
当我开发出强有力的预测和判断工具,并且明白这仅仅是人类智力的小窍门时,我感到自己是一个叛教者。如果我们希望机器能够对干预措施进行推理(“如果我们禁烟怎么办?”)以及自省(“我高中毕业之后要做什么?”),那我们就必须引用因果模型。仅有相关性(associations)是不够的——这是一个数学事实,而不是建议。
 
人们对人工智能的可能性感到兴奋,难道你不是吗?
  
随着我尽可能深入地研究深度学习,我发现它们都被困在了相关性(associations)的层面。也就是曲线拟合。说所有深度学习令人印象深刻的成就只是尽可能从数据拟合出一条曲线,这听起来像是亵渎。从数学层次结构的角度来看,无论你如何巧妙地操作数据,以及在操作数据后分析数据,它仍然是一个曲线拟合的练习,尽管它很复杂,不容易。
 
 
你谈到了曲线拟合的方法,看起来你对机器学习并不是很感兴趣?
   
不,我非常感兴趣。因为我们没有预料到居然有这么多的问题可以被曲线拟合解决。事实证明它们可以。但是我想知道的是关于未来——接下来会发生什么?你能找到一个机器人科学家,它能够设计一个实验,找出未被解决的科学问题的新答案吗?这就是下一步该做的。我们同时也希望引导一场有意义的对话,有意义意味着与我们的直觉相匹配。如果你剥夺了机器人对于因果关系的直觉,那人和机器人之间的交流就永远不会有意义。机器人不会像你我一样,会说出“我本可以做的更好”。因此,我们失去了一个重要的沟通渠道。
 
什么样的机器可以分享我们对于因果关系的直觉?
  
我们必须为机器配置一个环境模型。如果机器没有和现实相关的模型,就不能指望机器在现实中拥有智能行为。第一步是由人类使用编程为它们搭建一个现实的概念模型(conceptual models),这个步骤可能会在10年内实现。
 
下一步是,机器将会以这种模型为基础,根据它们的经验来验证并完善这些模型。科学就是这样:为了解释天体运行规律,先提出地心说,最终建立日心说。
 
机器人也会互相交流,并用隐喻模型(metaphorical models)来理解假想的世界、原始的世界。
 
当你和现在的人工智能从业者分享这些想法时,他们是什么反应?
  
人工智能领域目前正在分裂。首先,有些人沉醉于机器学习、深度学习和神经网络的成功,他们不明白我在说什么。他们希望继续使用曲线拟合。但是当你和那些在统计学习之外的人工智能领域做过任何工作的人交谈,他们就会立刻理解我的想法。在过去的两个月里,我已经读到了好几篇关于机器学习局限性的论文。
 
你是说有一种偏离机器学习的趋势在发展?
  
不是一种趋势,而是一种严肃的、自我反省的努力,包括时刻问自己:我们要去向哪里?下一步应该是什么?
 
这是我想问的最后一个问题。
  
我很高兴你没有问我关于自由意志的问题。
 
在这种情况下,你认为如何看待自由意志?
  
我们绝对会产生拥有自由意志的机器人。我们必须知道如何对它们进行编程,以及我们能够从中获取什么。出于某种原因,进化发现这种自由意志的知觉在计算上是可取的。
 
用什么方式?
  
你有自由意志的知觉;是进化让我们拥有了这种感官。显然,它具有一些计算能力。
 
机器人拥有自由意志会是一件明显的事情吗?
  
我认为第一个现象会是,机器人以虚拟的形式彼此沟通,像“你本来可以做得更好”。如果一个机器人足球队开始使用这种语言交流,那么我们就会知道它们有自由意志的知觉。“你应该把球传给我——我在等你,但你却没有传!”“你本应该”意味着你可以控制那些想让你做某件事的外力,并且你没有做。所以第一个信号就是沟通,第二个信号就是成为更好的足球运动员。
 
既然你已经提出了自由意志,我想我应该问问你如何看待所谓的“邪恶”,我们通常认为这取决于选择的能力。什么是恶?
  
所谓邪恶(evil), 就是一个人的贪婪或不满超出社会规范的限度。例如,你身上有一个类似于软件模块的东西,上面写着“你很饥渴,你可以采取行动来满足你的欲望和不满”。但是你身上其他的软件模块要求你遵守法律和社会规范。其中之一就是同理心。当你把不满模块的水平提升到社会规范之上时,那就是恶。
 
那么,如果人工智能有能力作恶,我们如何得知呢?
  
这些用来规范行为的模块,早已被人为地编写进了 AI 程序,或是经过学习而编写进程序。当机器开始忽视,甚至长期忽视其中一些模块时,当机器有选择地遵循其中某些模块的指令时,或者当机器人开始无视行为规范模块的指令时,你就知道,人工智能已经有能力作恶了。
 
而这个时候,机器已经不再遵循你的指令了。
 
来源:www.quantamagazine.org
翻译:陶如意
审校:梁金
编辑:集智小风
原文地址:https://www.quantamagazine.org/to-build-truly-intelligent-machines-teach-them-cause-and-effect-20180515/
 
推荐 8