复杂自适应系统与强人工智能的实现【Ref Lost】
强人工智能(Strong AI)是能够与人类智能相匹配甚至超越人类智能的人工智能,具有强人工智能的机器能够成功地表现出人类具有的所有智能。强人工智能是人工智能研究的终极目标,也是科幻小说作家和未来学家的重要话题。相对于强人工智能的是弱人工智能(Weak AI):使用软件来研究或实现特定的问题求解或推理任务,不以实现全部的人类认知智能为目标。
关于强人工智能的基本原理和哲学争论仍在继续,目前人工智能研究的主要是弱人工智能。人工智能发展了50多年,在崎岖不平的道路上取得了可喜的进展,特别与机器学习、数据挖掘、计算机视觉、专家系统、自然语言处理、规划和机器人等相关的应用带来了良好的经济效益和社会效益。但是,弱人工智能是先天不足的,因为它试图通过程序的执行去模拟复杂的人类智能。即使算法无比卓越,计算机的运算速度无比快速,运用最先进的人工智能技术造就的计算机的智能甚至还不如一个初生婴儿的智能。
强人工智能的实现是可能的,但是思路要改变,通过线性执行程序去模拟智能的方法是有其极限的,这是不可突破的瓶颈,因为弱人工智能中广泛使用的符号表示和搜索往往被证明是NP难的。即使量子计算机被成功研制,运算量不再是个问题,精心编制的软件也足以保证机器通过了图灵测试,但是关于通过图灵测试是否意味着强人工智能的争论仍然存在。因此,我们需要回到问题的源头:智能是什么?它是如何产生的?
Howard Gardner曾将人的智能分成七类:语言能力、逻辑能力、视觉/空间感、音乐感、形体姿态调节、人际交往能力、内省能力。人之所以具有如此丰富而复杂的智能表现,是因为人类智能的来源——大脑的复杂性。人类中枢神经系统中约含1000亿个神经元,仅大脑皮层中就约有140亿。这些神经元之间具有高度复杂的相互联系。正是大脑的这种复杂性,为智能的复杂表现提供了生物基础。每个神经元与周围的神经元相互联系,并不存在对所有神经元的统一控制,若干神经元共同作用形成大脑的某个功能区;大脑各个区域各司其职,协同作用,最终形成了智能。这些都是复杂自适应系统的表现。复杂自适应系统的一个重要特征是涌现现象。所谓涌现,是指复杂系统的多个要素组成系统后,出现了系统组成前单个要素所不具有的性质,这个性质并不存在于任何单个要素当中,而是系统在低层次构成高层次时才表现出来,所以人们形象地称其为“涌现”。对作为复杂自适应系统的神经元网络而言,智能就是其涌现现象。
因此,本文论述的要点之一是,智能作为一种高级生命现象,想用线性执行程序来模拟的方法注定是蹩脚的。智能是作为复杂自适应系统的神经元网络的涌现现象。所以实现强人工智能的最可行的方法是用人工神经网络模拟搭建类似的复杂系统。这是一项庞大的工程,也是一片广阔的研究领域。在研究过程中,自顶向下的方法是有帮助的,如将复杂网络分解成自我意识模块、记忆模块、情绪模块等。本文论述的另一个要点是讨论自我意识(Self-awareness)同样作为神经元网络的涌现现象,在强人工智能的实现中的核心作用。
1 复杂系统与复杂自适应系统
复杂自适应系统理论(CAS)是在1994年Santa Fe研究所成立十周年时,由Holland教授,在题为“隐藏的秩序”(Hidden Order)的报告中提出的。CAS理论的最基本的思想是自适应性产生复杂性。我们把系统中的成员称为具有自适应性的行为主体(Adaptive Agent),简称为主体。所谓具有自适应性,就是指它能够与环境以及其它主体进行交流,在这种交流的过程中“学习”或“积累经验”,并且根据学到的经验改变自身的结构和行为方式。整个系统的演变或进化,包括新层次的产生,分化和多样性的出现,新的、聚合而成的、更大的主体的出现等等,都是在这个基础上出现的。
CAS理论把系统的成员看作是具有自身目的与主动性的、积极的“活的”主体。更重要的是,CAS理论认为,正是这种主动性以及它与环境的反复的、相互的作用,才是系统发展和进化的基本动因。宏观的变化和个体分化都可以从个体的行为规律中找到根源。
神经元网络是复杂自适应系统的典型例子,十分明显的体现了复杂自适应系统的以上七个特征。在神经元网络中,每个神经元与周围神经元相互作用,这种相互作用是高度非线性的;每时每刻,都有大量神经元死亡,同时又有大量神经元产生,神经元与神经元之间连接的拓扑结构和连接强度都随时在变化着。单个独立的神经元是不具有智能的,它只是生化反应的载体,但是正是从数以亿万计的神经元相互连接构成的神经元网络中涌现出了智能。
了解了智能的来源后,我们就明白了,为什么通过线性执行程序去实现强人工智能的方法是行不通的。这种方法试图通过一种与形成人类智能截然不同的途径去实现智能,用线性去模拟非线性,用确定去模拟随机,最后发现面对的是令人望而生畏的计算复杂度。
因此,实现强人工智能的最可行的方法是搭建类似神经网络的复杂系统。这是一项庞大的工程,但并非不能完成的任务。需要神经生理学家、心理学家、计算机专家、数学家的密切合作。
2 自我意识
很多人(包括我)都不同意通过图灵测试作为具有智能的标准,反驳的理由主要是图灵机并不能像人一样真正理解语句后面的意义,它或许可以操作语法,但无法理解语义。为表明这一点,塞尔设计了“中文房间”思想实验:设想你坐一间有两个小孔的屋子里,从一个小孔递给你一些你根本不认识的中文字符,也就是说你完全不知道这些字符的意义。 但是你有一本操作规程,根据该操作规程你可以把递给你的那些中文字符转换为另一些中文 字符,然后将这些新的字符从另一个小孔送出去。简单地说,我们对这个房间只做下面三件 事:(1)中文字符被送入房间;(2)按照操作规程,将输入的中文字符转换为另一些中文字符;(3)将新的中文字符送出房间。塞尔指出,房间里的人完全不理解中文,甚至根本不知道自己所处理的符号就是中文,更不知道自己正确的回答了中文问题。因此,塞尔得到结论,纯形式的符号处理不足以产生心灵(Mind, 心灵哲学的研究对象,与智能相关但不同于智能,可以理解为最高层次的智能,如信念、欲望、意图、情感等)。我认为塞尔的反驳是有力的,但问题的本质是,无论对图灵机还是对塞尔的中文房间,我们有理由认为它们都不具有心灵,是因为它们没有自我意识(Self-awareness)。程序的一大特征是被动执行,程序可以通过逻辑推理进行问题求解,但是它并不真正理解问题的意义。
Descartes有句名言:“我思故我在。(I think, therefore I exist.)”对一智能体来说,关键在于具有思考的能力,也在于能够意识到自己在思考。我们可以随时意识到自身的姿态,身处何时何处;思考时,我们可以意识到自身处于正在思考的状态;我们有信念,有欲望,有意图:我相信…,我想要…,我打算…。Howard Gardner将人的智能分成七类:语言能力、逻辑能力、视觉/空间感、音乐感、形体姿态调节、人际交往能力、内省能力。容易看到,每种智能都无一例外地指向一个“我”:自我意识在智能中处于中枢地位。而这正是图灵机所不具有的。没有了自我意识,或许我们就成了刺激-反应体,或者被动行动的行尸走肉,我们意识不到自己从哪来,将去往何处,没有过去也没有未来,这是多么可怕的图景啊。
因此,为实现强AI,在搭建人工神经网络时,必须具有自我意识模块。关于神经元网络如何产生自我意识的机理还在研究中,有以下两个想法值得关注:1)自我意识是可以分层次的,从关注自身机体状态和身体姿态的低级自我意识(通常我们不会有意识的去关注)到信念、欲望、意图等高级自我意识。2)语言在自我意识形成过程中的重要作用。我们思考时离不开语言,对自我的意识也离不开语言。语言与思维的关系仍是个令人费解的问题。