首页 宗教 历史 传记 科学 武侠 文学 排行
搜索
今日热搜
消息
历史

你暂时还没有看过的小说

「 去追一部小说 」
查看全部历史
收藏

同步收藏的小说,实时追更

你暂时还没有收藏过小说

「 去追一部小说 」
查看全部收藏

金币

0

月票

0

《复杂性中的思维物质》-2

作者:克劳斯·迈因策尔 字数:59548 更新:2023-10-09 13:57:10

“人的脑和心问题上的牛顿”被找到了吗?当然没有。复杂系统探究方式不能解释精神是什么。但是,我们可以为在一定条件下的某些精神状态动力学建立模型。甚至原则上也包括为意向性行为建立模型。复杂系统不需要类似于大脑中的“小人”这种虚构的中心处理者。因此,瓦丘的富有嘲笑意味的观察过时了,他的观察中没有发现人体中有任何灵魂,甚至经过了上百次的解剖也是如此。精神气质被理解为复杂系统的一种整体状态,由其部分的局域非线性相互作用引起,但是不可能被还原为部分。我们的奇妙的情感、想像和创造性,自从人类文化开始以来一再为诗人和艺术家所赞颂,但是复杂系统方式还没有触动这些问题,尽管我们将模拟其非线性动力学的某些方面。4.1从柏拉图的灵魂到拉美特利的《人是机器》自然中的最复杂的器官之一是人的大脑。今天,我们知道,由于有了大脑,才使得人的精神、意识和人格的形成成为可能,而这一切自从人的思维出现以来一直被看作是人的最大的奇迹之一。运用复杂系统探究方式,我们可以用复杂神经网络的非线性相互作用来为人的感知和思维的形成建立模型。因此,复杂系统的模型就有助于我们去理解心-身过程是如何工作的,是如何在一定条件下的自然进化中出现的。基于这种观点,从长远来看,对于符合自然进化规律的意识和精神的形成,也就不会感到惊奇了。但是,它的产生仍是一个谜。在我们探讨复杂系统和心-身的进化之前,让我们先回顾一下早期的精神哲学和神经生理学史。对照历史背景,我们可以看到,传统的心-身问题中的哪些问题已经由复杂系统探究方式解决了,哪些问题还没有得到解决。在前面的几章中,我们已经指出早期的神话和宗教信念都试图解释人们生活的世界并对自然力作出想像。显然,人的欲望、恐惧、愤怒和想像力,如同自然的强制力那样,支配着人所生活的世界。意识或心灵或精神或灵魂都是生命所经历的,它们似乎在人死后就“离开”了人体。人们已经力图用自己熟悉的关于相互作用着的物理事物的经验,来为这些未知的过程建立模型。精神或意识状态被假定为叫做“灵魂”的特殊的实体或某种类似的东西,正是它们造成了人的意向性行为。伴随着这种精神状态的假设,引出了这样一个问题:灵魂处于身体中何处。通常的回答是,它是由身体提供的,或它是集中在某些器官中,例如心脏和肺部。尽管这种惊人的“事物”效应显然是真实的,但是它不能像上帝或幽灵那样,是不可见、抓不住的。因此,人们普遍地相信,它具有某种神性的起源。前苏格拉底的哲学家们,在对传统的信仰和宗教信念的批判中,从自然中寻求原因和原素。一些思想家把“灵魂”看作诸如“气”和“火”这样的物质,因为,它们被看作最精细、最轻盈的物质形式。在阿那克萨戈拉看来,精神是运动和有序的原则,因此也就是生命的原素。在赫拉克利特看来,灵魂如同由宇宙的规律(逻各斯)所控制的火焰。灵魂如同火,被水消灭:“死就是灵魂变成水”。这些探索就是用熟悉的已知的东西来为未知的东西建模。值得注意的是一位早期的医学思想家、毕达哥拉斯派学者、克劳东的阿尔克梅翁,他看来是第一位把感觉和思维定位在大脑的古希腊思想家。像古希腊早期的太阳中心宇宙中的天体模型一样,这种天才的思想很快就淹没在亚里士多德的权威之中,亚里士多德认为心脏是意识的场所,大脑仅仅是用空气来进行冷却的机器。尽管亚里士多德深受古希腊医学思想家的影响,但是他不同意希波克拉底的伟大洞见:大脑是“意识的信使,并告诉它发生什么”。德谟克利特捍卫了早期的还原主义精神哲学。他力图把精神状态还原为最小原子的相互作用。他的还原论中,“灵魂”当然就仅仅由特殊的物质(但不可观测的)原子来定义。与物质的定义或类比相反,毕达哥拉斯哲学家把人或动物的灵魂解释成非物质性精质,因为它可以想像为非物质的思想,如数字和关系。换言之,灵魂是用数学的比例系统来建模的,它的和谐或不和谐代表着如同音乐旋律的精神状态。毕达哥拉斯的概念影响了柏拉图关于人类灵魂的哲学,这种哲学与他的形式或理念论结合在一起。在他的对话《美诺篇》中,柏拉图表明,一个未受训练的奴隶是可以求解数学问题的。在柏拉图看来,所有的人在获得任何(先验的)经验之前都有某种永恒的知识。人通过分有永恒的形式和理念具有某种先验的知识例如数学,这些形式和理念是ante rem即与存在物的失真的、暂时的表面现象无关。亚里士多德批评了柏拉图的实在背后的理念世界的假说。理念是人对形式的抽象,形式在自然中发挥着作用。灵魂被描述为活物体的形式(“实质”),即“原初隐德来希”,它是一种目的性力。但是,它并不与物质分离。灵魂是人体中的一种潜能。按照亚里士多德的说法,人的机体被理解为一个整体。然而,在亚里士多德和斯多葛传统中,已经发现了神经系统的解剖学。盖仑相信,神经把心灵普纽玛输送到肌肉,从而引起运动。心灵普纽码不仅仅是一种如同呼吸和空气那样的物质材料,也是一种生命精灵。在中世纪,亚里士多德和斯多葛派的自然哲学对伊斯兰传统中的医学思想家有巨大的影响,如阿维森那,他建立了一个医学学派,在手术、药理、治疗和康复中都留下了令人印象深刻的活动。后来,这些波斯和阿拉伯世界的医学准则只为少数几个基督教中世纪的思想家如艾伯特·马格努斯所认识。在关于心和脑的哲学方面,例如,有关人的意识问题的科学讨论总是被宗教意识形态所掩盖,解剖尸体长期以来也是相当危险的事情。与亚里士多德和阿维森那传统中的整体论哲学相反,笛卡尔的理性主义倡导了一种二元论的本体论,把精神和物质、灵魂和身体严格两分。人体是一台物质机器,是按照机械和几何定律构造起来的。它受到天赋观念的引导和控制,天赋观念体现在人的精神之中。在他的《沉思录》中,笛卡尔通过怀疑一切事物的方法而得到人的精神的最基本直觉。方法上的怀疑是要找到那不容置疑的东西。笛卡尔能够怀疑所有的科学的结果、常识的结果和感知的结果,但是他不可能怀疑他自己的存在,这样的存在使得认识过程如怀疑成为可能。那我是什么呢?是那进行思考的东西。所思考的东西是什么呢?它在进行着怀疑、理解、肯定、否认、下决心、反驳,它还在进行想像和感受。当然,笛卡尔理论的困难之处在于精神和身体的相互作用。他假定人的机体以及它的种种器官都是受到座落于大脑中的精神所引导的。神经是进出于大脑的消息通道。它们作为发令的精神和执行的肌肉之间的因果链而起作用。按照他的力学的钟表范式,笛卡尔相信,在神经通道中快速地运动着所谓的“动物精灵”的细微物质粒子,它们相互推动着,从而把来自大脑的输入传递给肌肉。与自然界的所有机械效应相反,人的精神可以自由地决定运动的方向。因此,精神对动物精灵的作用就使它们的运动转向。这并不违反笛卡尔的物理学规律,只要“运动的量”是守恒的(即后来所谓的动量守恒定律)。图4.1示意出笛卡尔的机械感知模型:微小的光线粒子撞击着人的眼睛,通过特定的神经激发了大脑及其“动物精灵”。手臂的运动由大脑中的精神的感知所协调。在《灵魂的情感》一书中,笛卡尔甚至试图把所有的情绪状态如害怕和热爱分析为被动的物理结果,种种“动物精灵”的流动都由外部事件引发。如果在笛卡尔的机械模型中,用生物化学物质和物理电效应如荷尔蒙和神经激发来取代动物精灵,那么这种神经活动概念就显得相当现代了。笛卡尔的主要困难是非物质的中介相互作用问题,也就是无广延的不可见的精神,与物质性的即有广延的可见的身体之间的相互作用问题。笛卡尔把精神植于非常小的脑器官——松果腺之中,而松果腺驾驭着动物精灵的运动。但是,无广延的精神是如何作用于有广延的粒子如动物精灵的呢?在力学的框架中,这种相互作用问题原则上是无法解决的,从而引起了精神哲学的若干发展。在偶因论哲学家如马尔布兰奇看来,所有的因果关系都是不可思议的。上帝必定干预了所有特定情形的因果作用。因此,心-身问题就赋予了神学的特设假说。斯宾诺莎把笛卡尔的心和身的二元论归结为单一实体的一元论。上帝就是万物的唯一实体。自然、精神和身体的一切外表,都仅仅归结为宇宙“实体”的属性(“状态”)。任何时候都没有奇迹。但是,上帝和人的精神都自然化了,自然也就在宇宙泛神论中变得神圣了。按照复杂系统探究方式,正是莱布尼茨提供了最令人瞩目的精神哲学。与其自然哲学相联系,我们回想起莱布尼茨的宇宙,它与笛卡尔和斯宾诺莎的宇宙相反,是由无限的许多实体(“单子”)构成的,它们相当于空间中不同点的观察,或多或少地透视了整体。因此,单子被看作一种类似灵魂的实体,被赋予了感知和记忆,但是其意识的清晰程度有差别。有些实体例如人,与动物、植物和石头(它们的意识程度是逐次降低的)相比,具有较大感知和较高程度的意识。甚至上帝也可以植于莱布尼茨的单子论中,它作为中心单子,对整体具有最高程度的意识和最好的感知,但仍然是一种个体和有差异的实体。显然,莱布尼茨没有笛卡尔的相互作用论的形而上学问题。他实际上试图把经典的力学与传统的亚里士多德自然目的论结合起来,因为他意识到机械论缺少的精神哲学成份。从现代的观点看,莱布尼茨的类似灵魂的实体显得有些奇怪,它们具有感知和记忆,具有或多或少的生机。但是,对他来说,在具有或多或少复杂性的自动机框架中,用单子论来建立模型却毫无困难。莱布尼茨提出,每一实体都可以用一种单子的自动机来建立模型,单子的不同状态相应于单子的不同的感知。其意识程度是用其复杂性程度来度量的,标志着单子状态空间和信息处理能力的大小。莱布尼茨的具有不同复杂性的自动机的状态,都在关联网中相互关联,用他的名言来说就是单子没有“窗户”、没有相互作用,但是像巴罗克建筑中的镜子一样相互反映。在第五章“复杂系统和人工智能的进化”中,将更详尽地讨论莱布尼茨的单子之网。总之,莱布尼茨假定了,精神不仅仅属于人类,而且也是系统的一种特征,这些系统按照其复杂程度表现出不同程度的强度。英国经验主义哲学家如洛克和休谟批判了笛卡尔-柏拉图的如下信念:精神状态可以用反省和纯粹思维的方式进行分析,而无需感觉经验。在经验主义哲学家看来,精神只不过是一块白板,一个接受感觉数据的贮藏室,它是通过联想和抽象而形成概念的。想像只是感觉印象的不那么生动的复本;感知印象可以形象地结合起来,形成如同独角兽那样的概念。从复杂系统探究方式来看,休漠发展了一种著名的联想心理学理论。他主张,自然中没有因果机制,精神中也没有因果规律,因果关系只不过是对于那些感觉印象的无意识的联想反映,它们在若干情形如闪电和雷鸣以关联的方式出现。我们可以说,大脑具有无意识的建造感觉印象模式的能力。概念只不过是标志具有或多或少复杂性的感觉印象模式的术语。除了数学以外,再没有建立在感知基础上的明确概念,只有一些关于事件的或多或少概率断言的模糊模式。在《人类的本性》一书中,休谟写道:在我面前的桌子仅其外表就足以得到广延的观念。于是,这种观念是从印象中获得并表现的,是在这一时刻显示给感觉的。但是,我的感觉向我传达的印象,不过是有颜色的点,处于某种方式。如果眼睛可以更进一步地感知事物,我就希望它可以向我揭示这一切。但如果它不可能进一步显示出任何东西,我们就可以得出有把握的结论,广延的观念只不过是这些颜色点以及它们的表现方式的复本。按照笛卡尔的理性主义,人的精神支配着身体机制,如同他所处的专制主义时代的君主统治着国家。对于休谟来说,不存在脱离的人的精神实体。存在的只不过是一个自组织的区域,其中不断地发生着新模式的生成和旧模式的消失,这都由强度不同的感觉印象的联想所引起。休谟的感觉印象的自发结合和分离,可以比做民主社会中的自由公民,他们以群体或党团形式结合起来,而不是听命于君主。康德试图把理性主义和经验主义综合起来。经验主义的观点是,认识始于经验和感觉资料。但是,理性主义是对的,因为我们需要精神结构、认知图式和范畴,以组织经验和认知。康德试图引人奠定牛顿力学公理的哲学范畴。他的认识论的主要特征是,认识并不是我们大脑的白板对外部世界的被动印象所引起的。在康德意义上的认识,是一种主动的过程,由先验的范畴产生着世界的模型。物理事件的空间和时间顺序被归结为直觉的几何形式。在康德意义上的感知是主动的信息处理过程,受到先验预期的调控。通过先验的因果范畴,事件的因果联系在哲学上成为可能。因果关系是不能感觉在这点上休谟是对的,但是,在休谟看来,为了精确预见和计算弹子球弹出的路径,只是重复弹出弹子球几次并重复联想感觉印象几次还是不够的。我们必须预期,原因和结果可以由某种确定论的关系联系起来。康德认识论中的一般(确定论的)因果图式实现了这一点。但是,哪一种特定的原因作用是合适的,这个问题要由物理实验来确定和检验。认知图式已经在日常生活中运用着。它们在计算机科学中甚至用编程语言的数据图式来建立了模型(参见5.2节)。因此,康德的认识论可以解释为现代认知科学的重要先驱,在认知科学中假定由认知图式整理大量的经验材料。但是,与康德相反,这些认知图式可以在历史发展中发生变化,正如相对论中从欧几里得空间转变到非欧几何空间所表明的那样。斯宾诺莎主张一种精神的一元论,以跳出笛卡尔的二元论,而拉美特利却支持一种唯物主义一元论。笛卡尔的分离中类似灵魂的实体的假设被认为是多余的,因为所有的精神状态都应该归结为人体中的机械过程:“人是机器”。拉美特利主张,在人和动物之间并无根本性差异。智能和反映行为都应该用神经的“冲动”来解释,而不是用“机械中的幽灵”来解释。但是,在18世纪的力学框架中,拉美特利的革命性观点只是鼓舞了生理学研究纲领。著名的数学物理学家和生理学家赫尔曼·冯·赫姆霍兹(1821-1894)是一位后康德哲学家。他支持一种自然化的认知范畴框架,它是构造任何对世界的特定感知所要求的。当然,康德以后,范畴也发生了变化。然而,仍然有一些基本的图式如空间、数目、测量和因果性概念标志着19世纪的物理学理论。例如,赫姆霍兹意识到了非欧几何的数学可能性。因此,他认为,正确的物理几何必须由物理测量来确定。在生理学理论方面,赫姆霍兹起初是约翰尼斯·米勒(1801-1858)的学生,约翰尼斯·米勒常常被人们称作现代生理学之父。米勒坚持一种特殊的神经能定律,它要求每一神经都具有其自身特定的能量或品质。他发现,感觉是可以由机械影响或化学影响、热、电等等所激发的。康德有关感知的一面现在自然化了,因为它证明了,脑必须根据其对于神经的效应来重构世界。然而,米勒坚持一种非物质的动物精气的概念。他相信,动物精气是不可能测量的,因为它们的速度太快了。赫姆霍兹从数学方面探讨了能量守恒定律。由于能量可以转化,但是不可能创造或消灭,生命的非物质的能量超出了守恒定律因而显得没有意义。赫姆霍兹偏向于这样的理论,即一旦涉及到能量问题,身体就可以看作是把能量从一种形式变换为另一种形式的机械装置,而无需特殊的力或精气。化学反应可以产生出机体所产生的所有物理活动和热。肌肉的活动是由肌肉中的化学和物理变化所实现的。赫姆霍兹进一步测量了神经传导速度,并揭示出,它甚至比声速还要慢。从哲学上看,这些结果被解释为对米勒的生命力论的驳斥。埃米尔·德·博伊斯-雷蒙德(1818-1896)是米勒的另一位学生。他认为,神经效应实际上是一种电活动波。在那时,组织学借助显微镜开始发现独立的细胞体和纤维。按照这些结果,神经活动和大脑看来是复杂的神经细胞(“神经元”)系统,具有复杂联结网络。20世纪初,人们首次描述了神经元通信结构,其中一个神经元向另一个神经元发送信号。但是,对于突触联系的观察,在本世纪中叶左右开始运用电子显微镜之前是不可能的。感知、思想和情感的出现如何从这些神经解剖学和神经生理学的描述中得到解释呢?一位最先用神经网络的细胞集合体来解释精神状态的思想家,是美国哲学家和生理学家威廉·詹姆士。詹姆士在他的简明教程《生理学》(1890)中,坚持达尔文主义和进化观点,认为大脑并非是为了进行抽象思维在进化中构造起来的,而是为了保证生存才构造出来的。他以实用主义的方式假定,大脑具有许多良好的工程求解问题的特征,它们适用于精神操作:离开了进行认识的物理环境,精神因素就不可能得到适当的研究……总之,精神和世界必须一起进化,因此也就是某种相互适合的结果。大脑组织在进行算术演算和形式逻辑推导时显得十分可怜。但是,形成概念和联想的能力,作出好的猜想和提出假说,却是大脑的显著特征。詹姆士提出了一种关于联想的机械模型,它可追溯到休谟的先驱性工作,并启发了我们后来的联想神经网络。以更定性的方式来看,他提出了某些原理,其中一部分为现代复杂神经网络的数学模型所吸收:1.詹姆士相信,联想是机械性的,是大脑皮层的功能。2.詹姆士的联想原理:当两个基元脑过程一起被激活或随即相继被激活时,其中之一具有再现出将激发传播给另一个的趋势。3.詹姆士的脑活动的加和规律:脑皮层中任意给定点的活动量,都是所有其他点向它放电的趋势之和,这种趋势(1)正比于该点伴随的激活次数;(2)正比于这种激发的强度;(3)正比于竞争点的缺少,这种点与第一个点没有功能联系,向其中放电可能转移。如果在第二个原理中,用“神经元”代替“脑过程”这个术语,那么我们就获得了一种突触的描述,突触是霍布后来引入的(参见4.2节)。如果在第三个规则中,用“神经元”代替“大脑皮层中的点”,我们就获得了突触输入的线性加和规则,这与某些霍布类型的神经网络模型很接近。詹姆士还讨论了部分联想的网络通过某种特殊的细胞联结程序将遗失部分重建起来的能力。尽管詹姆士虽然是不熟悉计算机辅助建模的,但是他已经抓住了复杂系统探究方式的基本见解,即复杂的事件是由大量子联想构成的,它们是通过诸如突触这样的基本机制联结起来的。在论述“联想”的一章中,詹姆士讲到了一个人对一个晚宴聚会的思考。此人在考虑晚宴的所有活动时,首先只是想到第一步具体做什么。这第一步的所有细节的组合又只是随后提醒下一步,如此等等。对于图4.2,詹姆士概括地描述了这种过程:例如,如果a、b、c、d、e是由晚宴聚会最后活动所激发的基无神经迹,可将其称作动作A;l、m、n、o、p是要穿过夜幕回家的基元神经迹,我们将其称作B;因为a、b、c、d、e的每一个和全部放电都将通过此路径向l放电。类似地,它们向m、n、o、p放电;这些后来的基元神经迹每一个都将加强另一个动作,因为在经验B中,他们已经共振起来。图4.2[4.19,图5.7]中的线段示意了放电进入每一个B的组元的加和,这些影响的组合强化了其中的处于加和的B,使B被唤醒。詹姆士坚信,“精神质料表现出的有序只是脑生理过程引起的”。在现代的复杂系统探究方式中,序参量被用来描述精神状态,它们是由宏观的神经元集合体引起的。在后面的各节中,我们将看到,从前苏格拉底哲学家到康德和詹姆士,他们对于精神操作的许多基本见解,甚至今天也并没有从根本上被改变。4.2复杂系统和神经网络19世纪,生理学家发现了诸如感觉、视觉和肌肉运动等等依赖于个体细胞的神经系统的宏观效应。这些细胞通过引发电流或对电流作出反应,从而能够接收和传送信号。显然,神经系统和大脑是自然界进化中的一种最为复杂的系统。人的大脑中至少有100亿个神经细胞(神经元)。每一个神经元都接受其他细胞的输入,并把输入整合起来,产生出某种输出,并将它送给其他的神经元。输入由特定的突触所接收,输出由特定的输出线所发送,这种输出线叫做轴突。一个神经元自身就是一个复杂的电化学装置,其中包含有连续的内部膜电势。如果膜电势超过了一定的阈值,神经元就传送一个数字作用电势给另外的神经元。在细胞体中产生的神经脉冲,沿着一个或数个轴突传播。神经学家通常区分出激发突触和抑制突触,这使之有些类似于神经元的发放动作电势。围绕着突触的树突可以接收来自数个到数千个其他神经元发送来的信号。一个神经元的活性是用它的发放频率来度量的。生物神经元并非二元的,因为输出是连续的。不过,许多神经网络模型都进行了简化,运用二元计算单位。大脑是这种细胞的复杂系统。虽然单个神经元没有视觉,不会推理,也不能记忆,但是大脑却可以具有这些能力。视觉、推理和记忆被理解为较高级的功能。倾向于自下而上策略的科学家提出,只有每一神经元和突触的特殊性质都得到探讨和解释以后,大脑的较高级的功能才能得到认识和理解。复杂系统探究方式的一种重要洞见是揭示了,整体系统的突现效果不可能还原成单个元素的系统效果。从哲学上看,整体大于其部分之和。因此,对于大脑的纯粹的自下而上的探索策略是注定要失败的。另一方面,纯粹自上而下策略的拥护者主张认知完全独立于神经元系统,他们又置身于老笛卡尔的两难境地:“幽灵是如何驱动机器的?”在精神哲学中传统的做法(参照4.1节)总是或多或少地倾向于其中的一种研究策略。在18世纪,莱布尼茨和后来的动物学家邦尼特已经指出,自然界中存在着组织发展程度不同的复杂性。在图4.3中,示意了神经系统中的组织水平。解剖学的组织等级包括不同的大小尺度,从分子尺度到整个中枢神经系统。这种尺度考虑了分子、膜、突触、神经元、核、环路、网络、皮层、映射、系统和整个神经系统。在图的右边底部示意了化学突触,中间的网络模型示意了神经书细胞如何连接成一个简单的视皮层细胞,在上部示意视皮层的可视区的亚组织,左边是整个的中枢神经系统。对这些等级水平的研究透视,可能涉及到这样一些问题,例如,信号是如何在树突中整合起来的,神经元是如何在网络中相互作用的,网络是如何在例如视觉系统中相互作用的,系统是如何在中枢神经系统中相互作用的,或者中枢神经系统是如何与其环境相互作用的。每一层都可以用决定其特定结构的序参量来标志,序参量是相应的特定等级层次的子系统的复杂的相互作用引起的。例如,从底部出发,我们可以区分出不同次序:离子运动、通道构型、动作电势、电势波、行进、感觉、行为、情感和推理。十分显然的是,神经系统的一种重要功能是支配和控制机体在环境中的生活条件。例如,一个初级可控状态的例子是有机体的温度。在环境状态变化的最高水平上需要有预先计划和社会相互作用,这就导致了在复杂的文化进化中出现了人类的书面通信功能、创造艺术、解决数学问题等等。从达尔文的观点来看,神经系统及其复杂性层次不断增加的进化,表现为受自然界的最基本目的——适者生存——所推动。一些脑科学家甚至强烈主张:诸如抽象思维这样的精神现象的形成,也仅仅是某种“副现象”,它并非是自然自身所倾向的。关于自然的意向性和目的性的信念,当然仅仅是人的一种隐喻,假定了某种世俗化的神性——称之为“自然”——在支配着进化。按照复杂系统探究方式,每一中枢神经系统水平都具有其自身的功能特征,是不可还原为较低层次的功能特征的。因此,从层次透视来看,抽象思维只能被看作某个层次例如体温控制系统的某种“副现象”。为了给大脑及其复杂的能力建立模型,区别出如下的范畴是十分合适的。在神经元水平的模型中,研究集中在每一神经元的动力学性质和适应性质上,以把神经元描述为单元。在神经网络水平上,均一的神经元相互关联起来展示出突现的系统功能。在神经系统水平上的模型中,若干个网络结合起来展示出更复杂的感知功能、原动功能、稳定控制等等。在精神操作水平的模型中,描述的基本的过程是认知、思维和问题求解等等。它们的模拟与人工智能框架密切相关(参照第5章)。从方法论的观点看,我们必须意识到,模型决不可能穷尽一切,也不可能是实在的同构映射。例如,在物理学中,单摆模型忽略了摩擦。在化学中,分子模型将轨道中的电子看作类似于太阳系中的行星,而不理睬海森伯不确定原理。然而,这些模型在一定应用条件下都是有用的。大脑模型的条件由大脑组织的水平给出。如果建立起一定水平上的大脑组织的功能模型,该模型就应该考虑到该水平之上和之下层次的条件。较高水平的性质常常是无关的。一般地,建立模型的方法论由计算方法的代价和收益来决定。一个试图在各个方面都是现实的人脑模型就需要过于高昂的分析和建构。它可能永远难以满足所希望的目的,因此是不实际的。科学家在致力于为大脑组织的一个个水平建立模型时,对有关的下一层次进行简化,就将更为成功。另一方面,模型必须是富有成果的,以能揭示大脑组织的根本性的复杂特征。按照复杂系统探究方式,大脑功能的建模应该采用适当的描述大脑活动的动力学轨迹的态空间和相图。法国数学家和哲学家勒奈·笛卡尔已经在(欧几里得)几何框架中描述了感觉、手臂运动和大脑的合作(图4.1)。今天,神经网络是用矢量空间和神经矩阵来进行几何描述的。神经元的电化学输入与输出之间有权重联结。在小脑的图式区(图4.4)中,神经矩阵的权重Wij允许网络通过矩阵相乘从输入矢量计算出输出矢量。图4.4的例子涉及3×4的神经元矩阵。神经生理学建模要求巨大的灵活性,因为神经网络可能是相当复杂的。但是,联结矩阵可以有效地将高维态空间变换到其他的不同维数。在数学上,这些高维的变换可能引起几何问题,使用初等形式分析几何难以求解。在这种情况下,就需要广义的张量网络理论,以管理复杂的坐标。从历史上看,令人惊奇的是,从欧几里得几何转变到更一般的拓扑空间和度量空间,不仅仅可以在相对论中表述外部世界,同时还可以表述神经系统的内部特征。用笛卡尔早期的方法,让我们涉及一种基本的感知原动坐标,它由矢量或张量变换来代表。动物如何抓住一个被它的感官所感知的对象(图4.5a)?在一个简化的模型中,两眼的位置最先在一个感知数据的二维空间进行编码。这个态空间可以形象表示为一个二维拓扑图。从感知态空间的某一点发出一个脉冲到相应的原动态空间的一个点,原动态空间也是由一个二维拓扑图来代表的。原动态空间的一个点为相应的手臂位置进行编码(图4.5b)。眼前庭反射是另一个感知原动坐标的例子。生物藉此神经排列,通过与头部运动方向相反的眼球的短弛像运动,从而把影像稳定在视网膜上。在此神经系统中,涉及两种神经结构,它们可以由中枢神经系统固有的不同的坐标系来代表。首先,我们必须分析耳前庭器的半圆通道,每一边有3个通道,可由三维坐标系来代表。其次,每一个眼球都有6条外眼肌,这相应于六维坐标系。因此,眼前庭反射感知原动坐标,用几何方法由三维(共变)向量的张量变换来描述。这种数学框架可以用来计算任何的由一定前庭输入造成的眼肌激活。在神经元和神经网络水平上,人工单元的网络用来模拟和考察大脑组织。这些单元被假定在0和1之间变化。每一单元接收来自其他单元的信号,其间通过突触以不同的权重联结起来。接受和发送表示是值的有序集合,输出单元是适当激活了的。数学上,这种程序可以解释为作为证据的某种输入对于作为功能值的输出的一个映射。功能规则是由权重的排列所决定的,它们依赖于神经网络的拓扑。在大脑中,神经元常常构成了作为输入层的群体(图4.6)。这些细胞的轴突发送到第2层神经元。在这第2层细胞的轴突又可以投射到第3层细胞群体上,如此等等。在所有输入单元中的自发激活的集合体是作为矢量的输入刺激的网络表示。这种输入矢量及其活化层次向上面的中间层次传播。结果是一组活化层次,它们由输入层的输入矢量,以及从输入单元的分枝末端到中间层那些关联权重所决定。这种中间层的活化矢量向上传播到最高的单元层,在3层网络的情况下产生了一个输出矢量。这个输出矢量由中间层的活化矢量和处于中间单元到输出单元的分枝的终端的关联权重决定。一个仅仅具有输入层和输出层的两层网络是一种简单的刺激-反应图式,具有可观测的、可测量的输入和输出。在3层网络的情况下,中间层的单元及其权重常常难以直接测量,而只是被假设为某种处于黑箱中的隐藏机制。因此,它们被称为隐含单元。当然,真实的神经系统显示出多得多的单元和层次。例如,对于人来说,大脑皮层的结构包含了至少6层各异的神经元。顺便指出,图4.4所示的小脑的神经矩阵的输入对于输出的映射,可以等价地由具有输入和输出的两层神经网来描述。3层神经网络等价于顺序相连的两个神经矩阵。但是这种多层的网络不可能推广到整个大脑和神经系统,因为在实际大脑中细胞群体往往在给定层次中表现出广泛的细胞与细胞的关联。这需要在某些不同的模型中加以考虑。按照复杂系统探究方式,特定层的神经元可以被解释为态空间轴线,代表了该层可能活性状态。状态的发展,即其动力学由轨迹来说明,轨迹可由该特定网络的某种学习过程所引起。例如,感知可以用神经网络的矢量处理来解释。最初,来自外部世界的对于输入神经元的刺激样品(例如,作用于眼睛的电磁光信号、颜色,或者作用于耳朵的声波),它们在神经网络中被加工,产生出某种输出矢量,代表了例如外部世界的视觉或嗅觉图像。但是神经网络必须学会在大量的输入信号中区别和识别出正确的形式、颜色、声音等等。学习程序只不过是一种对于众多极重的调节,以获得所希望的输出矢量(例如感知)。学习程序可以由数学算法来加以模拟,这是人工智能研究中的重要课题(参见5.3节)。它们在每一神经层次上(也是由矢量来代表)产生出权重构型。在任一给定的时间,突触值的完整集定义了一个权重空间,在每一轴线上的点说明了每一特定权重的大小。一般来说,学习意味着使得最适解(感知、思想等等)和不适解之间的错误和差异最小化。因此,学习过程可以形象表示为权重空间的轨迹,轨迹从初始的随机集合位置出发,到达最终的最小误差位置(图4.7a)。这种建模的关键意味着,可以通过算法程序使某个函数具体化来获得网络中的权重。业已假定,任何可表示的世界都可以通过权重的构型在网络中得到表示。图4.7a示意了学习过程中突触权重空间的轨迹。这个空间进行了简化,只有3个权重,代表了3层网络中突触的所有权重值的组合(图4.6)。图4.7示意了相应的活化矢量空间,其轴线是3层网络中的隐含单元(图4.6)。权重空间和活化空间是类似的空间,因为代表类似事物类似矢量由位置近似来反映。权重构型把类似的事物集合在一起,考虑了权重空间可能对于事物之间的细微差异的敏感性。因此,在活化空间,我们可以区分出原型矢量,它们代表了具有细微差异的类似事物,细微的差异由其到原型矢量的距离来度量。在观察和行为的宏观水平上,这些原型矢量可以代表特定的范畴,如树木、植物、果实、人物等等,它们都有或多或少的相似性。在复杂系统动力学的框架中,原型矢量可以被解释为点吸引子,把态空间划分为若干个区域。类似的原动行为(诸如抓拿、行走等等)用原动态空间的类似轨迹来表示。正如我们看见的,学习意味着权重依据某种算法程序重新构型。关键性问题在于:成千上万的细胞和突触如何知道它们在什么时候应该变化其状态而不需要小妖的指引?唐纳德·霍布在他的著名的《行为组织》(1943)一书中提出,学习必须被理解为一种复杂脑模型中的自组织。如同生命有机体的进化,组织“妖”的信念可以去掉,用复杂系统探究方式的自组织程序来代替。历史上,这是首次清楚地提出了生理学的突触变化的学习规则。霍布在关于复杂的脑模型中使用了“联结主义”一词。他引入了突触概念,后来被称为“霍布突触”。如果两个神经元同时发放,两个神经元之间的联结就得到加强。当细胞A的轴突充分靠近细胞B使之激发,并可以反复地或持续地向其发放,在细胞之一或两者之中就发生了某种生长过程或代谢变化,使得A向B的发放效率也就增加了。“霍布规则”在1949年还只能是一种假设的实体。今天,它的神经生理学上的存在得到了经验确证。霍布规则并非一种精确的数学陈述。我们在后面还将看到可能霍布类型的联结主义学习规则。霍布规则的一种简单的数学表述要求,神经元A映射到神经元B的权重WBA的变化△WBA正比于A的发放速率vA和B的发放速率vB的平均值,即△WBA=εUAUB,其中ε是常数。在霍布类型的规则主张的图式中,强化神经元的前提倾向于是“毋需[外部〕教师”。在此意义上,它是一种自组织的方法,使得神经元发放与成群的刺激模式越来越好地关联起来。霍布意识到,大脑运用相互联结的神经元的整体模式来表示某种事物。他明确地运用了“细胞集合体”一词,这对于现代神经科学是关键性的。激活的细胞集合体可以相应于复杂的感觉或思维。哲学上,霍布的细胞集合体的思想使我们想起休谟的联想概念,但他的联想只具有脑心理学上的基础而没有脑生理学的基础。霍布的生理学概念是如何溶进现代的神经网络复杂系统之中的呢?这个联想网络的基本概念要求,一个输入矢量与输出矢量用某种变换而“联结起来”。在数学上,两种矢量类似性可以由其内积来度量,内积即由两个矢量相乘,其中的元素乘以元素,然后将这些乘积加起来。在几何上,内积是正比于矢量之间角度的余弦。在两个矢量总相等的情况下,角度为零,这意味着相似性是完全等同的。因此,所贮存的原型矢量(例如典型树的原型图)与输入矢量(例如对于特定树的感觉)之间的相似性,就可以在联想网络中由其内积来计算。原型矢量假定贮存于联结网络中的输入和输出的权重矩阵之中。图4.8a示意的网络中,有代表着输入元素的水平输入线、垂直输出线和联结的权重(这里采用二进制,空心圆圈为零,实心圆圈为1)。如果一般地,输入矢量(xj)与输出矢量(yj)通过线性变换从yj=EWijXj联结起来,其中Wij是贮存的权重矢量,于是我们就获得了一种简单的线性联想子。这种联想网络,能够对于代表某种范畴例子的矢量进行分类,这种范畴是由所贮存的原型矢量实现的。对于动物的生存,这个任务实际上是关键性的。在现实中,种种或多或少的类似的感觉(例如怀着敌意的动物)必须进行鉴别并归于某一范畴。某一种联想网络可以进行矢量完善或矢量校正。所谓的自动联想网络可以产生一种输出,使之在仅仅给出贮存矢量的一部分作为输入时,尽量地接近预先贮存的矢量。在现实中有噪声的(例如一个人的图像),必须根据所贮存的图像来加以完善。一个霍布类型的规则,可以通过加强在神经元之间的相关活性程度的关联权重来完成这一任务。一种增加这样的复杂网络能力的方法是,对于输出单元引入非线性的阈值。线性的联想网络(例如图4.8a)具有前向反馈拓扑,信息从输入单元流向输出单元。霍布类型的学习程序认为,神经单元的局域的相互作用通过自组织而收敛到正确的总输出。网络中的循环信息意味着某种反馈构造。在图4.8b中,每一单元都接受从外部的输入,同时也接受网络中内部单元的反馈。权重由水平线和垂直线的交接点来表示。显然,图4.8b模型的复杂系统是一种非线性的反馈网络,它允许范围广泛的可能的动力学。约翰·霍普菲尔德讨论了一个著名的例子(1982)。他的非线性反馈网络的类型具有收敛解的动力学。对于它们的兴趣不仅仅是由于对大脑的建模,而且是由于(正如我们将在关于人工智能的第6章见到的)发展出新的网络技术。对于我们的复杂系统探究方式,值得注意的是,霍普菲尔德是一位物理学家,他把运用于自旋玻璃体物理学的数学方程运用到了神经网络上。铁磁体的动力学是大家熟知的一个热平衡态的保守自组织的例子。在伊辛模型中,铁磁体由自旋体点阵构成,每一方向都可以是向上(↑)或向下(↓)的。每一自旋体都可以与其近邻发生相互作用。在最低能量状态中,所有的自旋体都以相同方向排列。在高温下,自族体的方向是随机的,因为热能使得涨落大于相互作用能。如果减低温度,自旋体就变得按照相同方向排列。显然,自族体的行为类似于磁体(参见2.4节)。在动力学上,它表现为寻求作为某个吸引子状态的最近的局域能量极小值(图4.9a)。但是,只有所有的相互作用是吸引作用,才有在相同方向上的所有自旋体点的单个能量极小值。在吸引相互作用和排斥相互作用混合的情形下,复杂系统如自旋玻璃体可以具有许多局域能量极小值。霍普菲尔德提出,神经系统的功能是在态空间发展起来的一些局域稳定点。态空间的其他的点流向作为系统吸引子的稳定点。由于对稳定点的偏离的消失,这种动力学是一种自校正程序。另一方面,稳定点适当地将一个并不完善的始态矢量丢失的部分弥补起来。因此,这种动力学可以用来完善有噪声的输入。霍普菲尔德的模型是相当简单的,包括有阈值的逻辑单元。加和的突触输入并将此加和与阈值进行比较。如果此加和处于阈值或阈值之上,就产生出1,否则就产生出0。除了自联结之外,神经元相互联结时,就认为该网络恢复了。数学上,相应的联结矩阵的主对角线为零。霍普菲尔德提出,运用霍布类型的学习规则来构建联结矩阵元。复杂系统的演化如自旋玻璃体伊辛模型遵循非线性的反馈动力学。能量差异项逐渐减少,直到它到达某一个——可能是局域的——极小值。字符特征识别问题是人们熟悉的一个简单应用。此复杂的网络由2维格子的相互作用的布尔变量来代表。一个模式(例如字母A)可以被联想到格子中,其中黑点代表激活态变量(其值为1),空点代表其值为零的变量。这里假定,字母作为所希望的动力系统状态被联想到吸引子(不动点)。我们可以想像,通过多次看见正确的字母,人的大脑中贮存了正确的字母形状。如果某个不完善的、部分受损的字母显示给该系统,它就应该能够重新构造出正确的形状——这是以前已经学会的(图4.9b)。因此,模式识别就意味着自组织的模式演化。这种过程指向某些吸引子,作为所希望的系统状态。我们回忆一下,一个吸引子就是从一定条件出发,系统将向其演化的一种状态。吸引盆由起始条件来定义,起始条件推动着在吸引子方向的系统的轨迹。正如我们在前面的章节中已看见的,一个吸引子可以是包含不动点的或稳定态的唯一状态,如同在霍普菲尔德网络和自旋玻璃体系统的例子。但是,一个周期相继的状态(“极限环”)或几种形式的混沌吸引子(在耗散系统中)也是可能的。因此,霍普菲尔德网络对于以复杂系统的吸引子来建立神经状态的模型,仅仅是初级的、简化的方式。霍普菲尔德注意了自旋玻璃体中的局域能量极小值与联想的大脑原型之间的类似性。在自旋玻璃体的形式网络中,吸引子可以被设计为原型矢量。在图4.10a中,霍普菲尔德系统的态空间用能量地形图形象地表示出来,这里利用了它与自旅玻璃热力学的类似性。网络上所有可能的状态都由平面上的点来代表。表面的高度表示相应的网络状态的能量。图4.10b中的相图显示,轨迹从不同的起始点向稳定的局域最小值的收敛。平面上的每一点就是该网络的一种状态。能量地形图具有霍普菲尔德动力学轨迹的吸引盆。稳定点(“吸引子”)处于盆的底部。在模式识别的例子中,原型字母与稳定点相关联。因此,模式完善的过程是一种反省形式,在形式上可与保守自组织的退火过程相比较。在此物理学例子中,终态是自旋玻璃体、磁化的铁磁体或冻结的晶体的有序结构。一般地说,霍普菲尔德网络仅仅收敛到低能态的局域最小值。在某些应用中,局域最小值是与特定的贮存项目相联系的,也许是不必要到达某种全局最小值的。不过,在许多情况下是需要全局最小值的。这种问题的一个解,是由个体单元的随机运动而不是确定论运动来提供的。图4.11a中,通过一个沿着能量地形曲线运动的小球很可能最终是落入最深的最小值,从而显示了问题的求解。从一定的起始状态出发,小球将向能量最小值或曲线的底部运动。如果能量地形是由多个靠得很近的极小值标志的,结果就取决于最初的起始条件。如何来阻止网络粘在某个局域极小值上呢?这种想法是以一定的能量增量来动摇能量地形,该增量是逃离局域极小值B(低谷)而进入全局极小值A所需要的。于是,在力学上,小球从B进入A比从A进入B的可能性要大。平均来看,小球应该终止于低谷A。在热力学语言中,动摇地形的动能相应于系统温度的增加。在适当高的温度情况下,在低谷之间的转移几率不再是可忽略的。在热平衡态,占有不同凹地的几率仅仅取决于它们的深度。实际上,模拟退火的方法是人们所熟悉的,并用于全局优化上。正如我们已经提到的,退火是加热一种材料(例如金属或玻璃)到高温、然后逐步地减低温度的过程。但是,该材料将仅仅终止于其全局能量最低点,如果退火过程进行得足够慢的话。例如,金属的突然冷却将留下仅仅有局域极小值的材料,处于易脆状态。模拟退火使得有可能逃离局域极小值,跳跃到较高的能量状态。在气体热力学中,气体由其相转移的几率来描述。波耳兹曼对处在均匀温度分布的气体,推导出来气体状态的几率分布。欣顿、西杰诺夫斯基等人认为,这种分布可以运用于描述神经相互作用。在这种模型的情形,加进系统中的低温项被解释为小噪声项。它是神经与气体中分子的随机热运动的类似物。这种形式上的等价,是上述网络被称为“波耳兹曼机”的原因。但是,这里并非是物理主义,并非打算把神经相互作用还原为气体分子相互作用。在波耳兹曼的形式表达式中,可以证明,冷却得充分慢时波耳兹曼机可保证找到所希望的全局极小值。显然,具有模拟退火动力学的神经网络,是能够通过搜索模式的态空间给出全局最小值的。一种按照这种动力学的可能的学习规则,是与网络及其环境之间的几率相匹配的。该网络的所有可能状态在热平衡时都是可能的,具有波耳兹曼分布的相对几率。如网络中状态的几率与环境状态的几率相同,那么网络便得到一个适当的环境模型。因此,学习规则必须能够调整波耳兹曼机中的权重,以便减少网络模型与环境之间的差距。最初,学习规则让系统自由地运行。每一单元的状态几率可以估计出来。然后,输入和输出单元就被强制或被迫取得适当的值。其次,单元的几率值是估计出来的。局域的权重变化正比于与该权重耦合的单元的几率的差。形式上,权重的变化规则要求△Wij=E( <sisj>强制-< sisj>自由)式中E是比例常数(“学习速率”),Si是第i个单元的二进制单元,sisj在网络达到平衡后的时间的平均值是<sisj>。在强制的条件下,输入和输出单元都固定在其正确值上。在自由条件下,这些单元都不是固定不变的。于是,学习规则并未受到指示。如果输入在自由的条件下是固定不变的,学习规则就是受指导的。在图4.11b中,波耳兹曼机的网络中的单元采取了二进制值,它们之间的联结是相互的。连接的权重可以进行训练,也就是把模式提供给存在着和不存在输出模式的输入单元,并应用波耳兹曼学习现则。在学习过程中,网络中的所有的权重都发生了变化。并不直接接受外界信息的隐含单元,可以使得该网络产生出在输入模式和输出模式之间的复杂的联想。因此,在其中间层有隐含单元的波耳兹曼机具有内部的对于环境的表示,而这对于仅仅具有可见(输入和输出)单元的网络则是不可能的。从神经生理学的观点看,由“教师”指导的学习在自然界看来是颇为不现实的。动物对感觉输入分析中进行的特征提取或范畴划分必定是自组织的。在输入矢量中出现得越是频繁的特征,就越是可能归属于一定的范畴。网络的输出必须学会使相应的原型矢量收敛为吸引子。如何设计一个网络使得在没有外部教师指导的情况下产生出分类标准呢?一些作者提出,这种自组织取决于多层系统中的非线性相互作用和有选择地强化联结。这种学习程序是在选择和竞争的达尔文过程中组织起来的。图4.12中,所设计的竞争学习系统的多层构造,可产生出诸如分类和范畴划分这样的突出的认知任务。活性单元由实心点来代表,而惰性单元则由空心点来代表。输入层与第2层的每一元素的联结是激发的。第2层可以划分为若干组,每组中每一元素都抑制所有的其他元素。同一组中的元素处于相互竞争之中,以对输入模式作出反响。按照拉梅尔哈德和奇普塞的法则,在同一组中,一个单元只有在它能够赢得与其他单元的竞争时才是能够学习的。学习就意味着活性联结的增加和惰性联结的减少。一个简单的分类任务是小孩的词汇认知。显然,两个字母的词AA,AB,BA和BB可以划分成几个范畴,例如,以A开头的词汇集合[AA,AB]或以B开头的集合[BA,BB],抑或是结束于A的[AA,BA]或结束于B的[AB,BB]。在一个计算机辅助的实验中,双字词代表一个多层的网络,其中一层的竞争单元以两单元一组组织起来。该系统能够检测出字母的位置。其中的一个单元自发地作为起始字母A的检测器而起作用,而另一个则检验B作为起始字母。在进一步的实验中,增加了字母数,改变了网络结构。尽管这些实验看来仅仅是说明了有限的能力,它们至少是原则上体现了无指导的神经系统中的认知行为的形成。它们已经开始了某种有趣的研究,在复杂系统的框架中把神经生理学与认知科学联系起来,4.4节中将更详细地对此加以讨论。另一种通过竞争学习进行的自组织认知系统的研究方式,是托伊沃·科亨仑提出的。他是一位物理学家,也对于联想记忆进行了生理学的研究。他的神经系统的数学建模在人工智能的工程应用中已显示出重要性(参见第5章)。科亨仑的思想是通过自组织特征的映射来给大脑建模,这种想法源于自动化和生理学上已经确立了的事实。大脑中的大多数神经网络是二维的层状处理单元,它们可以是细胞或细胞组。这些单元是通过侧面的反馈而相互联结的。例如,在新皮质中,每一个主要细胞大约有10000个相互联结。对于神经元与其近邻的突触耦合,只要神经元之间的距离小于一定的临界值,这种耦合就是激活的。神经元之间的距离大于此临界值则是抑制的。而距离更大一些时,耦合又是微弱激活的。侧面相互作用的程度在数学建模时使用的曲线,其形状类似于墨西哥帽子(图4.13a)。显然,侧面耦合的互相影响倾向于在空间结合成群。图4.13b示意了一个二维成群的例子,它是由一个21×21个处理单元的方格来模拟的。这种成群现象(“活性泡”)取决于正反馈或负反馈的程度,它们可能受到神经网络中的化学效应的影响。在神经的实在中,“活性泡”并不具备计算机辅助模拟的规则形式。图4.13c示意了浣熊的脑皮层中活性的分布,它并非是一个形状规则的形象,而是相当混乱的图像。然而,成群现象在大脑的自组织过程中可以是有用的。虽然起初神经网络的活性是均匀分布的,但根据自组织学习过程我们可以观察到神经区域的逐步的专业化。在提供了输入模式以后,具有最大活性的神经元及其邻居被选用来进行学习。神经权重的变化,落在以最大活性神经元为中心的一定半径中的环状邻域中。这种学习规则可以用来检测和划分输人的图形或说话模式数据的相似性。在形式上,科亨仑考虑了从输入信号u的空间V到二维映射A上的非线性投影P。图4.14说明了学习的步骤:输入值u选定一个中心s。在s的邻域中,所有的神经元都在u的方向上转移其权重Ws。转移的程度随着与中心s的距离的增加而减少,这里用不同的灰度来表示。映射通过自组织收敛于某个具有不同活性区域的平衡态。投影应该将输入信号的规则性映射到神经映射上。因此,P在数学上被称为拓扑不变映射。实际上,由感觉输入信号规则性所表示的大脑环境的结构,应该被投影到大脑的神经映射上:大脑应该获得适当的关于世界的模型。大脑通过自组织映射进行建模的现实性如何?神经区域的数值的变化,取决于物种生存所感受到的感觉刺激的重要性。在神经区域中,有一些中心,它们能够以比环境更大的精确性对刺激进行分析并将其再现出来。例如,在哺乳动物的眼睛中,对于视觉信息的精细分析是由“小凹”进行的,小凹是一个沿视网膜光轴的非常小的区域,其中有非常高密度的光敏接受子。因此,信号的分解主要在神经区域的这种中心进行,要比在周围的区域强得多。类似的不成比例的表象,也可以在体感系统和原动皮层中观察到。手对于人的生存的重要性表现在体感和原动皮层占有相当大的区域,比代表体表的区域要大。与这些结果相反,猫、狗和猿的听觉皮层并不将外部世界的频率投影到特定的中心。蝙蝠具有特殊的定向系统,这对于它的生存是必要的,这是一个例外。蝙蝠能够发出许多种不同的超声频率,并通过这些信号的反射来测定物体的距离和大小。蝙蝠相对于其他物体的速度可以用超声波反射中的多普勒效应来测定。甚至是细微的昆虫也能够被这种灵敏的系统检测出来。蝙蝠的特性,能够用其听觉皮层上的自组织映射在实验上确证。图4.15a中将蝙蝠脑中的听觉皮层示意在矩形图中。图4.15b中把该矩形图放大了,示意出听觉皮层中最佳频率分布。一维频率谱不断地单调地从听觉皮层的后区提供给前区。引起神经元最大激活的频率称作那个神经元的最佳频率。划线区域是初级听觉皮层。图4.15c显示了图4.15a中斜线区域中的最佳频率分布。绝大多数测量点都集中在超声回波频率的周围。前一后区中一半以上用来分析超声回波的多普勒效应。十分显著的是,用自组织映射进行的计算机辅助模拟中,产生出如图4.15c所示的听觉皮层的实际表象。灵长目动物的脑由许多区域构成,其中有若干神经网络拓扑。例如,视网膜在个体发生的早期已经发育起来。它的神经拓扑有5个独立层:光感受器,水平细胞,极性细胞,无长突神经细胞,视网神经节细胞。人的光感受层大约有120×105个感受细胞。视网输出,由所有的神经节细胞的脉冲速率的空-时模式来代表,沿着光神经传向丘脑。对于人,大约有1.2×106个神经节。因此,视网膜的确是一个复杂系统。然而,人们还没有完全理解大于200×106个视网神经元的复杂性。大脑皮层是系统发育上最年青的大脑区域。大脑皮层在大脑中的百分数在进化中不断地增加。鱼那样的低等脊椎动物并没有进化起来大脑皮层。大脑皮层在爬行动物和鸟类中只占小部分,到狗、猫,直到猿和人,它就越来越多。在灵长目动物中,大脑皮层分化成了不同的多层神经网络拓扑的区域,例如视觉、感觉、原动和联想皮层。小脑由小脑皮层构成,其中有许多具有特定感觉原动功能的多层亚区域。大脑系统的多样性被描述为一个密集的神经元集合,其中具有特殊的网络拓扑,通过许多神经而相互通信,神经由以千计的轴突构成。与数字计算机有独立的中心处理、记忆和贮存单元不同,大脑和中枢神经系统可以作为一个多目标平行处理网络的集合体来建模。每一网络都能够独立进行感觉、原动和联想功能的信息处理和信息贮存。显然,人们熟悉的程控中心化数字计算机原理并不适用于生物脑。神经网络的自组织过程对于大脑的结构是十分重要的。在非常长的系统发育过程中,复杂的结构形式产生出来。我们往往并不完全清楚它们的目的。在宏观尺度上,特定的神经区域联系着特定信号,具有不同的感觉功能,也可以是不同水平的信息处理操作,还可以是对于人以及对于有机体的动物性和植物性功能。尽管它们分布在大脑的不同区域,它们却可以理解为自组织的复杂性或集体效应。自组织作为一种学习程序,揭示了有机体并非完全由基因所决定,基因中包含了详细描述有机体的蓝本。大脑组织化的每一阶段都涉及某种自组织。基困难以存贮大脑的复杂结构。大脑皮层有大约10[14]个突触,个体发育难以从所有可能性中选择出正确的联结图式,如果这些可能性都是类似的。因此,个体发育必须运用神经系统的自组织去处理其复杂性。但是,不认识个体发育的原理,就不能理解其大脑皮层的结构。在前面的章节中,我们已经研究了物理学、化学、生物学、地质学和天文学的复杂系统中有序模式的形成。整体有序是在其中有大量局部相互作用元素的复杂系统中形成的。在液体或晶体中有相互作用着的原子或分子,在进化的恒星系统中有相互作用着的子系统,在如同大脑这样的复杂神经系统中有相互作用着的神经元和突触。我们还向读者提示了贝纳德涡旋(“滚动柱”),它们是在液体的热涨落中出现的。整体的有序是如何由局部的相互作用来安排的?例如,分子之间的相互作用力在液体中发生着非常短距离的相互作用,而由分子相互作用引起的涡旋运动的模式却可以是大尺度上的有序。这种有序在物理学、化学和生物学进化中出现的原理,对于大脑极其重要,其中相邻细胞元素之间的局部相互作用,创造出来整体有序的状态,导致有机体中的相干行为。此种有序模式是由复杂系统中的元素之间的作用力和起始条件、边界条件所安排的。在贝纳德涡旋的例子中,作用力是流体相互作用、热传导、膨胀和引力。例如,边界条件是液体的温度。在大脑中,联结的模式是由细胞单元相互作用的若干种规则安排的。因为神经元往往是由非常长的轴突联结起来的,两个神经元的局部的相互作用并不意味着它们在脑解剖学上的空间接近,而是它们由轴突的紧密联结。尽管这种一般结构对于所有类型的神经元和突触都是普遍的,但是也有许多质的和量的差异。例如,无脊椎动物的神经系统是确定论的,个体神经元的特定部位具有高度编码的信息。而哺乳动物的新皮层中的联想系统,对于特定输入模式的特定反应,却是由促进着对于外部信息进行反馈的学习规则实现的。复杂系统模型对于真实的神经网络适合程度如何呢?从方法论的观点看,我们必须清醒地意识到,模型不可能朴素地与实在的每一功能和元素相一致。模型是为了特定目的进行的抽象,它能或多或少地解释和模拟中枢神经系统的某一部分,而对其他部分则没有涉及。有时,模型网络受到批评,说它们如同黑箱,仅仅在一定程度上正确地实现了输入-输出功能。但是,关于生物神经网络是怎样实现其功能的,却什么也没有揭示出来。隐含单元如同量子物理学中的隐变量仅仅是理论概念,被假定是系统实现所观察、可测量的输入和输出值之间关系的一种内在因素。除了可能的多层网络的构造之外,动力学和学习程序是模拟中的根本性问题。模型网络的参数调节程序减少到最小误差的现实性怎样?许多模型网络的学习规则,对于一组权重收敛到正确地进行分类,需要难以接受的过多的时间。尽管有时也会得到一个成功的权重调节,但是这决不意味着它的优化。1960年,瓦丘和霍夫提出了一种简单而优秀的学习规则,它受到技术优化推理的启发,而不是从生物观点来看待大脑。瓦丘-霍夫规则及其种种翻版,近年来在技术网络中已经得到了广泛的运用(参见第5章)。该规则假定,对于一种输入模式,可由适应性神经元对于输入模式的输出进行分类,它们的取值为a+1或a-1。因此,这里假定了“教师”,他知道对于该输入的答案是什么。适应性神经元计算出输入活性的加权和乘以突触权重。在假定的输出与计算出来的和之间,系统可能给出错误的信号。根据它们之间的差,突触的权重进行了调整,重新计算出和,使得错误的信号变成零。瓦丘和霍夫策略的目标在于,把错误信号的平方减少到其最小可能值。所有输入权重系数的可能的值,导致某个误差值。在图4.16中,这种情况由权重空间的误差面表示出来。误差面的最小值并不被人精确地知道,因为不可能见到整个误差面。但是,局部的拓扑图是可以测量的。因此,绝大多数减少误差的调整方向是可以计算的。所谓的梯度下降方法,在微分几何学和物理学中是大家熟悉的,对于权重的调节总是改变权重使得系统沿误差面的最陡下降方向运动。在图4.16中,对误差面的梯度进行了计算,以找到最陡下降方向。权重按增量值△W沿着这一方向变化。重复该程序,直到权重达到W理想,这相应于最小的误差。对于非线性的网络,误差面可能有许多个极小值。一般地说,梯度下降的问题涉及落入局部极小值。然后,凹底也就不代表全局的最小误差。瓦丘和霍夫证明,存在着一个简单的二次误差面,其中只有一个全局最小值。数学上,计算出某一点的梯度意味着计算出误差平方对于权重的偏导数。瓦丘和霍夫证明了,这种导数正比于误差信号。因此,对于误差信号的测量就提供了运动的方向,以能矫正误差。技术上,具有完整知识的“教师”的存在可以为特定的目标进行调整。但是,假设自然界中的学习过程是有指导的学习程序却是不妥当的。在网络模型中,所谓的后向传播是人们最为熟悉的有指导算法。它是简单的瓦丘和霍夫规则的推广。总之,后向传播是神经网络中一种调节权重的学习算法。每一单元的误差是预期值减去实际输出值,可以在网络的输出端进行计算,并反复地返向网络中。这种方法使得系统可以决定如何改变网络中的权重,以改进其总体表现。图4.17示意了通过整个多层网络的后向传播方法。尽管后向传播的模型可以像生物学网络一样发挥作用,但它并没有假定真实的大脑也是由后向传播组织起来的。真实网络中的许多参量值往往都是通过解剖学、生理学和药理学中的测量和实验获得的。例如,细胞类型和细胞的数目可以大致估计出来。拓扑和构造可以得到描述,特定的突触究竟是激活的还是抑制的也可以得到确定,如此等等。但是,特定的权重却是未知的。当它们数以千计时,大脑网络的全局最小值和模型网络精确一致、权重相等的几率,却是相当低的。因此,模型网络的误差极小化策略一般说来可能只是一种假设,但是它们对于处理可能有数千参量的复杂性问题却是必要的。如果模型网络与大脑网络的拓扑、构造和突触动力学的相似度相当高,它们就允许人们预见大脑网络的某些局域或全局的性质。神经生理学中的后向传播可以正当地作为一种寻找局域极小值的研究工具,但不是作为对于神经生理学分析的一种替代,神经生理学分析可以揭示神经网络的真实的学习程序。误差极小化策略在自然进化中有悠久的传统,而不是在脑的学习程序中首次出现的。例如,生态群体的自然选择就可以作为一种模型,此过程将误差梯度逐渐减小到代表了某种环境生存生境的误差极小值。但是,参数调节程序可能仅仅找到了某个局域极小值,而不必是全局最小值。据我们所知,进化一般并不能找到最好的可能解,而仅仅能找到某种对于生存是充分好的满意解。在整个进化过程中,只有局部极小值才是可以从经验上对其进化生存价值进行评价的。这种评价取决于所选择的模型的观察和测量约束。因此,从方法论的观点看,那样一种总是全局地、完整地优化自然的观念不过是一种形而上学的虚构。思辨性的叫做“自然”或“进化”的神性观念,产生于乐观主义的文艺复兴时代,它不过是为了取代带着创世计划的基督教上帝。康德已经批判地指出,总体自优化的自然只不过是一种人的虚构,在任何意义上都不可能从经验上得到证实。不可能存在具有独立的中心处理单元,能够将进化策略进行整体、长期优化的超级计算机,在真实的进化过程中,存在的只是局域性的有一定满意度的解,它甚至带有许多缺陷,是不完善的。它们的复杂性与拉普拉斯的简化的完备世界模型是相抵触的。4.3大脑和意识的形成如何用复杂的脑模型中神经相互作用来解释认知特征呢?莱布尼茨已经提出了一个问题:如果把大脑解释为只不过是一台机器,意识、思维和感情是不可能在大脑的元素中找到的。康德强调,要使得一个物理系统具有生气,组织力是必要的。直到这个世纪,一些物理学家、生物学家和哲学家仍然相信某种非物质的组织生命因素:“生命力”(柏格森)或“隐德来希”(杜里舒)。从复杂系统的观点看,科勒的格式塔心理学是一种有趣的探索方式,涉及到这样一种物理系统,其中复杂的心灵结构自发地从系统自己固有的动力学中产生出来。通俗地说,被感知客体的宏观的“格式塔”(形式),大于其原子组件的加和,不能归结到微观尺度上。科勒有这样一种思想,视觉现象的产生不可能在热力学模型的框架中得到解释。但是在那时,他指的是波耳兹曼的平衡态线性热力学。他提出:“静态视觉场下的物体过程是稳恒平衡分布的,从光学系统自身固有的动力学中发展起来”。科勒甚至认识到,有机体并不是封闭系统,并力图把有序态的形成解释成一种直觉理解的协同作用。在这方面,科勒已经正确地将一个协同系统中的基本相互作用的微观水平和形成有序态的宏观水平清楚地区分开来了。但是,他仍然缺乏适当的复杂动力学系统框架为远离热平衡的热力学提供某种形式化处理。对于微观尺度上脑过程的神经相互作用和宏观尺度上的认知结构的形成,复杂系统探究方式提供了一种建立模型的可能性。因此,看来有可能填补起来大脑的神经生理学与精神的认知科学之间的鸿沟,这在传统上被看成是无法解决的难题。复杂模型包括了描述系统动力学的态空间和非线性演化方程。人的大脑中有大约1011个非感觉神经元,可以用1011维的空间来表示。甚至典型的子系统中也包含有10[8]元素。在一个108维的并且只有10层激活神经的态空间,就至少有个表示激活矢量的不同位置。如果我们假定,每一神经元与另一子系统的10[8]神经元之间有103个突触联结,那么就必须区别出大约1011个突触。结果,如果每一突触仅仅有10种相区别的权重,我们在一个子系统中就获得了个权重这样一个巨大的数字。这种复杂性对于编码、表示和处理信息提供了数目巨大的可能性,在数学上可以用矢量和张量变换对此进行建模。在科亨仑的竞争学习网络中,系统的自组织使得近邻矢量映射到近邻的网络点上。业已假定,类似的印象由类似的矢量来表示,它们与原型矢量之间只有微小的距离。在复杂系统的框架中,原型矢量被解释为吸引子。因此,两个相区别的范畴或类型就由态空间的两类不同的吸引子来表示(图4.7b)。认知辨识的学习过程,就由网络的训练过程来建模,其中包括调节权重使输入矢量(例如某个视觉或听觉模式)以最大相似性归属于原型矢量。神经态空间的原型概念,允许某些有趣的认知过程解释。当输入印象只是部分地给出时,一个网络如何能够认知一个模式呢?对于动物在野外的生存来说,矢量完善的任务是至关重要的。让我们想像一下,一只沙漠中的郊狼察觉在草丛中的兔子尾巴(图4.18)。输入到郊狼的视网膜上的,只是那只兔子的尾巴。郊狼的视觉系统以习得的兔子原型矢量来完成输入矢量,从而能够假定或“假设”在草丛中有一只兔子。在此意义上,我们可以认为,郊狼有一个由大脑中相应的原型激活模式来代表的兔子的“概念”。保罗·丘奇兰德甚至提出将人的高级认知能力用原型矢量探究方式来解释。因此,解释性的理解就被归结到被充分训练的网络中的特定原型矢量的激活。原型矢量包含巨大的信息量,对于不同的人来说可能是不同的。原因在于,不同的人并不总是拥有相同的项来满足某一原型束的约束。的确,人们很可能有不同程度的解释性理解,尽管他们以几乎相同的方式来划分一种客体或情形。例如,一个细木工人,比起其他绝大多数人来,对于什么是一把椅子具有更高程度的理解。然而,他们在绝大多数情况下都将有一致的见解。因此,原型-激活模型是相当现实的,因为它考虑了人的概念和理解的模糊性。认识论和认知心理学中,通常都对不同种类的解释进行了区分。分类解释(“为何鲸鱼是哺乳动物?”)、因果解释(“为何石头下落?”)、功能解释(“为何鸟有翅膀?”)以及其他的解释,它们相应于集束的因果关系、功能性质等等的原型激活。甚至把握社会状况也是一个激活社会相互作用原型的过程,这是在生活中受到的训练和教育。在复杂系统探究方式中,精神状态是与大脑的神经激活模式相关联的,这里是用复杂态空间的状态矢量来建模的。涉及对外部世界的感知的外部精神状态,是可以检验的,并与大脑的神经激活关联起来。我们如何来检验和解释并不涉及外部世界事件,而只是涉及精神状态自身的意识的内部状态?众所周知,我们甚至能够反思我们的自我反映,并反思关于我们自我反映的反映,如此等等,处于某种重复作用过程中,它原则上是没有极限的(图4.18b)。自我体验和自我反映导致了自我意识的概念,它在传统上被看作精神哲学和认知心理学的基本概念。自我意识被定义为人格的关键性特征。在历史上已经讨论过的自我意识的定义,并非只具有哲学上的意义。显然,这些不同程度的思辨性定义,在医学和法律上都有重要的影响。对于人具有意识——因而应对其行动负责——必须满足何种标准?有没有关于意识的医学标准?意识是如何受到扰动甚至消失的?动物的意识是怎样的?我们的感受是否跟我们的邻人或动物的感受相同?这里的基本问题是:①意识的形成是否由特定的脑过程引起;②是否可以用复杂系统为脑过程的意识形成建立模型。方法论的困难表现为,像疼痛、气味等等主观感受只在反省时才是可能的。这些主观感受和意识状态常常被叫做现象状态。一些哲学家批评过,大脑状态的物理学描述没有抓住什么是现象状态的本质。相反的观点则认为,现象状态概念可以归结为大脑的神经生理学状态的概念。这些争论只不过是传统的物理主义和精神主义(或反物理主义)的现代变种。两种立场都是空想的还原论和夸张,它们既不能得到研究的支持,也不可能对研究有很好的帮助。按照复杂系统探究方式,神经生理学状态和精神状态都用数学公式来建模,而没有还原论的雄心。一些哲学家由于对于数学的偏见而出现严重失误,因为他们似乎相信公式只能标示“物理’狱态。例如,读者可以回想一下,霍普菲尔德系统包含着一个“能量”公式是用物理自旋系统的能量公式进行的类推。然而,在霍普菲尔德系统的框架中,不要把所谓的“能量”与固态物理学中的能量混为一谈。数学表达式仅仅决定了网络的动力学,这是可以由神经生理的脑或硅片的计算机或来自某个未知星系的有机体来模拟的。如果数学模型适合于观察到的数据,它是经验上可证实的。在其他的情况下,它必须要改变或放弃。我们必须意识到,关于精神状态和意识的可检验的、可证实的理论,并不能使我们与他人有同样的感受。例如,一位内科医生或外科医生,他希望医治一个病人的胃痛并不需要如同病人那样感受胃痛。他必须拥有良好的关于胃的解剖学、生理学、生物化学、心理学等等的知识。用复杂系统探究方式的术语来说,他必须知道胃及其动力学的可能状态。在此意义上,精神和意识状态的模型可以发展起来并经受检验,而不需要任何的还原主义主张。显然,在意识的现象状态和大脑的神经生物学功能之间有许多可检验的相关作用。人们都知道,短时间的缺氧可以导致意识丧失。电刺激、精神病药物、麻醉和身体损害也都可以影响意识的程度。这不仅仅是可以通过自我实验(自动脑电仪)来体验,而且还可以通过对功能缺损进行观察和测量来进行临床检验。原因在于,大脑是一个开放系统,其状态依赖于远离热平衡的与环境之间的物理学、化学和生物学代谢。意识和无意识状态表现出依赖于相当复杂的神经生理学系统,此系统中包含了各种水平上的反馈圈和相互关联。图4.19示意了大脑皮层及其初级感知皮层和联想皮层的网络。来自感官的特定的输人(“传入”),通过特定的传输子系统和途径,达到初级皮层投影区。来自子系统的非特定的输入达到皮层称作“中脑网络的形成”。网络的形成标志了一种复杂的神经元和神经纤维的网络,包括广泛分布的突触联结。众所周知,他在声觉、唤醒和注意中起着根本性作用。复杂网络中的损害会导致对意识的种种干扰。这种种干扰可以是全局的或局域的,造成整体唤醒中特定的意识经验缺损。神经生理学可以从实验上表明,意识的程度取决于大脑皮层中对特定的和非特定的两股不同传入信号流的处理。于是问题便成为,意识的精神状态是如何从这些网络中形成的。用莱布尼茨的术语说,我们见到了如同碾磨机嵌齿轮那样相互作用的元素,但是却无法填平神经生理学机制与意识的精神状态之间的鸿沟。传统的神经生理学持有约定论观点,认为神经网络之间具有突触的严格联结,就如同莱布尼茨的机械的碾磨机模型中的嵌齿轮的严格联结那样,电脉冲通过神经网络的传播,就使得大脑功能成为可能。复杂系统探究方式提供了一种自组织网络改变其突触联结的观点,突触联结的改变是由突触的激活引起的,并依赖于激活的程度。在神经复杂系统的框架中,相互作用的神经元的微观水平,与自组织产生的细胞集合体整体模式的宏观水平相互区别。在前面的章节中,已经提到了,自组织神经细胞集合体的概念是霍布引入的。克里斯多夫·冯·德·马尔斯伯、科亨仑和其他人进一步改进了它。如果网络中某些神经元的同时激活是由具有一定模式的输入所引发的,那么根据霍布类型的学习规则通过同步激活就会形成集合体。由马尔斯伯提出的修改是,集合体的生成并非一个缓慢过程,而是由快速的突触变化产生的。这些所谓的“马尔斯伯突触”被用来建立快速权重调节的动力学的模型。今天,经验已经表明,大脑中存在霍布型和马尔斯伯型具有高度可塑性的突触,其相互作用规则可以由分子机制来实现。网络中集合体的形成取决于其神经元的激活程度。关于意识和无意识状态,假定一个细胞群体的整体激活,如同皮层中的网络组织形成所造成的情形(图4.19),一般将增加集合体形成的概率。因此,汉斯·弗格尔已经提出,意识程度的不同在于其生成集合体的速率不同。例如,细胞集合体的生成速率,决定着表示外部世界的数量、复杂性和持续性的感觉模式。意识是自反映的自参照状态(图4.18a)。因此,意识状态是以表示内部状态(而不仅仅是外部世界状态)的细胞集合体为基础的。例如,我不仅仅有一棵绿树的印象,我还意识到我在看着这棵树。而且,我对于我意识到我在看着这棵绿树的状态可以进行反思,并连续地重复产生出元-元……表示,终于从现象的印象和感受达到抽象的、高度精致的自反映状态。一旦超过了产生速率的临界阈值,现象状态就必定出现。意识的缺损出现在临界阈值水平之下。运用特殊的脑电图变化,即以相应的集合体生成速率的增加来代表注意的一定程度,可以对这个假说进行检验。由于细胞集合体的生成速率是以特定的改变着权重的突触为基础的,意识的程度可以由干预突触联结进行检验。实际上,用影响突触可塑性的化学物质麻醉了的病人,体验了生动梦境、虚幻感觉、视听幻觉以及没有组织起来的思想。在此意义上,意识可以被看作系统产生表示和元表示的能力的结果。具有高速率生成集合体的神经网络比低速率生成集合体的神经网络,可以产生出更为复杂的表示。因此,在生成速率充分大时,复杂系统将发展起自参照和元认知活性。我们可以设想一种意识程度的尺度,它们相应于生命进化中复杂程度不同的神经系统的意识程度,包括从昆虫到人。随之而来的是,在复杂系统的框架中,意识的形成决非是进化的副现象。它是一种合规律的整体状态的出现,即按照复杂系统的动力学,在临界条件得到满足时,通过其元素的微观相互作用而产生出宏观有序模式。如果复杂系统探究方式是正确的,那么生物进化的神经系统则不过是自参照系统的特定实现,其他很可能是以不同于人脑的生物化学的物质材料为基础的具有自参照能力的技术系统,也就原则上不能排除在外(参照第5章)。我们甚至有能力把一种复杂系统的表示翻译成另一种不同系统的表示。由于两种系统的表示并不精确地一致,我们可能难以获得与他人、动物或其他的不同系统完全精确一致的感受。但是,我们会得到关于它们的感受或思想的某种知识形式的表示或某种理论。在此意义上,主观性保留了下来,即使在技术模拟的情形下,人类通信中的解释学也保持着宽广领域。关于传统的心-身问题,复杂系统探究方式表明,认知活动既不完全独立和相异于脑活动,不是简单地等同,也不是一种附带现象。思维和感受被假定为,既是神经过程的产物,也是生产者,而它们不必等同。在复杂系统框架中,脑模型是一种自组织系统,它处在远离热平衡和接近于不稳定点的阈值之处发挥作用。在神经不稳定态,不同的集体激活模式都向相干宏观模式演化,这样的宏观模式在神经生理学上是以某种细胞集合体为基础的,在心理学上表示为一定的感受和思想。我们都有这样的经验,在情绪不稳定态下某种感受可以支配其他实际感受,甚至引导我们的行动。在协同学中,稳定模和不稳定模的竞争用役使原理来解释。读者可能还记得,在进行决策时,一种思想或概念开始“役使”其他可能的思想或概念。这些非平衡的相变,在最小信息的意义上,受非常少的几个序参量所支配。的确,作出决策以后而行动,意味着巨大复杂性的减少。过多的知识对于行动是阻碍,或如歌德所说:“行动的人总是肆无忌惮。”认知现象被当作脑动力学的宏观性质和序参量,序参量支配着其间的微观过程。因此,所谓的心-脑相互作用,不过是一种不适当的、陈旧的形而上学的过时表述而已,它们假定了某些诸如力学中的碰撞球那样的相互作用实体。复杂神经系统中相变过程,从微观的神经相互作用中形成宏观性质,这可用来为脑科学和认知科学的交叠领域建立模型。协同学中把相变解释为某种对称破缺,这可以用对称势中粒子的阻尼运动来形象地说明(图4.20a)。在势能的极大值,粒子的位置是对称的,但却是不稳定的。微小的涨落决定了粒子将到达两个同等稳定状态中的一个状态。在复杂系统探究方式中,图4.20a中的两个低谷被解释为两个吸引子。显然,感觉的模糊性和视觉系统自发地决定采取其中的一种解释,这是一个人们熟悉的心理学对称破缺的例子。在图4.20b中,存在一种图形的背景不稳定性。我们是否看见了白色或黑色的交叉?图4.20c显示了一种意义的模糊性。图中是一位老年妇女还是一位青年妇女?在心理学中,对称破缺是由复杂系统的非线性因果关系支配的(“蝴蝶效应”),这大体上意味着,一个小的原因将引出大的结果。起始个体透视方式的微小细节,也是一种认知的倾向,可以“役使”其他的模式,并导致一种支配性观点。一个神经生理学的模型,必须模拟相应的细胞集合体的相变。动物行进例如马的步态中的相变是大家所熟知的。随着速度的增加,马的运动模式也改变了,从行走变成了小跑再到奔驰,以使能量消耗最小化。这是在非平衡相变中经常观察到的滞后现象,这种现象被解释为神经系统中稳定态或吸引子的结果。思维中也出现相变。“啊哈-经历”和突然的“洞见”却是从涨落和不稳定性情形中出现的令人惊奇的现象。历史上,有许多著名的例子,科学家、工程师、艺术家和作曲家在“创造性”的不稳定性和困惑情形下,突然发现新的问题答案、作出新的发明、闪现出绘画新思想、创作新旋律等等。复杂系统探究方式并未提供封闭的心理学信条,而是提供了一种跨学科研究纲领,去探索认知科学中的老问题和新问题,并使得它们更靠近经验的和实验的分析。因此,人们已经提出,要探讨细胞集合体的变化速率和学习、创造性、认知灵活性和形象化能力之间的相关性。认知不稳定性现象被假定是神经过程的微观不稳定性的宏观性质。思维和期望被解释为支配着整个系统的活动性的序参量,如果它在接近不稳定点起作用。在心理学实验中可以见到这种理论的确证,实验通过暗示引起幻觉,并引起相应的可测量的生理效应。通过记录区域的脑血流量,表明甚至是思维或行动的意向也会增加原动区的神经活性。有谁会否认思想可以改变世界而并非仅仅是解释世界?在心理疾病现象领域,例如,安慰剂效应表明,单纯信念或主导思想就不仅仅可以改变情绪状态,而且还可以改变生理状态。显然,心理疾病状态是接近不稳定点的。相应的序参量并非只是心理学家的理论概念,还是控制和支配着(“役使着”)中枢神经系统活性的真实模式。最后的例子表明,自组织复杂系统在心理学中的应用不能仅仅由它们的预见性和定量可测量性来进行评价。复杂系统的一种固有性质是,它在微观尺度上的非线性动力学和对于初始条件的敏感性依赖,不允许人们对于系统的终态作出预见。在大脑和认知研究中,我们面临着巨大的复杂性,难以进行精确计算和长期预报。然而,复杂系统探究方式,揭示了心-脑系统的本质特征,比如它对于细微的内在涨落和外在世界变化的高度敏感性。4.4意向性和脑爬虫体除了意识之外,人的精神还有另一个基本特征——意向性,这是历来受到强调的。意向性是神经状态对于外部世界的事物对象或状态的参照性:我看见了某事物,我相信某事物,我期望某事物,我害怕某事物,我想要某事物,等等。有意向的精神状态可以与没有任何参照性的无意向状态区别开来:我紧张,我害怕,我累了,我幸福,我沮丧,等等。意向性现象也可以用简单的例子来形象地说明。在图4.21中,每一观察者都看见一个方块,尽管在此并没有给出任何物理上的方块形状。线条的构型对视觉系统提示了,存在着一特殊的封闭对象。在观察者和刺激物构型之间出现了意向性参照。意向性对象或状态可以是虚构的也可以是真实的。显然,人类文化充满着关于意向性对象或状态的记号和符号,包括从交通信号到宗教符号。甚至从纪念碑和教堂到工厂这样的建筑物,也可以代表意向性对象。在人类文化的长期发展中,构筑起来语言的意向性意义。在传统的认识论中,某些哲学家如弗兰茨·布伦特诺甚至主张,意向性是人的精神指称世界的一种特殊能力。意向性被理解为精神的一种特性,它不可能归结为物理学的、化学的或生物学的性质。一些现代哲学家如约翰·西尔斯主张,意向性是人类精神的一种本能特征。但是,他们也认为人类大脑的生物学进化也发展了精神参照世界的意向性能力。实际上,意向性并非大脑所独有。它也是某些复杂系统的特性,可以用生命进化中的吸引子动力学来为其建立模型。社会昆虫的筑巢就是一个集体意向性动力学的例子。这种复杂系统的特性是自催化机制。通过这种机制,建筑巢穴生态系统——白蚁群体与其环境——的目标定向的工作得以进行下去。在复杂系统探究方式中,人们假定,这种社会系统已经说明了诸如大脑和中枢系统那样的较高级发展系统中观察到的规范性质。巢穴的构筑过程涉及微观水平上500万只以上昆虫的协调,并导致一定的宏观建筑模式的演化。例如,非洲白蚁构筑的巢穴高度超过15英尺,重量超过10吨。每一白蚁都是独立于其他白蚁进行工作的。但是,它们的行动局部上由某些化学物质的分布所决定,这些化学物质是白蚁自己分泌出来的。建筑材料用化学物质打上了标记。最初,建筑材料是随机分布的,然后以某种不断增加着规则性的方式,直到建筑结构的出现,它是在受到化学物分布支配的昆虫的局部相互作用中出现的。此模式决定了几个作为集体活动目标的中心,在数学上这可以解释为扩散场的吸引子。在前面的章节中,吸引子是作为解引入的,它为从不同初始条件出发的多条轨迹所共有。局部的轨迹对于吸引子,或是收敛的或是发散的。在物理或化学场的模型中,吸引子定义了局部区域,其中势能梯度呈现下降趋势,指向零。包围吸引子的区域叫做吸引盆,由向吸引子收敛或发散的梯度流来定义。昆虫的流的模式总体上是由它们的工作空间的吸引子的布局来组织的,这是昆虫动力学的相图。众所周知,吸引子并非总能实现的。如果某些控制参量改变了,一种模式也可能变得不稳定而被破坏,随之又出现新的吸引子模式。图4.22a显示了围绕着两个吸引子的化学扩散梯度,它将是两根柱子的基础。因为两根柱子对于白蚁是两个竞争的吸引子,就决定了它们之间有一个鞍点。在后来的建筑步骤中,图4.22a的起初的二维场之后出现了三维场(图4.22b),支配了柱状构造的方向。在图4.22c中,以一个化学扩散梯度的吸引子示意了拱的形成。显然,在生态尺度上的意向性并不要求其中单个的系统组件必须意识到其行动的总体后果。意向性仅仅是系统动力学在较长的发展中从总体上展现出来的。图4.22d示意了筑巢的意向性复杂系统的自催化循环。因为它并非有指导的学习过程,那里也就没有诸如“上帝”或“自然”那样的指导性权威的“目标”或“计划”。那不过是一种简化的拟人隐喻,它没有正确地描述所论自组织复杂系统的非线性因果关系。然而,总体上,从复杂的非线性相互作用中出现了意向性的集体行为。由于大脑和中枢神经系统都是复杂系统,其非线性的动力学支配着它们的神经元和突触,它们实现了意向性行为模式也就不奇怪了。意向性并非是从天上掉下来的一种奇迹,一种引导着人的精神并将其与自然区别开来的奇迹。它是一种整体模式,是特定的复杂系统在一定条件下形成的。但是,意向性有不同的水平,这取决于增加着的进化复杂性。意向并非必定是意识。在图4.21中,我们视觉系统的意向性对象是一块方块,我们并没有施加有意识的意志。所谓的幻觉也是我们的视觉系统一种意向性模式,它自发地产生出来而没有加入我们的有意识的意志。图4.23展示了流形的弯曲效应,它显得是由不同的形象吸引子的排斥于梯度引起的。两条等距平行线显得被左边一对排斥子梯度和被右边的一个排斥子梯度改变了它们的曲率。观察者视觉系统的态空间,由于不同视觉梯度场的结果,表现出不同的曲率,尽管线段在物理图形中仍然保持等距和平行。甚至有意识的意向性模式也并非人所独有。一条狗的跳跃不只是为跳跃,而是为了捕食、欢迎主人等等。在有意识的目标定向的意义上,意向性在不同程度上是所有动物的特性。随之而来的问题是,意向性行为如何用复杂系统探究方式来建模,模型又如何在实验中进行检验。在这方面,意向性定义为一种有倾向性的行为模式,它可以改变其固有行为模式的动力学性质,例如稳定性。因此,心理学家可以为行为模式的内在动力学建立模型,尽管这样的模式可能被其他有倾向行为的动力学模式所改变。这里我们提醒读者,支配着某些行为模式的内在动力学,是可以用非平衡相变和序参量来建模的。凯尔索、哈肯和其他人已经分析了如下的简单例子:要求人们平行地运动他们的手指(图4.24a),在频率低时他们容易做到这一点。当要求受试人增加其手指的运动频率时,手指会突然地以对称的、反平行的方式运动,失去了有意识的意向性(图4.24b)。为了给这种行为模式的相变建立模型,频率被解释为一种控制参量,描述手指运动的宏观变量是相中。该行为可以在与相变化相联系的能量地形中建立模型。该地形必定是对称的,因为左手指和右手指具有同等的功能。相的角度必定是周期的(图4.25)。如果频率增加了,地形及其起始形状较陡的低谷就会变形。最初的缓慢运动中,模式是稳定的,相应于处于x值的稳定相(图4.25a)。最后,处于x值的低谷消失了,起初处于该低谷的小球也向下滚进到最深的最小值,这相应于手指的对称运动(图4.25c)。在一些实验中,要求主观上有意向地去实现双手协调的两种模式之间的转变。短暂的过程所相应的转变时间,已经进行了测量。两种模式的稳定性,用序参量的涨落来度量。相对的相动力学用非线性演化方程来进行建模。图4.26a示意了按照这个具有两个势能极小值方程的内在动力学。意向性信息对于相对相的动力学的贡献,用图4.26b中的势来表示。把内在的和意向性的动力学加和,得到完整的动力学,结果示意在图4.26c中。在地形中的小球,在O=0时比O=180时沿着陡峭斜坡要滚动得快一些,这相应于经验上测量的转变时间。显然,意向可以通过使得其中一种模式失稳而另一种模式稳定化,从而改变内在动力学。意向性信息在此被看作模式动力学的一部分,吸引着系统向所倾向的模式运动。在此意义上,意向性信息定义了态空间的一个吸引子,此内在动力学模型就建立在此态空间中。意向性和语言的意义常常被当作人类思维的根本性特征。意向性状态的例子有疼痛、酥痒、骚痒、信念、害怕、希望、欲望、感觉经验、行动经验、思维、感受等等。它们都使用相应的语句来表达,如“我觉得胃疼”、“我希望得到一辆小汽车”、“我相信上帝”等等。西尔斯提出,精神状态与其他的生物状态如乳汁分泌、光合作用或消化一样地真实。他认识到,精神状态是生物脑的一种宏观态,由微观尺度上的神经元之间的神经生理相互作用引起。因此,它们是不可能由单个神经元的神经生理状态来验证的。在大脑的微观态和宏观态之间的区分,是用例如与液体的微观态和宏观态的比拟来加以说明的:液体的宏观态不可能还原为单个分子,或换言之,单个分子不可能是液体。在此意义上,信念、欲望、口渴、视觉经验都是大脑的真实因果特征,如同桌子的固体性或水的液体性一样真实。意向性状态自身可以由大脑的结构引起并由大脑的结构来实现。西尔斯主张,对此并不存在形而上学障碍。然而,他特别指出,任何纯粹的模型都不足以充分地模拟意向性,因为形式性质并非意向性的组成部分。他持有这种看法的理由是以“中文小屋’思想实验为基础的。把一个只懂得英文的人锁在一间小屋内,室内贮藏了大量的中文符号,并有一套用英文写下的复杂的翻译规则,籍以对中文符号序列进行操作。他不断地通过一条窄缝接收中文符号序列(图4.27)。他应用那些翻译规则,进一步产生出中文符号序列,并通过窄缝显示出来。对于小屋中的那个人来说,并不了解储藏的序列中包含了大量的用中文写下的关于某一主题的信息。通过窄缝输入序列的是关于这些主题的问题或见解。输出的序列的是对于这些收到的输入见解的反应或建议。所用的翻译规则是一种形式程序,模拟了以中文为母语的说话人的通常行为。在中文小屋中的那个人,正确地应用此形式翻译规则,但不理解中文符号序列,这些中文符号序列对于他是无意义的。西尔斯认为,形式符号的操作本身并没有任何意向性,因为它们对于使用者来说是完全无意义的。在此情形中,意向性是形式符号如字词、句子等等的特征,它们涉及到“所指”的事物(符号的语义关系)以及使用者(符号的实用关系)。西尔斯断定,这种特征仅仅是大脑的精神状态所固有的。他的论证是针对“计算机模拟”的缺陷的,因为他把模拟限定在由程序控制的图林计算机的形式算法。但是我们已表明,大脑具有典型的自组织、自参照复杂系统的特征,这与程序控制的计算机完全不同(参见第6章)。复杂系统的自组织和自参照性并不局限于人类或哺乳动物的大脑。它们仅仅是特殊的复杂系统的生物化学和神经生理学的实现,是在生物进化中产生出来的。因此,原则上,不可能排除,这些具有特征动力学的复杂结构可能通过人的技术以完全不同的材料来实现。结果是,正如自参照和自组织的特征使得意向性成为可能,那么,用不同于生物脑的复杂模型来加以至少是部分地模拟意向性,也就是原则上不能排除的。在传统哲学中,意向性常常以所谓的人的“自我”为基础,被认为能够涉及世界和自身(作为自参照性的“自我意识”)。但是自我隐藏在大脑的何处?传统的观点,如种种柏拉图主义或唯灵论或唯物主义,甚至仍然为一些现代的脑研究人员所持有。例如,在约翰·艾克尔斯爵士看来,自我表现为一种与大脑相互作用的心灵实体,只在本性上完全不同。但是应该怎样坚持或拒绝这种假设呢?它只是一种以高度形而上学为代价的假定,人们可以相信它也可以不相信它。假设也许是该受批判的,可能是虚假的,但是对于进一步的研究是有益的。因此,形而上学的代价是太高了。哲学上的奥卡姆剃刀要求我们扔掉多余的假设,保留形而上学实体的经济假定,把看来是经验研究所不可或缺的假设数目限制到最小。复杂系统探究方式是一种数学的跨学科模型的研究纲领,避免了形而上学教条。从长远看,它可能失效。但是这种建模策略已经在若干科学和技术中得到许多成功的确证,而且更重要的是,它为进一步的经验研究提示了一些富有成果的概念。另一方面,传统的唯物论以单个神经元来解释神经生理学过程的精神状态,则是错误的。然而,在脑研究中,出现的问题是:大脑中的哪一部分是“自我”中心?皮层是大脑的一部分,它使我们能够进行学习、记忆和思维,并创造出所有的人类文化和人类文明。但是,如果皮层主要当作具有一定学习程序的复杂联想记忆存贮来进行建模,那么它就仅仅是一种复杂的、高度精致的设备,是在生物进化中为增进适者生存而进化起来的设备而已。的确,皮层是人的大脑进化中最年青的部分。大脑中有一些老得多的但更为初级的结构,这样的结构也可以在鸟类、爬行动物、两栖动物和鱼类中找到。一些科学家假定,基本的感受性如性欲、疼痛和所有的伺服机制,是爬行动物的生存所必要的,从根本上说是在这些早期的大脑结构中实现的。这种中心将会刺激所有各种活动,把皮层仅仅用作为巨大而有效的联想装置。因此,在这种解释中,“自我”就被大脑中的小爬虫体代替了,大脑以某些高度复杂的设施如皮层来发挥作用,从而在越来越复杂的环境中生存下来。意向性由于皮层而变得可能,但却是由人的大脑中的爬虫体的基本本能激起的。具有高度有效的神经生存手段的爬虫体的概念,比起上一世纪流行的达尔文信条——猿是人的祖先,显得更加损伤我们的虚荣心。当然,从科学的观点看,这不是我们自尊心的受损,而是促使我们对“神经爬虫体”概念进行批判。主要的根据在于,我们的感受性并不停留在爬虫体水平上,而是在生物和文化的进化中得到了发展。我们的性欲和疼痛感受性都是相当复杂,因为它们受到由人脑产生出来的相当复杂、精致的文明的影响。因此,从爬虫体时代直到今天,是某种复杂的反馈改进了我们的感受性和欲望。文学、艺术和心理学的历史表明,性欲和疼痛都是处于永恒进化中的人脑的高度精致的状态。因此,甚至传统的人的灵魂的概念,在复杂系统框架中仍然是一个或多或少有些敏感的问题。但是,我们必须放弃关于人的精神和灵魂的传统观念,它们被看作某种奇怪实体,以某种原则上不可思议的方式控制着人的身体并与之相互作用。  《复杂性中的思维物质》克劳斯·迈因策尔著 曾国屏译   5复杂系统和人工智能的进化    机器能够思维吗?图林提出的这个著名问题在复杂系统框架中具有新的讨论意义。本章先对莱布尼茨和他的机器思维纲领(通用数学)以来的计算机科学史作一简短回顾(5.1节)。现代的可计算性理论使我们能够进行问题的复杂性分类,即划分对它们的算法或计算程序的计算时间的函数的级别。现代计算机科学感兴趣的,不仅仅是通用问题求解的复杂性而且还有基于知识程序的复杂性。在特定的领域中模拟人类专家问题求解行为的专家系统,是一个著名的例子。我们还要进一步问一问,是否可以期待从量子计算机和量子复杂性理论中得到更有效的问题求解方法(5.2节)。但是在采用程序控制的计算机算法机械化时遇到几个严重的障碍,是增加计算能力所不能克服的。例如,模式识别、运动协调和其他复杂的人的学习任务,都是图林类型计算机程序所难以把握的。人工神经网络实现了复杂动力学系统的原理。它们得到了非线性动力学在固态物理学、自旋玻璃体物理学、化学平行计算机、光学平行计算机、激光系统中和对于人脑的成功应用的鼓舞(5.3节)。人工神经网络已经在神经仿生学、医学和机器人学中得到了一些应用。新技术应用的另一个更为推测性的方面是赛博空间。虚拟现实在世界范围的远距离通信者的社会中已经成为一个关键词(5.4节)。显然,图林的“机器能否思维?”这个问题不可能由复杂系统探究方式作出最终的回答,尽管我们可以运用人工神经网络来完成一些有趣的认知任务。5.1莱布尼茨和通用数学复杂系统的一个最为推测性的应用是人工智能(AI)的进化。在经典的AI传统中,大脑被理解为最先进机器的计算机硬件,而神经是相应的具有确定性算法的软件程序。甚至基于知识的专家系统也被设想为高度发展的AI编程语言的算法表示。但是数理逻辑的理论结果(丘奇、图林和哥德尔等人)以及编程的实际问题限制了经典AI框架中的思维机械化。一种关于作为自然进化产物的“脑计算机”的理论已经提出,主张用复杂神经网络的非线性动力学(“自组织”)来为大脑的本性及其精神状态建立模型。由此引起的问题是,对于它们的动力学的洞见,是否会获得一种新的革命性技术的“蓝图”,并由此来追索大脑和精神的自然进化。实际上,人的知识和知识技术的发展表现为一种技术的进化,它导致了如同生物进化中的突变那样的技术创新。最初的水平是由如锤子、杠杆等简单工具实现的。高一级水平上,发明了运用力和能量的机器。今天,程序控制的计算机和信息处理自动机已经变成了日常生活中的工具。计算机科学家在他们的机器的历史发展中把硬件和软件划分成若干代。在人工智能研究中,人们可以说“第2代计算机”,指的是从数字处理机到知识处理系统,如专家系统。专家系统被认为是至少部分地模拟人类专家。计算机科学的早期历史根源可以追溯到经典机器时代。随着自动执行初等算术操作的机械装置的发展,思维的机械化也就开始了。一台机械计算机一步一步地执行顺序指令。因此,它的动力学是由机械的单向因果性所决定的,本质上不同于复杂系统平行主义和自组织。一般地说,机械计算机的传统设计中包括如下的装置。首先是输入机制,数字由此输入到机器中。选择机制选取机械运动,对寄存机制中的数值进行加法或减法运算。寄存机制对于显示存储在机器中的数值是必要的,技术上是用一系列的轮子或圆盘来实现的。如果进行了一次计算,是因为结果寄存器中的一个数字从9提升到了0,然后必须由运行机制将这一运算传播到下一个数字甚至穿过整个结果寄存器。控制机制保证了所有的齿轮在每一次加和循环以后正确地到位,以避免错误结果或阻塞机器。消去机制必须对寄存机制进行重新设置,使之处于零位。希伯莱语教授、东方语言学家、数学家、天文学家和地理学家威廉姆·希克尔德(1592-1635)被看成是第一位能够进行四则运算的机械计算机的发明者。他的机器中,加法和减法部分是由自动运行机制驱动齿轮来实现的。乘法和除法机制是以亲普尔的乘法表为基础的。杰出的法国数学家和哲学家布莱斯·帕斯卡尔(1623-1662)发明的加法和减法机中,其精致可进行四则运算的运行机制原理在今天的路程计中仍然运用着。正是莱布尼茨的可进行四则运算的机械计算机中包含了如下机械装置:输入机制、选取机制、进行运算的寄存器、以及消去机制。莱布尼茨机成了手摇计算机的原型。如果我们对莱布尼茨机的技术细节和特殊机械构造进行抽象,那么我们就获得了一种理想计算机模型,它在原则上能够计算所有的自然数的可计算函数。图5.1是这种理想计算机的图式,其中有摇把C,3个数字寄存器SM、TM和RM。设置操纵杆SH可以使自然数输进(输入)机制SM。如果摇把向右方转动,SM的内容就加入到结果机制RM的内容中,转动机制TM的内容就提高1。摇把C向左方转动,从RM的内容中减少SM的内容,并使TM的内容减少1。加法意味着如下的结果:在计算开始时,消去机制程序由设置TM和RM到零来完成。然后,第1个数用SH设置在SM中。摇把C向右转动,就把这个数字送入了RM。换言之,在RM中把数字加到了零上。现在,第2个数字输入到SM,并通过向右转从而加到RM的内容中。两个数字的和可以在RM上读出。在向右摇动两次曲柄以后,TM显示出2。乘法仅仅是意味着反复相同数字的反复加法。乘积b·a是数字a加到自己身上b次。莱布尼茨甚至设计了仅仅有两个数字0和1的二进制数字系统的机械计算机,二进制是他早些年发现的。他描述了一个机制,可以把十进制翻译成相应的二进制,并且反之亦然。由于现代的电子计算机只有两种状态1(电脉冲)和0(没有电脉冲),莱布尼茨的确成为计算机科学的先驱之一。莱布尼茨的机器遇到了许多技术上的问题,因为那时的材料和技术工艺都难以满足要求。然而,他的设计是通用数学的一般研究纲领的一部分,通用数学机的意图是要通过计算程序(“算法”)并通过机械计算机来模拟人的思维。莱布尼茨提出了他的通用数学的两个基本学科。ars iudicandi允许每一种科学问题,在编码成为数字符号以后,都可由适当的算术算法来解决。ars inveniendi允许科学家去寻找和计算出科学问题的可能解。莱布尼茨的通用数学看来已经预见了我们这个世纪著名的希尔伯特纲领,此纲领号召对数学知识进行形式化和公理化。实际上,莱布尼茨发展起来了一些程序,对语言进行形式化和编码。他深深地坚信,存在着用机械装置解决世界上所有问题的通用算法。结果,他主张自然系统如细胞、植物、动物甚至人类都是复杂性程度不同的计算机。莱布尼茨在他的《论形而上学》(1686)中强调,活系统的因果解释的机械描述并不与在科学中有巨大启发价值的目的论观点相抵触,(22)。他在《单子论》中(18),引入了一种个体实体(单子)作为基本的自动机,它以状态(“感觉”)的(连续)系列为特征。基本的自动机构成了集合体,其程度不同的复杂性以不同的关联性为标志,并可以解释为复合的自动机。在他的《神正论》(200)中,莱布尼茨讨论了活系统中的等级结构和从属关系:……事物的关联和秩序引起了,每种动物和每种植物的身体都包含了其他动物和其他植物,或其他活的有机体:结果是存在着从属关系,一种身体,一种实体都服务于另一种。活系统的统一性是由其组织形式来保证的,对此莱布尼茨采纳了亚里士多德的观点,称之为“隐德来希”。但是莱布尼茨仅仅是借用了一种老的形而上学术语,以引出他自己的新概念。对于莱布尼茨来说,只有在从属关系和等级程度高低不同的意义上,一个系统才有一定程度的统一性。一个其中所有的实体之间有同等关联的集合体,就没有等级秩序,比起初级的细胞有机体,它的结构性就较差,而在植物、动物和人类中,我们都可以观察到一种不断增长的从属关系。对于莱布尼茨来说,目的性术语具有启发性价值,尽管大自然原则上可以用机械因果性来解释。但是,把莱布尼茨说成是一位生命力论的信徒是一个基本的错误和误解。主要的区别在于,对于莱布尼茨来说,解释活系统决不需要新的原理或生命力。在一定程度的复杂性中,目的论术语仅仅是启发性地适用于描述自然系统。但是,与自然系统不同,人造的机械自动机是由人在有限步骤中构造出来的。只有无限分析才能够揭示出自然自动机的复杂性,它是与世界上的每一单个自动机(“实体”)相关联的。显然,莱布尼茨设计了一种复杂系统理论,但是仍然是处于经典力学框架中,仍然是一种可决定的通用算法的信念。在19世纪,英国的数学家和经济学家查尔斯·巴贝奇不仅仅构造了第一台程序控制的计算机(“分析机”),而且还研究了它的经济和社会后果。他的名著《论机械和制造的经济》(On theEconomy of Machinery and Manufactures,1841)的先声是亚当·斯密的经济规律思想,这与牛顿的力学规律是并行不悖的(对照6.2节)。在《国富论》中,斯密把钢针的工业生产描述为一个算法程序,预见了亨利·福特的工业中程控批量生产的思想。5.2从图林机到基于知识的系统弗雷格和罗素的现代形式逻辑以及希尔伯特和哥德尔的数学证明理论,主要受到了莱布尼茨通用数学纲领的影响。手摇计算机(图5.1)是对于5.1节所述莱布尼茨机的抽象,可以方便地推广到马尔文·闵斯基的所谓寄存机。它使人们在现代计算机科学中可以定义一般的可计算性概念。一台手摇计算机只有两个寄存器TM和RM,只能输入相当小的自然数。一台理想的寄存器具有有限个寄存器,它们都可以贮存任意有限个数量。寄存器用自然数i=1,2,3,……标记。寄存器i的内容用(i)来标记。作为一个例子,装置(4):=1意味着,寄存器4的内容为1。如果其内容为0则寄存器是空的。在手摇计算机中,加法或减法仅仅由两个寄存器(SM)和(RM)来实现,(SM)+(RM)或(SM)-(RM)都将存入寄存器RM。在寄存机中,减法-的结果应为0,如果大于。这种修改的减法标记为-。一般地,理想寄存机的程序是用如下的基本步骤作为建筑块来定义的:①向(i)中加人1并把结果置人寄存器i,即(i):(i)+1;②从(i)中减去1并把结果置人寄存器i,即(i):=(i)-1;这两个基本步骤可以运用如下的概念进行合成:③如果P和Q都是明确定义的程序,那么P→Q也是明确定义的程序。P→Q意味着,机器必须在执行程序P之后执行程序Q。④程序的重复,这对于乘法是必要的,例如,重复相加受到如下问题的控制:一定的寄存器是否是空的。这种反馈可以示意如下:如果P是明确定义的程序,执行P直到寄存器i中的内容变成零。程序的每一基本操作①和②都计为一步计算。一个简单的例子是如下的加法程序:机器的每一状态都表示为如下的矩阵,它不断地把(j)的内容y加到寄存器(i)的内容X中,同时使得(j)的内容逐步减少到零。x+y加和的结果显示在寄存器中:一台具有程序F的寄存机定义为,计算出n个自变量的函数值f,即对于寄存器1,…,n中任意的自变量x1,…,xn(对于所有其他寄存器均为零),执行程序F,在有限步骤后停止,此时寄存器1,…,n中函数的自变量和寄存器n+1中的函数值为f(x1,…,xn)按照相应的矩阵进行运算。函数f称作由寄存机RM可计算的(RM-可计算性),如果由程序F计算f。一定程序F计算一个函数f所需的步骤数,由该程序所决定,并取决于函数的自变量。程序F的复杂性用函数SF(x1,…,xn)来度量,它计算出按照程序F进行计算的步骤。例如,x+y的加法程序的矩阵显示了,y步加上1的基本步骤和y步减去1的基本步骤是必要的。因此,SF(x,y)=2y。由于RM可计算函数f可以由若干种程序进行计算,函数g称作函数f的步骤计算函数,如果有一个程序F去计算f,且对于所有的自变量x1,…,xn有g(x1,…,xn)=SF(x1,…,xn)。一个函数的复杂性定义为最好程序的复杂性,最好程序即进行函数计算时花费步骤最少的程序。显然,闵斯基的寄存机是一种对于莱布尼茨的手摇计算机的直觉概括。但是,历史上另一种等价表述的机器是阿兰·图林和埃米尔·波斯特在1936年首先提出来的。图林机(图5.2a)可以执行任何有效的程序,如果该程序是正确编程的。它的构成:a)控制箱,其中置入某个有限程序;b)潜在无限的带子,带子上划分出小方格;。c)计数装置,或将每一结果打印在带子的每一方格中,沿着带子的移动或停机都处于控制箱的命令控制下。如果图林机使用的符号限制在竖线I和空格*,那么可以证明,RM可计算函数是图林机可计算的,反之亦然。我们必须记住,每一自然数都可以一个x条竖线的序列来表示(例如3表示为III),每一竖线都占据图林带子上的一个方格。空格*用来标记空的方格(或相应的数字为零)。特别是,对于分开代表着数目的坚线序列,空格是必要的。因此,图林机计算一个自变量为x1,…,xn的函数f,始于带子上的…*x1*x2*…*xn,停机于…*x1*x2*…*xn*f(x1,…xn)*…。从逻辑学的观点来看,一台通用计算机是技术上实现了的通用图林机,——如美国的约翰·冯·诸葛曼小组构造的计算机以及德国的康拉德·朱斯独立构造的计算机。它可以执行任何种类的图林程序。同样,我们可以定义一种通用的寄存机,它可以执行任何种类的寄存程序。实际上,通常设计的冯·诺意曼机包括中心处理器(程序控制器),记忆装置,算法单元和输人-输出装置。它以长序列方式一步一步地运行。今天的一台冯·诺意曼计算机实际是一台通用化的图林机。图林机的效率可以由引进几条带子而增加,它们不必是一维的,每一条带子有一个或多个读写头,但是都要报告给单个控制箱,控制精协调着机器的所有活动(图5.2b)。因此,这种更有效的机器的每一计算都可以由一台普通的图林机来实施。从复杂系统探究方式来看,一台多带图林机仍然是一种程序控制的计算机,与自组织系统如神经网络有本质上的差异。除了图林机和寄存机以外,可计算函数还可以用许多其他数学上等价程序来定义。递归函数由函数置换和重复来定义,它始于某种显然是可计算的基本函数(例如相继函数n(x)=x+1)。所有这些由图林机、寄存机、递归函数等来定义的可计算性,可以被证明是数学上等价的。显然,每一种这样的精确概念都定义了一种程序,这样的程序是直觉上有效的。因此,阿朗索·丘奇提出了他的著名公设,有效程序这个非形式的直觉概念与图林机那样的等价的精确概念是一致的。丘奇的公设当然是不可能证明的,因为这里是数学上精确的概念与非形式的直觉概念的比较。然而,几种精确的可计算性概念的数学等价在直觉上是丘奇公设的有效确证。结果是,我们可能在不涉及特定的有效程序(“算法”)如图林机、寄存机、递归函数等时,来谈论可计算性、有效性和计算函数。按照丘奇的公设,我们特别可以说,每一可计算程序(算法)都可以由图林机进行计算。所有的递归函数作为一种机器程序,都可以由通用计算机进行计算。现在,我们能够定义决策和可计数的有效程序,而莱布尼茨的通用数学纲领就已经提出了这样的要求。自然数的集合M的特征函数fM定义为fM(x)=1,如果x是M的一个元素,否则fM(x)=0。因此,子集M被定义为有效可决定的,如果其特征函数对于一个数无论是否属于M,都是有效可计算的(或递归的)。集合M定义为有效(递归)可计数的,如果存在有效(递归)程序f可相继地产生出其元素(对于M中所有元素x1,x2,…,有形式f(1)=x1,f(2)=x2,……)。容易证明,所有递归(可决定的)集都是递归上可计数的(或递归的)。但是,存在着这样的集合,它是递归上可计数的,但却不是可决定的。这是第一条线索,它意味着,莱布尼茨的基于通用可决定程序信念的乐观纲领存在着局限性。对于自然智能和人工智能,有效可计算性范式意味着精神是由程序控制机器表示的。神经结构涉及的是符号数据结构,而精神过程也就是操作算法。历史上,AI的核心是在1956年的达特茅斯会议期间建立起来的。参加会议的约翰·麦卡锡、阿兰·纽厄尔、赫伯特·西蒙以及来自其他不同学科领域的一流研究人员,形成了新的AI科学共同体。他们都受到图林的“机器能否思维?”问题的启发,这个问题是图林在著名的《计算机器和智能》(1950)一文中提出来的。在莱布尼茨的通用数学的传统中,人们可能会相信,人的思维可以用某种通用演算来形式化。在其现代的翻版中,人们可能会假定,人的思维可以用某种强有力的形式编程语言来表示。无论如何,形式表达式都是符号序列,是可以用自然数进行编码的。于是,对于对象的断言就相应于关于数字的函数,结论就将从某种有效的计数程序中得出,如此等等。实际上,现代计算机的机器语言就是由数字序列构成的,对于机器的每一状态和程序进行了编码。因此,计算机的操作可以描述为有效的或递归的数字程序。如果人的思维可以用递归函数来表示,那么按照丘奇公设,它就可用图林程序来表示,而图林程序可以用图林机计算。因此,人的思维也就可以用通用计算机来加以模拟,在此意义上,对于图林提出的问题也就必定要回答“是”。人的思维是可以编码、可用递归程序来表示的,这一前提当然是可疑的。甚至数学思维的过程也可以远比递归函数更为复杂。按照丘奇的公设,递归性或图林可计算性仅仅是可计算性的一种理论限度。下面我们希望考虑在这种限度之下和之上的复杂性程度问题。在这种限度之下,有许多涉及到一定限度的实际问题,其限度涉及到如何增加算法的速度。特别是在数学问题中,有一些种类的问题,它们的算法求解本来要比解决其他一些问题困难得多。因此,图林机有不同程度的可计算性,计算机科学中的复杂性理论使之精确化。问题(或相应的函数)的复杂性分类可以由复杂性程度来标志,这给出了函数的阶,函数描述了依赖于其输入长度的算法(或计算程序)的计算时间(或基本计算步骤的数目)。输入的长度可以用十进制的数目来度量。按照计算机的机器语言,可以方便地将十进制数字编码成仅仅用0和1的二进制码,并用二进制字符来定义其长度。例如,3的二进制码是11,其长度为2。函数f具有线性的计算时间,如果f的计算时间不大于c·n,其中n是输入长度,c是常数。两个(二进制)数的加法显然只具有线性计算时间,例如,对于3+7=10中应的二进制计算0 1 11 1 1__________________1 0 1 1其中需要5个基本计算步骤把两个二进制数加和(包括运算)。我们提醒读者,加和二进制数字相加的基本步骤是0+0=0,0+1=1,1+1=10,以及运算。可以方便地假定,两个将要相加的数具有同等长度。否则,我们简单地把较短的数加上一系列的零,例如,111和011而不是和11。一般地,如果将要相加的特定的数对的长度为n,则一个数的长度为n/2,因此,我们需要不大于n/2+n/2=n个基本计算步骤,其中包括了运算。函数f具有二次计算时间,如果对于所有的长度为n的输入和常数c,f的计算时间不大于c·n2。一个简单的二次计算时间的例子是两(二)数相乘。例如,对于7·3二21,相应的二进制计算:1 1 1·0 1 1___________________0 0 01 1 11 1 1——————————1 0 1 0 1按照前面的约定,我们有n=6。基本二进制乘法的步数是n/2·n/2=n[2]/4。包括进运算,基本二进制相加的步数是n/2·n/2-n/2=n2/4-n/2。总起来,我们得到n2/4+n2/4-n/2=n2/2-n/2,它小于n2/2。函数f具有多项式计算时间,如果f的计算时间不大于c·nk,假定它是多项式P(n)的首项。函数f具有指数计算时间,如果f的计算时间不大于c·2P(n)。许多实际的和理论的问题都属于这种P复杂性,所有P类函数都是可以用确定论的图林机在多项式时间中加以计算。数学史上有一些优美的图论问题可以说明复杂性理论的基本概念。1736年,著名的数学家利昂纳德·欧拉(1707-1783)解决了图论中的第一个问题。在东普鲁士的首都柯尼斯堡,所谓的老普里戈尔河和新普里戈尔河在普里戈尔河连接起来了。在18世纪,河上建造了7座桥,把南面s、北面n、东面e与小岛i联系起来(图5.3)。是否有这样一条路线,即每座桥只走一次而可以返回到最初的起点?欧拉把问题归结为图论。区域n,s,i,e用图的顶点来代替了,在两个区域之间的桥用相应顶点之间的边来代替(图5.3b)。在图论的语言中,欧拉的问题就成为,对于每一顶点,是否存在一条线路,它仅仅通过每一条边一次而最终返回到起点(“欧拉环”)。对于任意的图形,欧拉证明:欧拉环存在,当且仅当每一顶点都具有偶数条边(“欧拉条件”)。对于图5.3a,它并不满足这种条件,因此在这里欧拉问题不可能有解。一般地,存在用欧拉条件来检验任意的图的算法,如果它是欧拉环。算法的输入包括所有顶点1,…,n的集合V,所有边的集合E,它是所有顶点对的集合的子集。这种算法的计算时间线性地依赖于图的大小,它由定点数和边数之和来定义。1859年,数学家威廉姆·哈密顿(1805-1865)引入了一个颇为类似的问题,但比欧拉的问题更复杂。哈密顿考虑的是任意的图,它仅仅意味着有限的顶点的集合,通过边联系起来的一定数目的顶点对。哈密顿问题是:是否有一个通过每一顶点(而不是欧拉问题中的通过每一边)的封闭环(“哈密顿环”)。图5.3c示意了有一个哈密顿环的图,其中按照数字顺序通过每一顶点。不过,与欧拉问题的情形不同,我们并不知道这样的条件:它精确地表明一个图中是否包含哈密顿环。我们仅仅能够定义一种算法,来检验任意的图是否包含有哈密顿环。该算法检验所有的顶点的排列,以确定它们是否形成了一个哈密顿环。由于n个顶点有n!种不同的排列,该算法找到某个解的步骤不大于c·n!,其中c是常数。容易证明,n!阶相应于n[n]阶。结果是,对于哈密顿问题,一个算法需要指数的计算时间,而欧拉问题的算法求解需要的是线性计算时间。因此,哈密顿问题实际上是计算机无法解决的,甚至对于小的数目n也如此。大的计算时间的主要原因在于,确定论的计算机只能一步步地对于其中巨大数量的一个个情形进行检验。更方便的是运用非确定论的计算机,它允许在有限的可能数目中随机地选择计算程序,而不是以系列的方式一步步地进行。让我们再一次考虑哈密顿问题。假定一个输人图具有n个顶点u1,…,un。一个非确定论的算法以非确定论的、随机的方式选择了一定的顶点顺序Vi1,…,Vin。然后,该算法进行检验:这种顺序是否形成了一个哈密顿环。问题也就是,对于所有的数字j(j=1,…,n-1),相继的顶点Vij和Vij+1以及起初的开始顶点Vin和Vi1是否是由边联系起来的。这种非确定论算法的计算时间线性地依赖于图的大小。一般地说,NP意味着这样类型的函数的复杂性,它们用非确定论图林机进行计算时需要多项式时间。哈密顿问题是一个NP问题的例子。另一个NP问题是“旅行推销员问题”,除了种种边都有一定的数目规定以外,它与哈密顿问题非常相似。人们要解决的是:对于这一问题的哈密顿环,找出其数字的和的极小值,或更直觉地说,找出其旅行的距离的极小值。所有的P问题由定义,都是NP问题。但是,复杂性理论的关键性问题在于是否有P=NP,或换言之,由非确定论计算机以多项式时间解决的问题,是否也可以由确定论计算机以多项式时间来加以解决。哈密顿问题和旅行推销员问题,是所谓的NP完全问题的例子。这意味着,任何其他的NP问题都能够以多项式时间转化成它。结果是,如果一个NP完全问题实际上被证明是P问题(例如能够构造以多项式时间来解决哈密顿问题的一个确定论算法),那么接着还有是否所有的NP问题实际上都是P问题。否则,如果P≠NP,那么NP完全问题就不可能用确定论算法以多项式时间来解决。显然,复杂性理论表达了图林机或图林类型机的算法能力的程度。它在科学应用和工业应用中具有实际的后果。但是,它是否意味着人的思维的极限呢?复杂性理论的基本问题(例如N=NP或N≠NP)涉及到算法的速度、计算时间、存贮能力等等的度量。另一个问题是,人们如何开始发现复杂性程度不同的算法。这是计算机科学家的创造性工作,是算法的复杂性理论中不考虑的。另一方面,哥德尔的著名定理常常被认为限制了计算机和人的思维的数学能力。他的不完全性定理说,对于形式数论的每一协调的公理化扩展,就有一个(封闭的)不确定的表达式。实际上,他的定理陈述了,在整数的真陈述在其逻辑内不可能得到证明的意义上,任何合理的协调的算术逻辑都是不完整的。甚至如果我们用不可确定的表达式来扩展我们的公理化,那么也会有另一表达式在扩展的形式化中是不可确定的。哥德尔的结果表明,在莱布尼茨和希尔伯特传统中对于完整协调的算术逻辑的形式化追求,是注定要失败的。而且,哥德尔证明,算术逻辑——它可能是不完整的——使用可以在其逻辑内表示的方法来使之协调,也是不可能的。在哥德尔的著名结果提出来若干年以后,金藤(1909-1945)证明了初等数论的协调性,他运用了所谓的EO归纳法,该方法是通常的归纳法对自然数的无限扩展。但是,金藤的扩展的证明法的协调性却还是有疑问的,有待证明。换言之,证明方法的复杂性并不低于被证系统的复杂性。因此,只可能有相对协调的证明,所用证明方法必须得到证明,所用来进行证明的方法又需要得到证明,如此等等。对于人的思维,不存在绝对的可以由形式算法提供的协调性基础。但是,哥德尔定理对人的思维的限制是有某些基本假设条件的:我们必须把定理的证明作为人的智能的关键。公理仅仅适用于这样的精神模型:它是由其中所有知识都仔细形式化了的机器构成的。而且,哥德尔定理仅仅是对协调机的限制,而模糊性、不协调性和迷惑性都是人的决策的典型特征。如果我们在作出是否要行动的决定之前先要作出长时间的仔细的定理证明,那么我们就不可能有长期的生存。还应该考虑到,图林机具有固定的数据结构,而人的精神则是对新奇经验开放的,并能够从错误中进行学习。因此,哥德尔定理对于机器的限制,就如同对于人的大脑封锁新信息的进入一样。1936年,丘奇和图林证明了根本没有一种算法能决定一个一阶预测逻辑的表达式是否是同义反复的真理。随之即有,为找到某种数学证明,我们必须具有某些启发性思想。所以,AI的第一阶段(1957-1962)是受启发性编程问题支配的,这意味着在可能的分支树中自动地寻求人的问题求解,其间借助启发性来控制和评价。一个例子是纽厄尔、肖和西蒙的“逻辑理论家”(1957),它首次对罗素和怀特海的《数学原理》中前面的38条定理提供了证明。他的启发性来自一些人在心理学测验中使用的约略估量法。1962年,这些模拟程序被推广和扩展到所谓的“一般问题求解者”(GPS),它被假定为人的问题求解的启发性框架。但是GPS只可能解决形式化微观世界中的一些无意义的问题。另一个启发性编程的例子是,在博奕(下棋、将军)中寻求取胜策略。最初的模式识别程序(例如词语和符号的词汇表和句法表)都是以统计方法为基础的。但是从长远的观点看,这些早期的任何程序,都没有证明一般认知模拟程序中的欣快信念。至少,它的形而上学鼓舞了麦卡锡发明编程语言LISP,它是作为一种功能的编程语言引入的,用于处理可怕的符号表,成为今天基于知识的系统的一种最强大的编程语言。在一般方法失败以后,AI研究者们传播了一种预设的“语法信息处理”程序。AI的第二阶段(1963-1967)以专业程序的发展为特点。这样的专业程序,例如有求解简单代数问题的STUDENT,进行类似物体的模式识别的ANALOGY,等等。麻省理工学院的马尔文·闵斯基是这个时期的头面人物,他放弃了进行心理学模拟的主张:“目前的探索,其特点是聪明地选取问题从而得到复杂智能活动的幻象来进行的预设求解。成功的实用编程方法依赖于专业知识,这个思想首次被加以强调,成为后来基于知识的系统的中心概念。对于问题求解的一般原理的追求,在理论计算机科学中仍在继续:J.A.罗宾逊引入了所谓的以预测逻辑演算和赫布兰德的完全性定理为基础的求解原理,允许用逻辑反驳程序去发现证明。在AI中推动实用和专业编程方法,在第三个阶段(1967-1972)得到了加速发展。其标志是构造出专业系统、知识表示方法和对于自然语言的兴趣。发明了在数学应用中取得成功的MACSYMA程序的J.摩西描述了AI中范式的变化:“事实上,1967年是我的精神的转折点,那时候我充分地感受到一般原理的旧思想必须放弃……并抓住了我称作专业技能至上的证据。”这一时期的另一个著名例子是DENDRAL程序,它运用了质谱学中化学家的专业知识,以发现分子的结构式。这个阶段中的一个范式的例子变成了机器人的SHRDLU程序,机器人可以操纵不同组件组成的小世界。这种系统可以用英语理解和回答关于这个组件世界的问题,执行操作这个组件世界的指令,并把次序划分为一系列操作,理解干了什么并为什么这样干,并用英语描述它的行动。在第四阶段(1972-1977),知识的描述、组织和处理成为了把工程学和AI哲学结合起来的中心范式。米彻尔·费根鲍姆引入了“知识工程”这一术语,用于所谓专家系统的发展。一个例子是用于医学诊断的MYCIN程序,它模拟了一个具有细菌感染专业医学知识的内科医生。一种新的知识表示方法是马尔文·闵斯基提出的框架概念。一种用于符号性知识处理的新的编程语言是PROLOG(“逻辑编程”),它可以与LISP相比拟。AI的第五阶段(1977-1986)被说成是托马斯·库恩的意义上的“常规”阶段,指的是专家系统范式正在运行并实现了商业化。一些工具发展起来,以建设诸如大规模汽车生产使用的新专家系统。AI正在从实验室和哲学家的研究中崛起,正在变成世界性的知识工业的关键性技术。接下去,我们重点讨论专家系统,因为这里看来具有最令人感兴趣的哲学问题。一个专家系统是一种计算机程序,其中已经装入了知识和能力,使得它可以在专家水平上进行操作(例如化学中的DENDRAL和医学中的MYCIN)。人类专家的推理过程示意在图5.4中。一些专家系统甚至可以揭示为何它们拒绝一定的推理途径而选择其他的途径。设计者们在努力工作以实现这一点,因为他们知道,专家系统的最终运用取决于它对于使用者的可信度。如果它的行为是透明的、可解释的,那么它的可信度就会增加。但是,与人不一样,专家系统的知识是限于某种专业信息基础的,而没有关于世界的概括性、结构性知识。因此,专家系统在数字计算机的约定程序和人之间发挥着某种中间功能(图5.5)。一个专家系统包括如下的组件:知识基础、问题求解组件(推理系统)、解释组件、知识获取组件和对话组件。它们的协调示意在图5.6中。知识是专家系统运行中的关键性因素。知识具有两种类型:第一种类型是领域事实,它们书写在该领域的教科书和杂志中;对于一个领域的实践同样重要的是第二种知识,叫做启发性知识,是在该领域中的良好实践和进行判断的知识。正是实验性的知识,猜测高超艺术为一位专家经过多年工作所能获得的。顺便说一下,知识库与数据库不同。例如,一位医生的数据库是关于病人的记录,包括病人历史、重要症状的测量、所开药物和药物反应。这些数据必定要通过医生的医学知识来解释,以进一步进行诊断并制订医治方案。知识库是医生在他的医学教育中和在实习阶段、高级训练阶段、专业训练阶段和医学实践中学会的东西。它包括事实、倾向、信念和启发性知识。启发性知识是最难获得的,因为专家很少自觉地认识到它是什么。所以,跨学科训练的知识工程必须去获得专家的规则,将其表示为编程语言,并植入工作程序中。这个专家系统的组件叫做知识获取。它在专家系统的知识处理过程中的中心功能示意在图5.7中。最重要的知识表示方法是产生系统、逻辑、框架和语法网络。除了知识以外,专家系统还需要一种推理程序,一种用以理解和作用于知识和问题数据及其组合的推理方法。这些程序是独立于特定的知识库的,是建立在多种哲学方法论基础上的,为此我们将在后面分析几个专家系统的例子。专家系统的解释组件的任务是向使用者解释程序的步骤。问题“如何”也就是要对该系统导出的事实或断言进行解释;问题“何时”则是要求,指出一个系统的问题或秩序的前提。对话组件处理专家系统与使用者的通信。自然语言的处理器当然可以使甚至未受过专门训练的使用者也容易接受。从技术的观点看,专家系统的局限性是显然的。首先是知识表示问题。所论领域的知识如何表示为计算机记忆装置中的数据结构并为问题求解所接受?其次是知识利用问题。推理器应该如何设计?第三是知识获取问题。获得知识是如何可能的?这对于自动的问题求解是非常重要的,以使得计算机容易将人的专业知识转移到符号数据结构中。专家系统的最后一个也是最重要的问题是哲学问题。如何将专家系统的专业知识库与关于世界的一般化结构化的知识结合起来?这种一般化结构化的知识会影响人的专家的决策和行动。因此,当医生作出进行手术的决策时,还将考虑到有关病人的生活条件(家庭、工作等)的非对象性以及他对于生命的态度。特别是,例如在当今有关死亡尊严的争论中,对于生和死这种基本问题;医生的总体态度和见识也是融入到他的决策中的,尽管立法上在寻求建立一般的行为标准,但对此却是难以进行规范的。例如,在法律的专家系统中也表现出同样的问题。法官会置规范系统的自治性于不顾,最终将发现某种可能决策的正式范围,在此他将倾向于他自己关于生命和世界的观点。对于这种主观性影响,不要抱怨缺乏客观性,而是要看作一种作出更为人道的医学和裁决的机会。不过,对此并没有排除,未来的计算机科学应该去进一步地扩展以专家系统为基础知识,这种知识今天还是非常专业化的。当然,根本性的局限也是明显的,是专家系统的本质所导致。专家系统是问题求解程序的技术实现。因此,实际上存在着的专家系统可以由特定的要解决的问题来进行分类。图5.8示意了专家系统最重要问题的类型。输入问题类型输出测量数据、症状等→分类或诊断→规则/模式的识别约束→设计→满足性质的对象初始态、目标态→计划→将初始态转变到目标态的行动顺序初始态→模拟→未来的后果状态图5.8专家系统的问题类型一类已经深入分析过的问题涉及到“诊断”,例如医学中的诊断。这种专家系统的输入由测量的数据、症状等等所构成,它在结果中提供了从数据规则中识别出来的模式。另一类问题涉及到“设计”。此问题是如何发现在相应约束下的产物。计划问题的解答要求某种行动序列,把初始态转变成目标态。模拟问题从模型的初始态出发,必须计算其后续状态并进行评价。问题求解策略是由产生规则推导出来的,这里必须由所谓的规则解释者进行选取。如果有几种规则是可用的,冲突求解策略将决定哪一条规则是适用的。例如,可能的规则可以用优先性和一般性的程度整理出次序。然后,选取具有最高程度的优先性或专业性的规则就可能是合适的。在推理中的规则组合可以由所谓前向和后向链接来实现。前向链接从一定的数据和事实A出发,运用此演绎机制直至推导出一定的目标D(图5.9)。从方法论的观点看,专家系统的前向和后向链接程序,只不过是众所周知的古典逻辑学家和哲学家帕波斯的发现确证的必要性或充足理由的方法。不足为奇的是,几乎所有专家系统的推理策略都是以众所周知的哲学方法论为基础的。今天,AI中运用的大多数哲学理论都不是直接从哲学文献中获取来的,但是这无损于它们的哲学意义。然而,有一些著名专家系统的作者却是直接受到了哲学家的影响。要弄明白AI是哲学逻辑和方法论,人们只要仔细考虑一些专家系统。它们的问题分类决定了何种策略适合于问题求解。一般地说,一种策略的目的也就是减少问题的复杂性。DENDRAL程序所涉及的任务,是从数据中决定出分子的结构,数据中包含着化合物的分子式和化合物的质谱。输出整理成有序的表格,列出各种可能的结构式。其问题求解的策略被称作“产生和检验”,其算法是产生出与给定的分子式一致的有机分子的拓扑结构,以及产生出分子中的化学键最可能从何处断裂的规则。简言之,我们可以说,该程序是采用尽早修剪掉坏的分枝的方法来减少求解生成树的复杂性。方法论上,它涉及某种确证标准。一般地,如下的要点具有重要性,而不论其化学应用如何:a)有某个形式对象的集合,其中包含了解答。b)有某种产生机制,例如某种对于该集合的完整计数过程。c)有某种检验,例如判断所鉴定出的某种产生出来的元素是否在解答集中。这种一般方法由如下的算法来定义,例如由如下的遵从丘奇定理的递归函数来定义:函数GENERATE-AND-TEST(SET):如果要检验的集合SET为空,那么失败,否则让ELEM是SET的“如下”元素;如果ELEM是目标元素,那么将其作为解答,否则对于集合SET在没有元素ELEM情况下重复这一函数。对于翻译成AI编程语言LISP,必须引入一些递归辅助函数,例如GENERATE(产生一定集合的某个元素),GOALP(是判断函数,如果论据是解答集的一部分则提供T(真),否则NIL),SOLUTION(为“输出”准备的解答元素),和REMOVE(提供集合减去给定元素)。当设计一张符号表时,考虑到LISP中通常的缩写,例如 DE(定义)、COND(条件)。EQ(方程)、T(真)以及LISP的约定(例如括号规则),如下的算法在LISP中是可接受的:(DE GENERATE-AND-TEST(SET)(COND((EQ SET NIL)’FAIL)(T(LET(ELEM(GENERATE SET))(COND((GOALP ELEM)(SOLUTION ELEM))(T(GENERATE-AND-TESTREMOVE ELEM SET)))))))对于给定的化学分子式,所有的化学结构都系统地产生出来,例如对于C5H12,第一步是:一些化学结构被排除了,因为它们是不稳定的或相矛盾的。下一步,计算出相应的质谱并与经验上确定的质谱进行比较。这个比较也就是检验过程。GENERAIE-AND-TEST从而在技术上实现了一种方法论,排除了不可能的假定并检验可能的变体。META-DENDRAL程序是设计来改进DENDRAL程序的,涉及何种分子键将在质谱仪中被打破。所以META-DEN-DRAL运用了DENDRAL程序再加上确证的预测标准,这被亨佩尔批判地分析过。帮助医生进行诊断感染的MYCIN程序,是一种后向链接的演绎系统。MYCIN的知识库中,大约有300种血液细菌感染生成方式。下面是一个典型例子:如果感染的类型是基本的细菌血症,怀疑的入侵点是胃肠道,培养部位是一处无菌部位,那么这就表明此种有机体是拟肠杆菌。运用这样的知识,MYCIN进行后向运行。对于所有100种诊断假设,MYCIN试图逼近从实验室结果和临床观察获得的基本事实。由于MYCIN工作在推论往往不确定的领域中,它的设计者把看来合情概率推理的理论与基本的产生装置结合起来。该理论用来为与/或(AND/OR)树中每一个结论建立起所谓的确定性因子(图5.10)。这里,Fi是使用者指定给一事实的确定性因子,Ci表明一结论的确定性因子,Ai是产生规则所预期的可信度。确定性因子在AND节点和OR节点处指向前面的式子进行计算。如果一个确定性因子为0.2或更小,相应事实的真假被看作是未知的,就规定其值为0。该程序计算出归纳合理性的大小取决于保证事实的多少。这种方式使我们想起鲁道夫·卡纳普的归纳理论。卡纳普自然是不相信培根的普遍归纳结论的。结论总是演绎性的。对此不需要波普尔式忠告,否则专家系统不会运行。然而,像MYCIN系统中所用的概率测量则使得该系统对于使用者更透明。另一方面,也可以这样说,在此采用了“假说和检验”策略的波普尔纲领,即产生出最有趣的假说并进行严峻检验。有这样的程序,有助于用统计数据构造起线性的因果解释。另一些程序运用昔日哲学家的知识,归纳推理是单调的,即意味着从一组前提归纳地导出的结论,可能并不是前提的协调拓展。例如,鸟会飞,吱吱叫是鸟,于是推论出吱吱叫会飞,但是它不会飞,如果我知道吱吱叫是鸵鸟。另一种策略是将复杂问题分解成简单部分或复杂性较小的子问题,例如乔治·波利亚的启发性数学手册《如何求解》中就使用了这种策略。因此,应用领域必须允许分解为独立的部分。但是,显然,相关性复杂网络并不总能分解而不改变系统的原先状态。例如,人类环境的生态网络或精神病医生必须要分析的复杂的心灵相关性。系统并非总是其部分之加和。科学哲学中的一些划界可以翻译为以知识为基础的系统的性质。如果研究使得理论概念得到广泛运用而成为一个理论的固有特性,那么发现过程就可以描述为依赖理论的(理论推动的)。相反的观点,通常叫做培根观点,把大批数据作为其起始点。那么,发现过程就称作数据推动的。在理论的和数据的知识处理之间的划界,在AI中是众所周知的。现在我将从以知识为基础的系统中勾画出一些程序,这些系统使得各种各样学科的任务得以完成,其优点前面也已经提到了。我的第一个例子涉及到数学。AM是一个以知识为基础的系统,可以说,它从数论中递归地产生出和重新发现了概念。与经验科学中的程序形成鲜明对照的是,AM成功的标准并非是一个概念与经验数据的吻合,“有趣”的方面却是它产生出例子、新问题等等的能力。这种程序是1977年用LISP语言写出的,始于诸如集合、表格、相等和操作这样的基本概念,可以提出引导发现过程的建议。启发过程是在原来的基础上提出新任务并创立新概念。新的任务按照其有趣的程度整理成一定次序。由若干不同启发过程提出的种种任务,比由单个规则提出的任务更为有趣。运用这种措施来引导它对数学概念空间进行搜索,AM为整数、乘法和质数定义了概念,并发现了关于质数的命题(例如因子唯一分解性定理)。不过,更深入的分析表明,对发现的历史过程进行模拟的要求是难以满足的。AM的成功完全决定于编程语言LISP的特征。然而,分析显示了与人们研究过程的有趣类似。如同其名称LISP表明的,符号表是系统地作出的。两个表可以递归地定义为相等的,当两者是原子的且原子是相等的,否则当表头是相等的且表的其余部分是相等的。在LISP中,递归的布尔函数标记如下:(DE LIST-EQUAL(XY)(COND((OR(ATOM X)(ATOM Y))(EQ X Y))(T(AND(LIST-EQUAL(CAR X)(CAR Y))(LIST-EQUAL(CDR X)(CDR Y))))))这里,CAR和CDR分别是LISP中,对于给定的符号表进行表头和表的其余部分分类的基本操作。AM的一个启发的概括规则推广了等价这一术语。然后,两个表被称作“广义相等的”,如果两者是原子的且原子是相等的,否则表的其余部分是“广义相等的”。在LISP中:(DEL-E-1(XY)(COND((OR(ATOM X)(ATOM Y))(EQ X Y)(T(L-E-1(CDR X)(CDR Y)))))由此推广,所有具有相同长度的表都被看作是等价的。它们定义了叫做“数”的一类。儿童面对具体对象时实现的这种发现过程,由AM通过变换规则进行了模拟。加法是两个表的连接。由启发变换规则来形成已产生概念的逆时,发现了质数概念。在AM基础上改进的EURISKO(1983),不仅仅可以发现新的概念,还可以发现新的启发过程。一系列叫做BACON的程序对定量经验定律的发现进行了分析。BACON系统的名字取自弗朗西斯·培根,因为其中运用了培根关于科学推理性质的思想。它们是数据驱动的知识处理系统,其中包括数据收集,找出在两个或更多个变量之间的规则并对其进行检验。BACON的基本方法并不需要涉及数据的语法意义,它们对于数据进行操作,不对数据的结构作任何特殊的假定。有时,需要人们对于独立项进行实验控制,传统的“一次改变一项”的方法可以用来从相关变量中分开每一独立项的效应。BACON程序可以再产生出物理定律,包括波义耳定律、开普勒第三定律、伽利略定律和欧姆定律。有关考察表明,这种以知识为基础的系统至少要遵从这样的前提条件:对于不同学科间规律的关联,应该满足同样的方法论和启发框架条件。相应的以知识为基础的系统,不仅仅是再产生一定的定律,这些定律是在不同的历史背景中发现的,而且也对称地产生出完整的方法论概念的范围和挑选出有趣的应用。最新的BACON程序不仅仅是数据推动的,因而是严格的意义上的“培根式的”,而且还是理论推动的。在其对称性和守恒定律的理论前提下,它产生出了例如动量守恒定律。另一系列程序能够从经验数据中归纳出定性定律(GLAUBER,STAHL,DALTON)。这些程序还可以从一些现象中归纳出结构性和解释性模型。定性定律通常是化学中的定律。科学家与机器之间的竞争并非是有意的。不过,对于科学定律和理论做出系统的结构性分类已经实现。它可以使人们对科学定律及其发现条件的复杂性进行新的洞察。对于科学发现的多种多样活动的若干方面,诸如发现定量定律,产生出定性定律,推导出物质的成分和提出结构模型。一种整合的发现系统已经显示出曙光,它把个别系统作为组件结合起来。每一组件都接受其他一个或多个组件的输入。例如,STAHL集中在确定化学物质的成分上,而DAL-TON则关心反应中涉及到的微粒数目。因此,STAHL可以看作是,为DALTON所论的问题奠定了详细的结构模型基础。以这种方式,有可能发展起越来越复杂的以知识为基础的系统,将研究分解为知识处理和问题求解。甚至在这样的扩大了的研究框架中,我们仍然没有涉及到实验计划或新测量手段的发明所依赖的机制。任何固有的概念与实施测量的实验安排结合起来,都可以用作一种科学的工具。在此情形下,工具的发现恰好也就与概念自身的发现是重合的。还有一些以知识为基础的系统,它们考虑了实验的设计以及它们与其他科学研究活动的相互作用。在图5.11中示意了一个叫做KEKADA的系统(由西蒙研究小组发明),其中有假说产生者、实验选取者和预期设定者等等。它已经发展到为生物化学中的实验设计建立模型(克雷布斯1935年发现尿素循环)。如同知识工程师,西蒙和他的小组分析了克雷布斯的实验室记录,定义了他的研究方法论规则,并将其翻译成LISP类型的编程语言。如果该系统没有确定哪一任务继续进行,问题选取者就将决定该系统将继续进行某一任务。当遇到了新的问题时,假说产生者就造出假说。假说或策略建议者将选取一种策略继续进行下去。然后,实验建议者将提出将要进行的实验。两种类型的启发过程可能都需要决策者。实验者的结果由假说修订者和确证修订者来加以解释。合适时,问题产生者可能把新问题加入进来。如果实验的结果与对于实验的预期相抵触,那么对于这种迷惑人的现象的研究就成为一个任务,并列入议程。甚至该系统的组件也是一种操作者,它是由产生规则表来定义的。除了专业领域启发过程以外,系统还包含一般的规则,它们是一般研究方法论的部分。引人瞩目的是,特定的规则定义了这样的情形,即实验结果是某种“迷惑人的现象”。科学发现因此就成为了由问题求解启发过程引导的一个渐进过程,而不是由个别的“洞察闪光”或突然飞跃所导致的。这些以知识为基础的系统的例子,在例如程序DENDRAL是化学家的实验室助手的意义上,可以解释为哲学家对科学进行研究的助手。借助它们,可以对某些启发性规则产生的整个可能规律的空间进行调查。但是,它们是精确的助手,而不是主人。它们的“洞察的闪光”,这种由系统识别到的“惊奇之举”,是取决于程序框架的,是由主人设定的。激发了早期AI研究者的图林问题怎么样呢?“机器能否思维”?机器有“智能”吗?在我看来,这种问题对于计算机技术是一种形而上学的问题,因为“思维”和“智能”都不是清晰定义的计算机科学或AI的概念。这就是我们今天所能说的一切。如果一个程序产生出一种结构,该结构可以解释为一种新概念,那么所用变换规则就隐含地包含了这种概念和相应的数据结构。引导这些规则应用的算法,使得这种隐含给出的概念和数据结构变得明白起来。在关于AI的哲学讨论中,多数含混都是由AI的术语引起的,它是在技术意义上引入的,但是却结合进了一些往往是陈旧的和精致的哲学和心理学意义。在其他学科中,我们不得不与传统的术语和概念生活在一起,同样,如果将它们从其技术内容中抽象出来,那么它们就可能是高度含混的。“人工智能”(AI)中的“智能”概念就是一个例子。一个常常迷惑哲学家的术语是AI中“知识”的用法。让我再一次强调,在“以知识为基础的系统”术语中的“知识”具有技术上的意义,并不声称要解释整个哲学的、心理学的或社会学的知识概念。在AI技术中,作为实际的计算机科学的部分,完全没有涉及到哲学还原论。在所谓的“以知识为基础的系统”中的“知识处理”意味着一种新的复杂信息处理,这要与过去的仅仅是数字的数据处理区别开来。它涉及到翻译和解释的复杂变换规则,其特点是处于编程语言(今天是LISP或PROLOG)层次结构的较高水平上。这种水平接近于自然语言,但是当然不是等同于自然语言,而只是抓住了人类知识的广泛意义的一些方面(图5.12)。然而,知识处理仍然是程序控制的,并处在莱布尼茨的思维机械化的传统中。如果人的精神被认为一种图林类型的计算机,那么支配着人的身体和大脑的自然规律之间就没有什么关联。计算机软件中的算法程序并不取决于物理机械的硬件,而取决于数学上理想化的图林机概念。但是如果把人的精神理解为自然进化的产物,那么关于人的精神的形成的物理、化学和生物学的规律的关联性就必须加以考察。在现代物理学中,基本的物质理论是量子力学。在经典物理学中,物理系统的相互作用被设想成与人类观察者完全无关的过程,而现在看来人的意识也在测量过程中起着关键性的作用。首先,我将要尽量地批判这些解释,但是采取怀疑式的探究方式。然而,业已表明,量子力学是高效的广义量子计算机和量子复杂性理论的物理学框架,它们与经典的图林机和经典的复杂性理论是不相同的。显然,图林机可以在经典物理学框架中得到解释(图5.13)。这种计算机是一个物理系统,其动力演化使之从一组输入状态之一进入到一组输出状态之一。状态以某种系列方式加以标记。让机器处于一定输入水平的某个状态,随之进行某种确定性运动,然后再测量其输出状态。对于一个经典确定性系统,所测得的输出标记是输入标记的一个函数f。原则上,该标记值可以由外部观察者进行测量,这就是说该机器计算出了函数f。但是,经典的随机计算机和量子计算机并不计算上述意义上的函数。一台随机计算机的输出状态是随机的,依赖于输入状态的可能输出只是某种几率分布函数。量子计算机的输出状态,尽管完全是由输入状态确定的,但并非可观测的,因此观测者一般很难发现其标记。原因何在?我们必须记住量子力学的一些基本概念,这在2.3节中已经谈论过。经典的确定论机器:输入→输出经典可观测量确定论演化经典可观测量经典随机计算机:输入→输出经典可观测量随机演化经典可观测量量子计算机输入→输出量子可观测量确定论演化量子可观测量图5.13经典的和非经典的计算机在量子力学中,如动量或位置这样的矢量,必须用算符来代替,此种算符满足某种依赖于普朗克量子的非对易关系(图2.18)。由哈密顿函数描述的经典系统被量子系统代替,例如,电子或光子用哈密顿算符来描述。量子系统的状态由希尔伯特空间的矢量来描述,由其哈密顿算符的本征矢量来确定空间距离。算符状态的因果动力学是由叫做薛定谔方程的偏微分方程确定的。经典的可观测量是可对易的,而且总是取确定值,而非经典的量子系统的可观测量则不可对易,一般没有共同的本征矢量,结果也就没有确定的本征矢量。对于量子状态的可观测量,可以计算的只是统计的预期值。与经典力学的一个主要区别在于叠加原理。它揭示了量子力学的线性特征。在一个关联的纯量子叠加态,可观测量只有不定的本征值。简言之,量子力学的叠加或线性原理提供了复合系统相关(“关联”)状态,这得到了EPR实验的高度确证(Alain Aspect,1981)。从哲学上看,(量子)整体要大于其部分的加和。叠加原理对于量子系统的测量有重要的后果。在量子形式化中,一个量子系统和一套测量装置由两个希尔伯特空间来表示,它们以张量积组合起来H=H1H2。以H1和H2分别出于两个独立的状态和,在时刻O,测量系统的始态(O),相应有(O)=。两个系统的因果发展是由薛定谔方程确定的,即(t)=U(t)(O),U(t)是归一化算符。由于U(t)的线性,态(t)是与不定本征值关联的,而测量仪器在时刻t显示出一定的测量值,它们显示出不同的测量值。因此,线性的量子动力学不可能解释测量过程。以更通俗的方式来说明测量过程,可以用薛定谔的一个关于猫的思想实验,其中涉及“死”和“生”两个状态的线性叠加(图5.14a)。设想一只猫,被关在一个封闭箱子中。箱子中装有镭,镭一小时发生一次衰变,其几率为1/2。如果发生了衰变,电路闭合,引起相应机制的动作,使得小锤打破装有氰氢酸的小瓶,从而杀死这只猫。该箱子继续保持封闭一小时。按照量子力学,猫的两种可能状态——死和生——都是不确定的,直到观测者打开箱子才能得到结论。对于箱子中的猫的状态,如薛定谔解释的,量子力学预见了一种相关(“关联”)的叠加态,即猫的死和活各占一半。按照测量过程,“死”和“活”状态被解释为测量指示器,代表着镭“发生了衰变”或“未发生衰变”状态。在玻尔、海森伯和其他人的哥本哈根解释中,测量过程被解释为所谓的“波包坍缩”,即把叠加态分裂成测量仪器的两个状态,并测得了量子系统有两个确定的本征值。显然,我们必须把量子系统的线性动力学与测量的非线性动作区别开来。原因在于,世界的非线性常常被解释为人的意识突现。欧基尼·威格纳(1961)主张,薛定谔方程的线性,对于有意识的观测者可能不适用,应该以某种非线性程序来代替,据此其中的任何一种选择都可以得到解决(图5.14b)。但是,威格纳的解释使我们不得不去相信,复杂的量子线性叠加仅仅在宇宙中出现了人这样的意识的角落,才将被分解为独立的部分。在弹子球、行星和星系的宏观世界中,EPR关联性是测量不到的,它只在基本粒子如光子的微观世界中才显示出来。显得十分奇怪的是,在宏观世界的独立系统状态——它们可以用具有确定测量值的经典力学来描述的,却是由人这样的意识引起的。埃弗里特的量子力学的“多世界”解释,将人的意识分裂成不同分支,使不同的、互不相容的世界受到抑制(图5.14c),从而仿佛避免了非线性还原的问题。在测量过程中,测量仪器和量子系统的动力学的描述使用的方程(t)= ci(t)ii,式中状态(i)涉及测量仪器的测量值。埃弗里特认为,态矢量(t)不分裂成部分状态,但是出现了所有的分支ii状态(t)描述了多重的同时存在的真实世界,ii相应于第i个平行的世界。因此,所测量的分系统决非一个纯态。在埃弗里特的意义上,n可以解释为相对态,它依赖于观察者或测量仪器的状态: n=Cn-1(n,)H2。如果n被看作记忆状态,那么具有一定记忆的观察者只可能意识到他自己的世界分支n×n。但是,他能够观测其他的分世界。埃弗里特解释的优点在于,叠加的非线性还原并不需要解释。而缺陷在于他的多世界的本体论信念,这样的世界原则上是不可观察的。因此,埃弗里特的解释(如果数学上协调)需要奥卡姆剃刀。在科学史上,拟人的或目的论的论据往往表明,科学在此存在着解释的分歧或失败。因此,一些科学家如罗杰尔·彭罗斯提出,量子力学的线性动力学对于解释出现意识的宇宙演化是不能令人信服的(爱因斯坦说它是“不完善的”)。他争辩道,线性量子力学和非线性广义相对论的统一理论,至少在原则上可以解释世界上的独立宏观系统状态,而不必牵涉到拟人的或目的论原理。在彭罗斯主张的统一理论中,物理系统的线性叠加,当系统对于相对论引力效应充分大时,就会分裂成独立状态。彭罗斯计算了在一个引力子水平上,对于这种效应的最小的曲率单位的情况。该思想是,这种水平应该令人满意地落在线性量子力学定律的原子、分子等等的量子水平与日常经验的经典水平之间。彭罗斯论据的优点在于,量子世界的线性与宏观世界的非线性将可能用统一的物理理论来解释,而不必牵涉任何人F的干预。当然,我们仍然缺乏可检验的统一理论(参照2.4节)。然而,由此引出的问题是,量子力学是否提供了人的大脑进化的框架,或至少为新的计算机技术去取代经典的计算机系统提供了框架。量子力学的基本思想是量子状态的叠加,这种叠加是由某种测量实现的线性量子动力学和叠加归并的结果。因此,一个量子计算机世界需要一种逻辑门的量子版本,在此输出将是某种统一算符应用于测量的输入和最终作用的结果。量子系统(例如光子)的叠加提醒我们计算的平行性。如果我们感兴趣的是对于许多计算结果的某种适当组合,而不是其部分的细节,量子计算机将变得非常有用。在此意义上,量子计算机可以在相对短的时间内实现可能的数量巨大的平行计算的叠加,从而克服经典计算系统的效率问题。但是,量子计算机仍将按照某种算法方式运行,因为它们的线性动力学是确定论的。测量的非线性将带来非确定论方面。因此,我们不可能期待,量子计算机将以超出图林机能力而以非算法算符方式运行。所以,量子计算机(如果它们构造出来了)对于复杂性理论和克服实际的计算约束可能更有趣。关于人的大脑,我们想要争辩的是,量子水平上的基本粒子、原子和分子对于其进化是必要的,而不是需要其他的东西——物理学相关态的归并所必要的大脑精神状态。实际上,相当多的神经元对于单个量子及其叠加和牵连状态的归并并不敏感。但是,这些量子状态当然不可能被大脑的精神状态所察觉。我们既不能意识到叠加,也不能意识到它们由非线性的随机事件引起的分裂成单个状态。然而,在大脑的精神状态的形成和相互作用中涉及到量子效应,它们还远未被满意地理解。5.3神经计算机和协同计算机在逻辑、经典力学和量子力学之后,我们还要考察复杂动力学系统对于计算机科学和人工智能发展的关系。显然,图林类型机的算法机制面临着严重的障碍是不可能随经典或量子计算机能力的增长而克服的。例如,模式识别和其他的关于人的感知的复杂任务,不可能由程序控制的计算机来把握。人脑的结构看来是完全不同的。在科学史上,大脑是用最先进的机器技术模型来说明的。因此,在机械化时代,大脑的功能被看作是沿着神经对于肌肉进行作的液压。随着电子技术的出现,大脑被拿来与电报或电话交换机进行比较。由于计算机的发展,大脑也就被当作最先进的计算机。在上一章中,我们见到,甚至量子计算机(如果它们被构造出来)也不可能使它们的能力增加到超出图林类型算法的复杂性。与程序控制的系列计算机不同,人的大脑和精神的特征包括矛盾性、不完全性、顽健性和抗噪声、混沌态、对于初始条件的敏感性最后但并非最不重要的是还有学习过程。这些特征在复杂系统探究方式中是众所周知的。关于图林类型和复杂系统的构造,一个根本的局限性来自经典系统的顺序的、集中的控制,而复杂动力系统是内在平行的和自组织的。

回详情
上一章
下一章
目录
目录( 3
夜间
日间
设置
设置
阅读背景
正文字体
雅黑
宋体
楷书
字体大小
16
已收藏
收藏
顶部
该章节是收费章节,需购买后方可阅读
我的账户:0金币
购买本章
免费
0金币
立即开通VIP免费看>
立即购买>
用礼物支持大大
  • 爱心猫粮
    1金币
  • 南瓜喵
    10金币
  • 喵喵玩具
    50金币
  • 喵喵毛线
    88金币
  • 喵喵项圈
    100金币
  • 喵喵手纸
    200金币
  • 喵喵跑车
    520金币
  • 喵喵别墅
    1314金币
投月票
  • 月票x1
  • 月票x2
  • 月票x3
  • 月票x5