李 珍
(中山大学 教育学院,广东 广州 510275)
从哲学视角看人工智能的发展
——对“中文屋论证”的批判性考察
李 珍
(中山大学 教育学院,广东 广州 510275)
1980年,美国著名哲学家塞尔提出的“中文屋论证”,对人工智能领域发起深刻挑战,其引起的争论甚至延续至今。通过对这一论证的逻辑结构及哲学蕴涵的深入考察,发现“中文屋”思想实验实际上缺乏实证性的依据,并且只对符号主义模式人工智能构成威胁,对于联结主义模式人工智能论证无效,甚至塞尔的很多观点实际上支持了联结主义。因此,这实际上为人工智能的发展提供了一条可能的进路。
人工智能,中文屋论证,符号主义,联结主义
从世界上第一台计算机诞生至今已过去50多年了,在这期间,计算机以惊人的速度发展着,而以计算机为核心的人工智能领域也取得了巨大的进展。在很多领域,计算机所做的工作已经能够替代甚至超越人类,例如,继1997年IBM电脑“深蓝”(Deep Blue)打败国际象棋冠军后,2011年IBM另一台名为“沃森”(Watson)的电脑在智力竞猜中再次击败人类。种种研究结果似乎都在支持人工智能(Artificial Intelligence,以下简称AI)观点,在这样的背景下,重新考察曾经对AI提出深刻挑战的思想实验“中文屋论证”显得尤为必要。
“中文屋论证”(Chinese Room Argument)是1980年美国哲学家塞尔(J.searle)针对著名的“图灵测试”而提出的。1950年图灵在一篇题为《机器能够思维吗?》的论文中设计了一种非常巧妙的检验智能的方法,即一个人在不接触对方的情况下,通过某种特殊的方式,与对方进行一系列的问答,如果最终他无法根据这些问题判断出对方是人还是计算机,那么,就可以认为这台计算机具有与人相当的智能。事实上,在这个测试中,只涉及对智能的认识论定义,图灵本人并未探讨任何有关智能的本体论问题。然而,“图灵测试”在哲学领域中对心智问题的探讨产生了深刻影响,尤其是行为主义和功能主义。行为主义认为心智只不过是行为的倾向性,因此心智研究的关键在于行为主体与环境之间的关系探索。功能主义则认为心智与大脑就如同程序与硬件之间的关系,因此对于心智的研究,程序才是至关重要的,而与使程序得以实现的载体无关,神经生物学的研究并非必要的。
针对这种情况,塞尔则提出了“中文屋论证”来质疑图灵测试的有效性。“中文屋论证”是这样设计的:塞尔设想他被锁在一间屋子里,他只懂英文,对中文则一窍不通。屋子里有各种各样的纸片,上面有一些字符。通过窗口,人们可以再递给他有字符的纸片,他也可以通过窗口把另外一些纸片递出。他从屋内的一本英文规则书中得知,怎样为这些字符配对,而这些字符总是以它们的形状或形式来确认的。例如,一条规则指示他:给他递进“甲”时,他应当送出“乙”,规则书中还规定了许多更为复杂的字符配对序列。对于屋外的中国人来说,他发现屋内人对于用中文提出的问题总能给出恰当的回答,看起来似乎懂得中文。也就是说,塞尔通过了“图灵测试”,但实际上,对于屋内的塞尔来说,他仍然不懂得中文,他所做的只不过是按照规则书进行图形匹配而已。塞尔由此指出:“程序本身不能够构成心灵,程序的形式句法本身不能确保心智内容的出现。”[1]167此论证的逻辑结构可概括如下[2]30:
前提1. 计算机程序是形式的,或者说是句法的;
前提2.心具有心理内容,具体说是有语义的;
前提3.句法自身既不构成也不足以产生语义。
结论1. 任何计算机程序自身都不足以使一个系统具有一个心灵。
1990年,塞尔在这一论证的基础上近一步延伸,增加了第四个前提,更明确了他对AI的看法。
前提4. 脑产生心。
结论2. 任何其他事物,如果产生心,就必须具有和脑产生心相同的因果力。
结论3. 对于任何我们可能制作的、具有相当于人的心理状态的人造物来说,单凭一个计算机程序的运算是不够的。这种人造物必须具有相当于人脑的能力。
结论4. 脑产生心的方式不能是一种单纯操作计算机程序的方式。
塞尔的结论已明确指出强AI不能成立,计算机程序是纯句法的,不可能产生与人脑相同的因果力,故而不可能会产生心智。上述论证当中至少反映出了塞尔的两个基本立场:首先,心智的关键在于语义而非句法。其次,任何其他事物,倘若要获得心智,就必须具备与人脑相同的因果力。其中蕴涵了塞尔的丰富的哲学思想,无论是“语义”还是“大脑的因果力”都与其意向性理论密切相关。
目前语义性(semanticity)是一个运用非常广泛的词汇,不论在哲学、语言学、计算机科学、脑科学、人工智能、心理学、认知科学或其他一些领域,“语义性”及一些相关的词汇随处可见,如“意向性”(intentionality)、 “意义”(meaning)、“心理内容”(mental content)、“表征”(representation)、“内涵性”(intensionality)、“关于性”(aboutness)等。在塞尔看来,语义性尤其与意向性密切相关。意向性是一个颇具争议的词汇,虽然布伦塔诺把意向性规定为心理现象区别于物理现象的独特特征,但是这一规定并没有被目前所有哲学家所接受,很多人认为意向性并不是心灵所特有的一种属性,如丹尼特的“意向立场”(intentional stance)理论就认为日常生活当中的很多东西都能具有意向性,如闹钟、恒温器等,所以计算机完全有可能具有思维和意识[3]。塞尔认为这实际上是对“意向性”概念的混淆,他把通常称为“意向性”的各种概念区分为三种类型:内在的意向性(intrinsic intentionality)、派生的意向性(derived intentionality)和“好像”的意向性(“as if”intentionality)[4]。内在的意向性是一种心理状态,如信念、愿望等,通常被人和动物所拥有,“内在意向性是人类和某些动物作为生物本性所具有的现象,与如何使用、如何考虑、如何描述无关。它只是动物的纯粹事实”[2]69。派生的意向性是指由内在的意向性所引申出来的意向性,塞尔认为一切语言的意义都是派生的意向性,包括文字、图画、图表和图形等。内在的意向性与派生的意向性之间的区分在于是否依赖于观察者,前者是不依赖于观察者的,而后者依赖于观察者。第三种类型的意向性概念并不是真正的意向性,只不过是一种隐喻,只是说这种行为的表现好像具有意向性,例如恒温器就不存在真实的意向性,因为它不具有感觉,它只是因为能够对温度的变化作出反应,于是才出现了这样的比喻。在“中文屋”思想实验中,屋内的塞尔所拥有的充其量是通过英文规则书而获得的一种派生意向性,这与人所具有的意向性在本质上不同。“人的一言一行在多数情况下都是由自我意识引导完成的,积极主动,而机器所做的每一件事情都需要人事先制定好”[5]10。在塞尔看来,只有内在的意向性才是心智的关键所在。
既然如此,强AI*人工智能通常可划分为两种:强人工智能和弱人工智能。强人工智能观点认为只要运行适当的程序,计算机本身便能够具有与人类意义相同的心智;弱人工智能观点认为计算机只是看起来具有智能,但并不真正拥有智能和自主意识。所以,强人工智能实际上才是真正意义上的人工智能,弱人工智能否定了产生这种智能的可能性。本文当中如无特别声明,“人工智能”所指的均是强人工智能。的支持者可能会提出一个问题:计算机能否具有内在的意向性?塞尔对此的回答是否定的:“执行一个程序不可能构成意向性,因为对于一个主体来说(例如屋内的塞尔),完全有可能执行了一个程序而仍然不具有任何正确种类的意向性。”[6]455虽然屋内的塞尔能够很好地操作符号,但是他根本不了解这些符号的任何意义。这种观点非常符合人们的常识,计算机的工作原理的确如此,程序中的符号可以代表“大象”、“红色的”等具体事物或属性,然而计算机本身却并不懂得大象是什么,红色是什么。所以,塞尔认为建立在符号基础上的计算机程序根本不可能具有内在的意向性。
那么究竟什么是内在的意向性,或者说如何才能获得内在的意向性呢?这涉及意向性的本体论问题,在心灵哲学中这个问题争论已久,内在主义与外部主义便是具有代表性的两派。外部主义观点认为意向性是由外部环境决定的,如果一个符号或者心理状态具有意向性,那么它就必须与外部世界有因果互动。这是大多数行为主义者和功能主义者的立场,按照这种观点,只要我们能够通过某种恰当的方式建立起计算机与外部世界之间的关联,就像人类的心理状态与外部世界之间的关系一样,那么意向性便能得以实现。然而塞尔并不同意这一观点,前提4“脑产生心”已经表明他持有内在主义立场,即认为意向性是由大脑的内部状态决定的。“如果我是缸中之脑的话,那么我所拥有的心理状态和现在一样……大脑对意向性来说是因果充分的,产生意向状态的是大脑,而不是外部世界”[6]452。因此,塞尔自始至终坚持生物自然主义的立场,他认为意识、意向性是由大脑所产生的一种生物学现象,“就我们所知道的脑而言,心理状态是脑的特征,它是由微观层次上元素的行为导致的,并且是在微观元素即神经元的系统结构中体现出来的”[2]114。在塞尔看来,人类心智的产生是以大脑为载体,任何其他事物倘若想要获得心智,必须具备与大脑相同的因果力,而脑产生心的过程是通过神经元的活动而实现的,所以神经生物学的研究尤为必要。
“中文屋”思想实验提出以后,人工智能的支持者立即作出了各种回应,如系统回应、机器人回应、大脑模拟回应、联合回应等。针对这些回应,塞尔在保持“中文屋论证”逻辑结构不变的前提下,通过修改思想实验的具体情境逐一作出了答复,如内化系统、机器人脑中的“中文屋”、管道工、中文体育馆等。尽管如此,“中文屋”思想实验的争论并没有因此而平息[7]。
1990年代之后,丘奇兰德夫妇对“中文屋论证”的反驳较具影响力。他们设计了“发光屋”思想实验[8]35,对中文屋论证提出了质疑。“发光屋”思想实验的背景发生在19世纪60年代,1864年麦克斯韦提出光和电磁波在本质上是相同的,但是这一假说在当时并没有在科学界被广泛接受,假设在当时有人为了反驳麦克斯韦的假说提出了一个思想实验:在一个黑屋子里有一个人手持磁铁棒,如果他上下摆动磁铁棒,根据麦克斯韦的人造光学理论,这一过程会传播电磁波圈,因此会产生发光现象。然而根据人们的常识,摆动磁铁棒不可能会产生发光现象。那么,是否能够说明麦克斯韦的假说是错误的呢?仿效塞尔“中文屋”思想实验的逻辑论证结构,这个思想实验的论证结构可概括如下:
前提1. 电和磁都是力。
前提2. 光的本质属性是亮度。
前提3. 力自身既不构成也不足以产生亮度。
结论1. 电和磁既不构成也不足以产生光。
如果时间停留在19世纪60年代,这一结论在大多数人看来都是合理的,然而如今我们早已得知这一结论何等荒谬。根据人造光学理论,电磁棒摇摆频率如果低于1015Hz,不足以产生发光现象,而利用人力根本达不到这样的频率。因而这一思想实验虽然看似符合人们的常识,上述论证中的前提3在直觉上似乎是合理的,但实际上回避了问题实质,它并没有揭示出光的本性。解决光的本性问题以及人工光学问题的关键并不在于质疑电磁波能够产生光,而在于近一步研究究竟在什么样的条件下,电磁波才能产生光。这里涉及科学问题所蕴涵的求解应答域,即在一个问题的论述中实际上已确定了它的解必定在这一领域内,在实际的科学探索过程中,所预设的应答域十分重要,它虽然是可错的,但对实际的研究工作能起到定向和指导作用。
同样的道理,强AI的支持者据此能够对“中文屋论证”提出反驳:“中文屋”思想实验以及前提3 “句法自身既不构成也不足以产生语义”都仅仅是一种常识性的论断,缺乏实证性的依据,所以完全有理由去为心智的本质以及人工智能问题预设一个应答域,不是去质疑计算机程序能否产生心智,而在于近一步研究在怎样的条件下,计算机程序才能够产生心智,或者说什么样的计算机程序才能够产生心智,这一预设才能对心智本性的揭示起到定向和指导作用。
所有强AI的支持者虽然都主张只要配备恰当的程序,计算机就能产生心智,然而对于究竟应当配备何种类型的程序,却并没有达成共识。近年来,AI研究者已经分化成了两大阵营:符号主义模式AI与联结主义模式AI。符号主义模式AI是AI的传统模式,始于20世纪50年代初,纽厄尔(A. Newell)和西蒙(H.A. Simon)是这一阵营的奠基人物,他们提出了“物理符号系统假说”——一个物理符号系统对于一般的智能行为来说,既是必要的也是充分的。也就是说,任何一种智能都是物理符号系统。这些符号一方面有指称的作用,代表着外部世界的对象和事态,另一方面受到内部系统的控制,内部系统通过定位、排列和组合这些符号,将外部世界的对象和事态内化为内部的符号事件,并加以控制从而表现出智能来。因此,在符号主义模式AI看来,程序就是执行基于这些符号的计算。
上文中已分析塞尔通过“中文屋论证”所得出的结论,他认为人类心智的产生是以大脑为载体,因此任何其他事物倘若要获得心智,必须具备与大脑相同的因果力,而脑产生心的过程是通过神经元活动实现的,所以人工智能必须以神经生物学的研究为基础。这恰恰是传统符号主义模式AI的困境所在,在这种情况下,20世纪80年代产生了联结主义模式AI,它的产生一方面是为了克服符号主义的困境,另一方面是由脑科学的发展促成的。脑科学的研究成果表明:大脑是一个由神经元和突触组成的巨型复杂系统;大脑中的计算是建立在大规模并行计算基础上的;大脑具有很强的容错能力,而且善于概括、类比、推广。联结主义受到这些研究成果的影响,因此采用结构和功能模拟等方法,通过对大脑的同构型和同形型模型的研究来揭示认知过程的本质。在具体研究过程当中,它尤其注重和强调神经网络的整体活动以及联结权重的作用,对语言、感觉、记忆、学习、思维、认知障碍等问题进行较深入的研究[9]。
长久以来,很多学者都做过符号主义模式AI与联结主义模式AI的比较工作,通常认为它们之间的区别在于前者依赖于冯·诺依曼式或是基于图灵机的程序语言结构,而后者依赖于神经网络结构。这种区分并不正确,实际上不论是冯·诺依曼机器还是神经网络都能够用来执行两种不同模式的工作,一方面,联结主义模式AI常常会在冯·诺依曼机器上执行程序语言,另一方面,目前的符号主义模式AI为了克服传统符号主义的缺陷,也开始使用神经网络结构,比如著名的局域式神经网络模型(localist neural network model),虽然这一模型运用了神经网络结构,但是仍然被大多数认知科学家认为属于符号主义模式AI。因此无论是程序语言结构还是神经网络结构都只不过是各种不同模型所使用的工具而已。
我们认为用计算和表征来区分两种模式的AI会更加合理,它们所支持的计算和表征以及将计算与表征联系起来的方式是截然不同的。符号主义模式AI所采用的是符号表征,计算就是对符号的重新定位、复制和改组,因此符号标志都是离散的,可以为每个符号表达式提供一个语义解释。然而,联结主义模式AI并不使用离散的符号实体,表征是通过叠加的、分布的方式进行的。联结主义模式的计算元素是节点以及节点之间的联结,有些学者会更具体地指出是神经元以及突触之间的联结,一个实体的表征是由分布在许多计算元素上的一个激活模式来实现的,而每个计算元素在表征许多不同的实体时又都被牵涉到[10]。利用层次的概念或许能够帮助我们的理解,在符号主义模式当中,表征层次和计算层次是一致的。作为计算元素,每一个符号都具有一个基本表征,其他的表征是在基本表征的基础上建立起来的,所以它们处于同一个层次。而在联结主义模式当中,计算层次与表征层次是分离的,计算层次明显低于表征层次,在计算层次并不会产生语义,语义是从更高层次,也就是表征层次中突现出来的。
如此看来,符号主义模式AI与联结主义模式AI有很大的差异,然而在塞尔的思想实验中,他对于强AI的攻击并没有区分这两种不同的模式。下面我们分别考察“中文屋论证”是否对两种模式的AI都会产生攻击。
首先,符号主义模式AI由于其本身的特点,易受塞尔论证的攻击。因为在这一模式当中,符号仅仅是一种区别于其他符号的标记,它的表征内容并不是来自其内在的语义,而是来自观察者的赋予。比如“大象”这个符号,可以用来指称大象的概念,但是也可以用来指称其他的概念,比如“苹果”,这完全取决于程序设计者的赋值。当然,有人可能会反驳说符号与外部世界的实体之间存在着因果关系,并非完全来自观察者的赋予。然而这一反驳只对外部主义者有效,前文已阐明塞尔论证中所持有的是内在主义立场,他认为语义与外部环境属性无关,这正是塞尔提出论证的直觉所在。对于一个系统来说,符号“大象”是完全没有意义的,就像对于中文屋内的塞尔来说,中文符号完全没有意义一样。
对于联结主义模式AI来说,情况与前者大不相同,塞尔论证说符号操作不能产生符号意义,但是“符号”如今被分解为两个部分:表征和计算元素,它们完全是分离的,所以需要分别进行考虑。对于计算元素来说,比如节点以及节点之间的联结,塞尔当然认为它们不具备任何内在的语义内容,但是这并没有关系,因为联结主义者从来都不试图要让计算层次拥有语义,这一点与塞尔是一致的。然而,对于“符号”的另一部分——表征来说,联结主义模式的表征不同于符号主义模式的表征,它具有分布式结构,表征并不能直接被操控,而是通过在更低层次对计算元素的操控产生间接操控。所以,联结主义表征具有丰富的内部结构,它们具备自身内在的系统性,语义正是通过这种内在的系统性而在更高层次突现出来,联结主义者称此为“微观语义学”[11]。
塞尔曾对联结主义模式作出过回应,他在“中文屋”思想实验的基础上稍作修改,提出“中文健身房”思想实验。这个思想实验的发生地点由中文屋变成了一个中文健身房,并且屋内并不是只有一个人,而是由很多只懂得英文的人在一起工作,组成了一个并行网络,后面论证与中文屋完全相同。塞尔通过这个思想实验所要表明的是:不论是从个体还是从整体上来说,中文健身房里的人都不懂得中文。然而,这一思想实验并不像“中文屋论证”那么有力,任何个体不懂得中文并不能对联结主义进行反驳,因为大脑神经元系统也是如此:即使整个大脑懂得中文,但是任何一个个体神经元并不懂得中文。并且,通过这个思想实验根本无法从个体不懂得中文推导出整体也不懂得中文。此外,塞尔的论述中忽视了一个重要的问题,如果健身房里的每个人代表一个神经元,每个跑得很快的小孩代表一个突触联结的话,那么这个健身房是巨大无比的,它至少能够容纳1014个人,因为人脑中有1011个神经元,并且每个神经元平均有超过103个联结。这非常类似于“发光屋”思想实验的情境,当电磁棒摇摆频率高于1015Hz时,才会产生发光现象。所以完全有理由相信这一健身房如果真的能够容纳1014个人,并且每一个人都能出色地完成工作,那么它完全能够具有大脑的所有功能,虽然占地面积较大,速度较慢,但是拥有心智。
如此看来,塞尔的“中文屋论证”并不能对所有的AI构成挑战,它只能反驳符号主义模式AI,而对联结主义AI无效。并且,塞尔的很多观点与联结主义者有异曲同工之处,甚至能够用来解决联结主义者所遇到的一些问题。前文中我们曾经利用层次的概念分析符号主义模式AI与联结主义模式AI之间的区别,在符号主义模式中,计算与表征发生在同一层次,而在联结主义模式当中,计算层次与表征层次是分离的,计算层次明显低于表征层次。然而某些符号主义者并不赞同这一观点,比如帕里申(Z.Pylyshyn)曾经提出过在符号层次之下还存在一个更低层次——物理层次。我们知道,计算机最基本的单位不是符号,而是字位(bit),任何有关符号的定位、复制或者其他操作实际上都是通过在物理层次对字位的操作而执行的。所以符号主义者可以声称在他们这一模式当中,计算也是发生在表征之下的一个层次,它们与联结主义模式并没有本质区别。对于这一质疑,联结主义者并没有令人满意的回复,但是如果借助于塞尔所提出的“突现”概念,那么问题会变得简单得多。塞尔认为实在世界由不同的层次构成,每一个层次都有其特有的对象和属性,所有高层次的对象和属性是由较低层次的对象和属性所突现的。所以判断两个事物是属于同一层次还是上下两个层次,一个简单的方法就是判断它们之间是否存在一种突现的关系。那么什么叫作突现呢?塞尔指出:设想一个系统S,由元素a,b,c……组成,有些系统特征能够从a,b,c……的组合排列方式中得出或者算出,例如形状、重量、速度。而有些系统特征不能由此得出,那么它们就属于突现特征[1]95。那么在符号主义模式当中,符号与字位之间的关系究竟属于前者还是后者?我们认为属于前者。比如说,“elephant”(“大象”)这个符号在计算机当中对应了8个字位,这8个字位与符号之间保持严格的执行关系,在任何一次计算当中,这8个字节都是作为一个整体去工作的,它们与符号之间是完全等同的,并非一种突现的关系。因此,根据塞尔的定义,符号和字位之间并不处于两个分离的层次。
通过本文的分析可以看出,塞尔的“中文屋论证”存在两个严重的问题,首先,“中文屋”思想实验缺乏实证性的依据;其次,塞尔在这一论证中并没有区分两种不同模式的AI,而实际上,这一论证所反驳的只有符号主义模式AI,对于联结主义模式AI则无效。由此看来,“中文屋论证”并不足以推翻整个人工智能。所以,问题域需要修正,我们不应当去质疑AI能否成立,而是应当去研究在怎样的条件下,计算机才能够拥有心智。目前看来,联结主义模式是一种恰当的研究进路,毫无疑问的是,这一研究进路必须以对大脑的神经网络研究为基础,当然这并不是说人工智能的实现就一定要是神经生物学的,就像人造视网膜、人造耳蜗的制造所使用的并不是神经化学芯片,而是电子芯片,但是这些电子芯片是在大量动物解剖的基础上经过对视网膜结构以及耳蜗结构的全面了解而制造的。类似地,随着人类对大脑神经网络认识的不断深化,相信人工智能领域也一定会有所突破。
[1]约翰·R 塞尔.心灵的再发现[M].王巍,译.北京:中国人民大学出版社,2005.
[2] 约翰·R 塞尔.心脑与科学[M].杨音莱,译.上海:上海译文出版社,2006.
[3] 丹尼尔·丹尼特.意识的解释[M].苏德超,等,译.北京:北京理工大学出版社,2008.
[4] 约翰·R 塞尔.意向性——论心灵哲学[M].刘叶涛,译.上海:上海世纪出版集团,2007.
[5] 玛格丽特·A 博登. 人工智能哲学[M].刘西瑞,王汉琦,译. 上海:上海译文出版社,2001.
[6] John Searle,“Intrinsic Intentionality”[J], Behavioral and Brain Sciences 3:450-457, 1980.
[7] David Cole, “Chinese Room Argument”[A], in The Stanford Encyclopedia of Philosophy, Edward N.Zalta(ed), 2004.
[8] Paul M. Churchland and Patricia Smith Churchland[J], “Could a Machine Think?” , Scientific American January, 5:32-37, 1990.
[9]贾林详. 联结主义认知心理学[M]. 上海:上海教育出版社,2006.
[10]徐向东. 联结主义、排除主义与思想的构成性[J]. 自然辩证法通讯, 1994,5.
[11] David J. Chalmers, Subsymbolic Computation and the Chinese Room[A], in The Symbolic and Connectionist Paradigm: Closing the Gap[C], J Dinsmore,ed. Lawrence Erlbaum, 1992.
[责任编辑张家鹿]
TheDevelopmentofArtificialIntelligencefromPhilosophicalPerspective——A Critically Review About “Chinese Room Argument”
LI Zhen
(Sun Yat-sen University,Guangzhou 510275,China)
In 1980,John Searle, a famous American philosopher, advanced “Chinese Room Argument” to challenge the Artificial Intelligence. The argument had touched off a heated controversy until now. According review the logical structure and philosophical meaning of the argument, this paper points out it lacks empirical bases, and only attacks the symbolic AI, rather than the connectionist AI. In fact, it turns out that some of Searle’s ideas are almost stand the points of connectionism. Therefore, it provides a possible line to the development of AI.
artificial intelligence;Chinese Room Argument;symbolicism;connectionism
B089
A
1000-2359(2011)06-0014-05
教育部人文社科研究青年项目(11YJC720023);国家社科基金青年项目(11CZX006);中国博士后科学基金项目(20100480829)
2011-09-15