试论塞尔“中文屋论证”存在的问题

2019-11-15 03:04崔芳溪中央民族大学
长江丛刊 2019年5期
关键词:意向性塞尔人脑

■崔芳溪/中央民族大学

“中文屋”是约翰·塞尔提出的一个思想实验。通过中文屋论证,塞尔得出结论:语法并非语义的充分条件。计算机虽能通过图灵测试,但本质上只是按照语法规则完成对字符串的操作,对操作内容并不存在任何理解。因此,计算主义所持有的人类心灵是类似计算机的信息处理系统的观点被否定了,强人工智能实现的可能性岌岌可危。然而,该论证并非无懈可击,以下将从塞尔的论证及其面临的反驳入手,对该思想实验的合理性进行反思。

一、“中文屋论证”

塞尔提出中文屋假设最初是为了反驳尚克的强人工智能观。尚克认为,机器能够理解人类的故事并对相关问题做出正确的回答,所以机器可以拥有与人类一样的理解能力。塞尔对该论断持否定态度。

为了论证自己的观点,塞尔做了如下假设。他假定自己被锁在一个房间里。在那里,他首先收到了一大批中文文本,而他本人丝毫不了解中文,那些文本对他而言形同涂鸦。随后,他又收到了一批用英文写就的、介绍中文形式符号和语法规则的书。运用这本书,他可以对中文字符进行识别、确认。其后,他收到了第三份中文文本和一份英文指令,指令要求他以前两批资料为工具,用汉字字符对第三份中文文本进行回复。这一假设之下,屋外得到塞尔中文回复的人绝不会发现塞尔完全不懂中文。

基于此,塞尔指出,语法并非语义的充分条件,程序可以对故事涉及的问题做出正确解答并不意味着机器可以理解故事内容。人工智能的关键不在于形式的转换,而在于内容的理解。机器处理的都是语法问题,永远都不会理解语义,故强人工智能不可能。

二、对“中文屋论证”的回应

该论证主要收到了五种反驳:系统回应、机器人回应、人脑模拟回应、他心回应与直觉回应。以下将对诸种反驳及塞尔的回应进行简单论述。

系统回应的代表人物是布洛克,他指出,处在中文屋中的塞尔只是中文屋的一个部分,真正可以对中文语义进行理解的是整个中文屋。如果将中文屋当作一个系统,那么显然不能因为系统的某一组成部分不具备其整体所具有的某项功能而对整体的这一功能进行否定。

对此,塞尔进一步假设,当中文屋中的人将整个语法系统都内化于头脑中并走出中文屋之后,他就成了布洛克所说的“系统”,他依旧可以实现中英文的形式转换,但他仍不能理解中文。故系统回应无效。

系统回应着眼于理解语义的主体,机器人回应则更关注理解语义的条件。该回应认为,虽然语法不是获得语义的充分条件,但与外部世界的因果联系却可以使机器理解语义。因此,只要为计算机装上一个遍布传感器的身体,机器便可通过观察实践感受外部世界的变化,产生对语义的理解。

对此,塞尔指出,传感器只是增加了语法输入,对中文屋中的人仅意味着语法转换上更大的工作量,他并不能区分哪些字符由传感器获得,因此也就谈不上从中感受外部变化而理解语义,故机器人回应无效。

除此以外,部分哲学家还将目光投向了人脑模拟。他们假设,随着人脑科学的发展,我们可以观察并模拟人脑在理解中文时脑内神经的每一个激活过程。鉴于由此生成的程序与人脑有着完全相同的运作原理,故该程序应有与人脑同样的理解语义的能力。

对此,塞尔表示,这一假设在本质上与中文屋没有任何区别。计算机编程实现的仍只是形式的模拟。不论如何改造中文屋输入、输出字符的方式,中文屋中的人仍旧不会理解字符所包含的语义内容。

比之以上三者,后两种回应更偏向于认识论的思考角度。他心回应以他心问题为基础向塞尔发问:只有通过可显现的外在行为才能对他人进行判断,既然机器可以通过运行程序表现出理解中文的样子,那么有什么理由认为机器不懂中文呢?

塞尔的回应十分简单。一方面,当我们在探讨认知科学时,就已假定了心灵的现实性和可知性;另一方面,目前机器处理的是语法问题是人类已然了解并普遍接受的事实。因此,他心回应变得毫无意义。

直觉回应更为直接。布洛克认为,塞尔做出机器不能理解语义这一判断是基于直觉而非逻辑。平克则指出,塞尔将心灵的计算速度降低到了我们已不认为其是理解的程度,正是如此,他才得出中文屋中的人无论如何都不能理解语义的结论。但理解是一个极快的过程,中文屋显然把这一过程过度延伸了。因此,该论证是站不住脚的。

以上即为中文屋论证收到的几种主要回应。综上,虽然中文屋论证对心灵哲学、认知科学以及人工智能等诸多学科产生了极大影响,但仍存在一定问题。

三、塞尔论证与回应中存在的问题

在讨论中文屋论证的不足之前,应对塞尔的基本立场进行强调。在否定了以形式模拟实现人工智能的可能之后,塞尔指出,对意向性的模拟才是实现人工智能的关键。但他紧接着把意向性归为了人脑的特性,认为意向性只能由经过漫长进化而形成的有特定因果力的生物大脑实现,从而彻底否定了人工智能的可能性。以此为基础,再来看中文屋论证。

首先,其论证前提存在问题。从论证中可得,中文屋中的人是一个拥有正常行为能力的人类个体。因此,可将其理解为一个通常意义上兼具意向性(此处强调自主学习能力)与形式转换能力(即处理语法问题的能力)的行为人。当其处在封闭的中文屋中时,姑且认为由于环境所限,他只能根据屋外提供的指令进行句法转换,无法充分发挥自主学习能力;然而从塞尔对系统回应的反驳中可得,即便塞尔将中文语法规则内化于心,并走出中文屋与外部世界相接触,他仍旧不能理解中文。这一论断表明,塞尔在假设中并未赋予中文屋中的人以意向性。否则,在了解语法规则并与外部世界进行相互作用的情况下,正常的人类个体通过或主动或被动的学习,可以也应当达到对中文语义的理解。若以上推论正确,那么塞尔的论证前提就是矛盾的,他一面将中文屋中进行形式转换的主体设定为“人”,一面又取消了他的意向性。这一矛盾使得由此得出的结论不那么具有说服力。

其次,综合系统回应与机器人回应可以发现,中文屋的实验设计有其不当之处。上文提及,塞尔提出中文屋论证是为了反驳计算主义的强人工智能观。然而,中文屋中的人并不能与大脑进行等效的类比。大脑作为一个器官并不具备任何理解语义的能力,而中文屋中的人则不同。因此,中文屋中的人并非图灵机的实例,以中文屋中的人可以通过图灵测试却无法理解语义来反驳强人工智能的可能性这一类比论证并不恰当。

最后,塞尔通过中文屋论证完全否定了人工智能实现的可能性,走向了智能的沙文主义道路。他将智能的标准确定为拥有意向性,又将意向性分为内在的意向性(即原有的意向性)与相对于观察者而言的意向性(即派生的意向性)。“我现在很渴,因为我一天都没有喝水”表现了前者,而“我的草坪很想得到水”则是后者的体现。原有的意向性是具有关于性的、生物所固有的;而派生的意向性则是类似移情的一种心理投射。经此划分,塞尔得出结论,意向性的产生必然有赖于长期进化而形成的生物大脑这一特殊的物质基础,不可能被模拟。任何认为机器经过不断更新可能获得意向性的主张都是对“派生的意向性”与“原有的意向性”的混淆。然而,意向性是否真实存在仍是一个无法回答的问题,面对取消主义对意向性存在的彻底否定,塞尔既无法证实也无法证伪。而当我们像塞尔一样把直觉当作判断智能与否的标准时,意向性也就成为了依赖于人的主观的存在而重归于不可知的领域。

四、结语

综上所述,虽然中文屋论证通过构想一个相对简单的系统将人工智能研究中混淆语法与语义的问题揭示了出来,但由于思想实验这一论证方式本身的局限性,该论证从论证前提、实验设计到最终结论都有一定的瑕疵,设计的矛盾、类比的不恰当以及直觉的过度运用都使得该论证在不同方面陷入了困境,也为后人留下了不断反思与讨论的空间。

注释:

① Searle, J. R.“Minds, brains and programs”, in Behavioral and Brain Sciences.1980,3(3):417~424.

猜你喜欢
意向性塞尔人脑
人脑拥有独特的纹路
如果地球被我们吃掉了
让人脑洞大开的建筑
对现象学教育学视域下的家庭教育的几点思考
感知与意向性
创意无限的另类汉堡
(简论诗创作的意向性)
方向
方向
方向