分析哲学的逻辑知识真对人工智能有用吗?

2020-07-09 05:09徐英瑾
社会观察 2020年6期
关键词:彩票逻辑命题

文/徐英瑾

弗雷格逻辑与人工智能的冲突

英美分析哲学的主要学术训练方式,是建立在对于肇始于弗雷格的现代逻辑(一阶谓词逻辑与命题逻辑)的尊重之上的。严格地说,目前在“基于规则的人工智能”中所运用的哲学逻辑工具,均是弗雷格式的一阶谓词逻辑的变种。这种逻辑的特点有四个:一是真值与内涵的剥离,二是“极化思维”,三是反心理直觉,四是不考虑信息的贮藏空间的局限问题——而这四个特点在原则上就使得此类哲学逻辑与“智能”一词在心理学语境中的本质规定性产生了难以调和的冲突。

第一,我们来解释什么是“真值与内涵的剥离”。按照弗雷格的逻辑哲学思想,一个语言表达式均有“意义”(sense)与“指称”(reference)。所谓“意义”,乃是表达式的使用者使用表达式以便指涉相关对象的方式,其数学意义类似于函数结构;而所谓“指称”,就是指那被指涉到的对象,其数学意义类似于函数的应变元的值。举例来说,就“曹操”这样的名词表达式而言,“曹操”与“曹孟德”这两种意义,就分别构成了用来指涉那个相关历史人物的两种不同的指涉方式,而那个叫“曹操”的人则构成了两种指涉方式所共同涉及的那个“对象”,即“指称”。弗雷格进一步将他的这个分析模型运用于命题层面的语言表达式。比如,就“曹操是曹丕的父亲”这一命题而言,它的意义就是指这个命题所表达的意思,而其指称就是指其所承载的真值。需要注意的是,在典型的现代命题逻辑的操作方式之中,弗雷格与后弗雷格的主流逻辑学家是将注意力放到命题的“真值”而不是思想之上的,因为所谓“真值表”(truth-table)的运作,就是以原子命题的真值为输入,来计算复合命题的真值的。考虑到真值自身的贫乏性(即只有“真”、“假”两个选项)与命题的思想的丰富性之间的张力,上面这种基于真值的逻辑操作,就不得不使得相关命题的语义学与语用学背景被全面忽视。由这种思维方式所带给人工智能的种种麻烦,我们在后文中还将看到。

第二,我们再来讨论一下什么是“极化思维”。“极化思维”是指:现代逻辑的语义刻画往往会着重于去考虑那些“边界明晰”的极端情况,而不太会去考虑语义模糊的“灰色地带”——尽管日常生活的表述显然就往往是处在这些灰色地带的。一个具体而微的例子,便是对于“张三有钱”这句的刻画。对于这句话的真值条件的现代逻辑表述是:“对于任何一个对象x而言,只要该对象属于‘钱’,且属于张三,则‘张三有钱’就是真的。”不难看出,按照这样的真值条件刻画,如果世界上有一分钱,且钱是属于张三的,则“张三有钱”这话也就是真的了。但几乎所有的有日常语用直觉的人都能够看出,“张三有钱”的真正含义是“张三的财富超过了其所在的社会的一般水平”。据此,倘若张三仅仅只有一分钱的话,他显然离达到这个标准还非常遥远。很明显,主流的哲学逻辑所提供的“非黑即白”的极化思维方式,是难以应对我们的这种常识的。

第三,我们再来讨论一下什么是“反心理直觉”。很明显,在上面的案例中,我们已经看到现代哲学逻辑的极化思维在处理日常直觉之时的无力感。这种无力感可以在更多的案例中得到验证,比如所谓的“四卡问题”(或称之为“华生选择难题”)——在这个问题中,我们清楚地发现,心理学被试并不是按照现代哲学逻辑所提到的“蕴含关系”的形式要求来进行逻辑推理的。有趣的是,只要“社会契约”的内容被注入了心理学检测的题目,那么,由此变得更关注自身在契约中的利益的被试,就会更加严格地按照现代哲学逻辑的要求,全面检查逻辑推理的有效性。但有意思的是,这种对于现代逻辑的尊重,却恰恰不是由逻辑形式本身所激发的,而是由逻辑形式所涉及的经验内容所激起的。这也就是说,命题内容与相关经济利益之间的关联所引发的心理联想,往往在人类主体判断推理有效性的思维过程中扮演了重要角色,而对此类角色的表征,却是现代哲学逻辑所难以胜任的。

第四,在分析哲学的视野中,对于哲学逻辑所从事的推理的最重要的评价词乃是“有效性”(validity),但不是“经济性”(economy)或是“可行性”(feasibility)。也就是说,主流的分析哲学家往往不考虑完成一个论证所需要的推理步骤的数量问题,以及相关的心理学、生物学成本问题。但无论在认知科学还是在人工智能的研究之中,这种考量都占据了非常核心的地位,因为缺乏效率的认知机器,既很难被演化的自然进程所青睐,也难以被转换为具有工程学价值的产品。而这两种评价模式之间的矛盾,在所谓的“框架问题”里得到了最鲜明的体现。所谓“框架问题”,非常粗略地看,即指人工智能系统在确定一个前提性事件(如“桌球滚动”)之后,如何判定哪些事件(如“滚动的桌球碰触到了另外一个桌球”、“房间的气温下降”,等)是与之相关或不相关的。这显然要求相关系统就世界中各个事物之间的相互因果关系有一个预先的把握。从纯粹的哲学逻辑的角度看,这一要求本身并不构成一个非常大的麻烦,因为只要为这些因果关系进行编码的公理集足够大,一个利用该公理集进行推理的形式系统就能够从中调取相关的逻辑后承。但对于人工智能专家来说,庞大的公理集显然会带来巨大的编程成本问题,而且如何从该公理集中及时调取合适的子集以作为推理的起点,也会带来相关的工程学难题。

珀拉克的修正方案为何还是问题重重?

当然,人工智能专家对于基于弗雷格逻辑的经典哲学逻辑的缺陷,也并非没有意识。实际上,不少专家都给出了针对这些逻辑的“人工智能特供修订版”,如在“非单调推理”这个名目下所给出的种种努力。然而,在笔者看来,对于“非单调推理”的研究固然是对“单调性推理”研究的一个有益的修正,但是只要这样的研究继续受到弗雷格式逻辑思维方式的束缚,其所获得的成果也将是有限的。下面,笔者就将面以珀拉克(John Pollack,1940-2009)对于“奥斯卡项目”的研究为例,来说明这一点。

珀拉克的人工推理系统所试图解决的问题,乃是落实关于智能体的理性(rationality)的最基本要求:如何避免同时相信命题P与其否命题“¬P”。他的具体案例则是所谓的“彩票悖论”,其内容是:假设有一个彩票游戏,有一百万人参加,而赢家只有一个。因此,玩家能够成为赢家的概率是非常低下的。假设每张彩票都被编号了,那么玩家相信其中任何一张被抽中的理由都会非常薄弱。因此,我们就得到了如下判断:

(1)并不存在着这么一张能够被抽中的彩票。

而这个判断,又是基于前行的一系列判断:

(1-1)1号彩票不会被抽中。

(1-2)2号彩票不会被抽中。

…………

(1-n)n号彩票不会被抽中(n是一个小于等于一百万的大数)。

但我们同时又有这么一种直觉:总会有人买彩票会赢的,否则,为何还有那么多人去买彩票呢?于是,我们就又得到了如下判断:

(2)在众多的彩票中,存在着至少一张能够被抽中的彩票。

很明显,从{(1-1)、(1-2)……(1-n)}到(1)的推理是一个单调性推理,因为随着前提信息量的增加,作为结论的(1)的确定性也得到了增加,而不是被减弱。不过,(2)的出现却是一个“另类”,因为既然(1)与(2)是互相矛盾的,那么,(2)就无法得到来自{(1-1)、(1-2)……(1-n)}的前提信息的支持。这样,面对(2)与(1)或者{(1-1)、(1-2)……(1-n)}之间的不兼容,一个试图给出进一步推理结果的智能体,显然就面临着一项典型的“非单调推理”的任务(换言之,(2)的出现,恰恰使得原来的推理结果(1)很有可能被颠覆,而不是被保留)。那么,一个需要维持自身信念系统之最大兼容性的智能体,又该按照怎样的推理模板来进行这种非单调推理呢?珀拉克的解决方案是推出一个叫“集合否决性”的推理程式。这个推理程式的意思是,假设我们有很好的理由去认为r是真的(如承认存在着至少一张能够被抽中的彩票),而且又有貌似不错的理由(prima faciereason)去认为信念集合{p1,p2,…,pn}中的任何一个单独看都是真的(比如相信一百万张彩票中的任何一张都不会被抽中),而且,如果上述信念集合与理由r产生了矛盾,那么,我们就很难真地相信信念集合{p1,p2,…,pn}中的任何一个信念单独看都是真的了。用形式化语言,表述,即:

从表面上看,珀拉克的上述诊断貌似是符合直觉的,因为很多人似乎都愿意接受这样一种说法:判断命题(1)为真乃是一种不甚精确的说法,而更精确的说法应当是:一百万张彩票中的任何一张都有非常低的获奖概率,只是在日常生活中我们往往会忽略这么低的概率。因此,说其中的任何一张都不能赢,严格而言是错的。但这里的问题是:上面的推理模式只有在预设了(2)是真的情况下,才是有用武之地的。但对于一个需要在缺乏人工干预的情况下独立运作的人工智能体来说,它又是如何知道(2)是真的呢?

很显然,在这个关键问题上,珀拉克的模型不能提供任何有力的解释,因为它只能简单地重复说:如果每张彩票都不中的话,那么谁还会去买彩票呢?这不就意味着有人中了彩票了吗?——然而,这个论证似乎已经预设了系统要么能够从外部环境(或内部记忆库)中获取“有人中了彩票”这一知识进行反向推理,要么就预设了系统的设计者已经将“有人中了彩票”这一知识作为先验知识纳入了系统的公理集。但实现这两种可能性都会带来进一步的问题。具体而言,若要实现第一种可能性,珀拉克就得设计一个子系统,以便从外部自主获取证言或从内部调取记忆,而这样的设计显然会带来相关的心理建模任务。很明显,基于哲学逻辑思维的“奥斯卡”系统并不具备强大的心理建模力。而若要实现第二种可能性,则会逼迫建模者本人费心挑选哪些知识是不可动摇的“基本信念”,并将其输入系统。不过,这样的工作不但繁琐,而且,由于此类真理的“特设性”(ad hocness),某种特定的确定“基本信念”的方法在某类语境中的有效性,恐怕也是很难被推广到别的语境中的。

回到亚里士多德词项逻辑

面对现代逻辑在处理人工智能问题时所暴露出的这些缺陷,笔者的建议是以适当的形式恢复亚里士多德的词项逻辑的精神。概而言之,亚氏词项逻辑与现代命题逻辑之间的根本差异,就是前者的考量是以词项为核心的,而不是以命题为核心的。这就使得传统逻辑学家非常容易以词项为基点解释三段论的构成,并以此为基点解释为何某些心理推理路径能够迅速成型。我们以三段论诸有效式中最著名的“芭芭拉式”(Barbara)为例。该式的形式构成是:

大前提:所有的M是P(如:所有的人都是哺乳动物)。

小前提:所有的S是M(如:所有的男人都是人)。

结论:所以,所有的S是P(如:所有的男人都是哺乳动物)。

很明显,在这样的推理过程中,本来在“大前提”中并不相关的小项(S)与大项(P),通过中项(M)的中介作用,而在“结论”中彼此联系了。换言之,通过词项之间的中介联系,我们将非常容易解释,小项(S)与大项(P)之间的联系究竟是如何“从无到有”地发生的。由于这样的推理思路并不特别诉诸于每个判断自身的真值(外延)而是诉诸于作为判断之构成要素的词项之间的关系,因此,在这样的推理思路中,前文所提到的“框架问题”便可以得到一种相对容易的解决方案,此即:一个语句与另外一个语句被认为是相关的,当且仅当这两个语句的构成词项通过某个或某些三段论推理的中项而发生了联系(在此,我们允许诸中项通过嵌套三段论的方式而构成复杂的“中项接龙”,而完成其联接任务)。由于通过中项而发生的这种联系并非是普遍存在的,一个诉诸于这种思维方式的智能体,将能够在解决框架问题时大大节约自身的认知资源与处理时间。举个例子来说,若没有“人”作为中介出现,一个正常的推理者是不会无缘无故地将“男人”与“哺乳动物”联系在一起的。

那么,站在人工智能研究的角度上看,在亚氏词项逻辑与现代逻辑之间,究竟何者堪当“通用人工智能系统之底层逻辑”之大任呢?在回答这个问题之前,我们不妨先来简评一下二者的短长。就现代逻辑而言,其优点固然是不容忽视的:经过数理化的改造之后,现代逻辑与现代计算机的平台基础的衔接度是比较高的,而且基于现代逻辑的一些人工智能产品也至少取得了部分的成功。但正如前文所指出的,若以具有独立推理能力的智能体设计为标杆,基于现代逻辑的人工智能产品的最大问题,就是缺乏与复杂心理建模的对接窗口,因此我们就很难在这种逻辑的基础上从事对于诸种人类的心理学算法的计算化模拟,以便由此提高整个系统运作的经济性与灵活性。至于亚里士多德式的词项逻辑,其优缺点则与现代逻辑正好构成了互补。就其优点而言,亚氏词项逻辑对于词项的基础地位的偏重,显然能够以一种更为顺畅的方式,来对接心理学家对于词项表征在心理表征之中所起到的基础作用的研究成果。这也就是说,一种以亚氏词项逻辑为基础的人工智能编程语言,其实更有希望将心理学家的相关洞见加以吸收。但公允而言,词项逻辑也并非没有缺点。站在现代计算科学的角度看,亚里士多德的词项逻辑依然是古朴与粗糙的,它只有经过符合现代计算机科学要求的改造,才能被人工智能的研究所吸收,并在此基础上再反过来去吸收现代心理学的研究成果。

然而,若让两种逻辑互较短长,亚氏词项逻辑还是能够棋高一着,因为亚氏逻辑的缺点(即难以与现代计算机计算平台对接)要比现代逻辑的缺点(即难以与现代心理学研究对接)更容易被克服。具体而言,在笔者所知的范围内,目前在人工智能学界,最接近面向计算机时代需求的词项逻辑改造成果,乃是华裔科学家王培发明的“非公理推理系统”(Non-axiomatic Reasoning System)。该系统由“运作逻辑”与“控制模块”两个部分所构成。就该系统所依赖的逻辑工具而言,这是一种叫“非公理化逻辑”(Non-axiomatic Logic)的词项逻辑。该逻辑与亚里士多德逻辑一样,能够以词项为基点进行推理表征,并能够胜任亚氏逻辑所不能胜任的溯因推理、类比推理、复合词项表征等表征与推理任务。同时,由于该逻辑完成了以现代集合论为基础的对于古典词项逻辑重构任务,所以,相关的成果也可以在现代计算机的平台上被复演。而就该系统所依赖的控制模块而言,该模块的设计大量吸纳了“工作记忆”“意图表征”“心理时间表征”等心理学要素,并特别强调在有限资源下系统运作的“节俭性”。因此,该系统也为在计算机平台上复演现代心理学的研究成果,提供了一个良好的平台。

猜你喜欢
彩票逻辑命题
逻辑
我们还能有逻辑地聊天吗
一张图看懂2017年全国彩票大数据
女生买买买时的神逻辑
女人买买买的神逻辑
圆锥曲线的两个孪生命题
浅谈“命题的否定”与“否命题”
噜噜猪买彩票
否命题与命题的否定辨析
彩票摊