教育人工智能支持人类学习机制的两种效应*

2020-11-02 13:21刘欣李怀龙
中国教育信息化·高教职教 2020年9期

刘欣 李怀龙

摘   要:随着人工智能技术的快速发展,教育人工智能(EAI)逐渐走入教育研究者的视野。EAI是一个将人工智能技术与学习科学相结合的新兴领域,是人工智能技术对教育领域引发影响的深刻表现。然而作为EAI的逻辑起点问题——EAI缘何能够促进人类学习,以及在对人类学习机制的支持时,又发挥了何种效应,这一课题尚未有定论。探讨该课题对EAI的理论研究和应用研究均具有重大意义,只有将其弄清理顺,才能真正推动EAI在教育理论上的完善与教育实践中的运用。文章论证了EAI支持人类学习机制的两种效应,先比较了基于逻辑结构和基于物理结构的学习机制(均从人类学习机制和机器学习机制两个层面上给出探讨)的不同,进而阐明人类和机器在学习机制上的联系,重点论述EAI对信息心理加工过程的延展效应、EAI对大脑神经网络结构的强化效应。

关键词:教育人工智能;人类学习机制;机器学习机制;延展效应;强化效应

中图分类号:G434 文献标志码:A 文章编号:1673-8454(2020)17-0001-05

一、引言

2016年,美国发布了《为人工智能的未来做好准备》和《国家人工智能研发战略规划》,旨在进一步引领人工智能的应用与研发。[1]2017年,我国正式印发了《新一代人工智能发展规划》,这是我国针对人工智能领域的第一个系统部署的文件,要求把握全球人工智能发展态势,找准突破口和主攻方向,全面增强科技创新基础能力。[2]可见,人工智能对人类社会的影响越发广泛。教育,无疑也是在当前人工智能的时代背景下,受到影响的领域之一。教育人工智能(EAI),既是教育在人工智能领域的上层应用,又是人工智能在教育领域的技术基础。时下,通常将EAI定义为“一个人工智能与学习科学相结合的新兴领域”。[1]其中,EAI包含的两个基本概念——人工智能和学习科学,皆具有跨学科性质。人工智能是以模拟人类智力行为和能力为研究目标的交叉学科,又同时涵盖了计算机科学、工程学、数学等人工科学,以及认知科学、神经科学、脑科学等智能科学。[3]学习科学则是以学习的发生、运作和促进为研究目标的跨界学科,涉及教育学、心理学、语言学等诸多学科。普遍而言,EAI的研究目标为:通过人工智能技术,更深入、更微观地窥视、理解学习是如何发生的,是如何受到外界各种因素(如社会经济、物质环境、科学技术等)影响的,进而为学习者高效地进行学习创造条件。[1]EAI主要有知识的表示方法、机器学习与深度学习、自然语言处理、智能代理、情感计算等关键技术,其应用集中在智能导师、智能助手、智能测评、学习伙伴、数据挖掘与学习分析等领域。[1]作为教育研究者,必须以前瞻性的视野看待人工智能技术带来的深远变化,这同样是时代赋予教育工作者的责任和使命。

然而,EAI为什么能够促进人类的学习,又是对人类学习机制有着怎样的支持性效应,这个EAI面临的首要问题至今仍未有定论,该课题正是文章的研究主题。对该问题的正面回答,具有十分重要的价值。理论层面上,是对已有EAI有关理论研究的补充和完善;实践层面上,可以在一定程度上指导EAI的教育教学实际应用,并为后续类似研究提供参考。

二、 EAI支持人类学习机制

1.人类学习机制

(1)信息加工理论视角下的人类学习机制

以信息加工理论的视角来看,人类学习机制是建立在学生元认知水平基础上的认知学习过程,是指个体的学习发生、进行、结束的整个发展过程。学习是一个信息内部心理加工的过程,主要包括信息输入、信息处理、信息输出与信息反馈这四个环节。该理论认为学习在于内部认知结构的变化。迈耶的《多媒体学习》一书中提及,这种心智认知结构归属于典型的逻辑结构(解释、比较、概括、列举、分类)。[4]学习者不断接受各种刺激,经过内心积极的组织,将其形成和发展成认知结构。

具有代表性的观点有加涅的信息加工学习模式,以及迈耶的多媒体学习认知模式。如图1所示,加涅的信息加工学习模式较为完整地描述了人类学习的信息加工过程,可分为以下几个阶段:①信息输入阶段。外界刺激被注意,刺激通过感受器到达感觉登记器。②信息处理阶段。工作记忆的信息经加工和转换被编码,信息编码有助于对信息的理解和存储,该阶段会借助长时记忆的信息去帮助理解,編码后的信息也会储存进长时记忆。③信息输出阶段。当信息需要使用时,通过检索、提取,有的信息会直接进入反应生成器和效应器,有的信息则会经过工作记忆的核实,确认后再通向反应生成器和效应器。④信息反馈阶段。信息被提取出后,在即将录入反应生成器和效应器时,会分别由“预期”和“执行监控”两个环节,发挥激活和调节信息流程的功能。

如图2所示,迈耶的多媒体学习认知模式是对加涅的信息加工学习模式的一个更加详尽的补充。信息由两个通道在感觉记忆中被登记,经由心向选择进入工作记忆,工作记忆里的信息被加工组织为言语模型及图像模型,再把长时记忆中的先验知识整合进来,一起用作信息处理后的输出内容。基于上述分析,信息加工理论视角下的人类学习机制强调从内部心理结构的变化来解释整个学习发生过程。

(2)认知神经科学视角下的人类学习机制

以认知神经科学视角来看,人类学习机制是大脑神经系统进行信息加工的过程,是脑对刺激产生的反应,它包括脑对信息的感知、处理和整合。Koizumi指出:学习是根据外界刺激建立神经联结的过程;而教育则是控制或添加刺激,或激发学习意向的过程。[5]认知神经科学的研究证明,个体的心智是一个大脑神经网络结构系统。[6]个体在出生之前,大脑内的神经元已经建立了联系,组成了原始的神经网络结构体系,从而形成了对外界环境的先天应答机制,为人类的学习做好了准备。随着学习者与外界互动的加强,积累的经验不断丰富,大脑会动态地扩展、重塑、调整网络,以反映新的环境和新的信息。学习是神经网络结构的形成,知识以网络的形式储存在大脑中。在整个神经网络结构的形成过程中,新的、经常使用的知识将在网络中不断地被激活,那些旧的、很少使用的知识将逐渐在网络中被遗忘。利用这种方式,大脑不断提升适应性能力,进而发展出适合的神经网络结构系统。换言之,大脑的神经网络结构系统为学习提供了一个核心的生理基础,在对一些内部或外部的因素产生作用的同时,也会受到这些因素的改变。学习就是发生在脑和外界双向互动过程的一种活动。

基于上述分析,该理论认为心智认知结构属于典型的物理结构,即大脑的神经网络结构,若将其比喻为物理电路,知识就是电路里蕴涵的电流、电压。因此,在认知神经科学视角下,人类学习机制强调从大脑的神经网络结构的变化来解释学习机制的运作,影响学习的各种因素都由大脑神经系统的网络化发展来表现,大脑是整个学习机制的中心。学习过程中,一切变化都通过大脑来调节,学习机制也正是围绕大脑这个核心要素而整体运行的。此机制不单有内部因素(大脑、心理)的作用,还包括外部因素(身体、社会)的作用,只是机制强调学习是发生在脑与外界之间的一种双向活动,外部因素的影响也需要通过大脑神经系统的调控来实现。

2.机器学习机制

(1)符号主义学派的机器学习机制

正如纽厄尔和司马贺所表述,“符号是一切智能活动的源头,它是人工智能里不容置疑的核心”。[7]符号主义学派提倡直接从功能的角度来理解智能,利用“符号”抽象地表示现实世界,利用逻辑推理和搜索来替代人类大脑的思考、认知过程,而不去关注大脑的神经网络结构,并默认了一个图灵一直坚持的观点作为基本前提,即“智能是一个形式化系统(或符号系统),认知过程的本质就是处理符号的过程,大脑的所有思考都是通过逻辑运算完成的”。

符号主义学派的核心纲领为:人工智能来源于数理逻辑,需要使用符号、规则和逻辑来表征知识和进行逻辑推理。简言之,符号主义学派倡导的机器智能立足于符号学和逻辑学,将逻辑推理作为工具,以模拟人的智能。因而,符号主义视界下的机器学习,其实现的关键就在于知识表征(如语义网络)和推理算法(如启发式算法),机器改进自身(即机器学习)的表现为:产生式推导出更多的逻辑规则(以规则来描述现实事物的属性),并尽可能完善自我的数据库。[8]专家系统作为符号主义学派的代表性产物,正是如此。

值得讨论的是,由于当今业界过于追捧统计学习和深度学习,以至于很多学者对符号主义理论存在严重的偏见及误区。有的学者认为符号主义只有“推理期”,没有“学习期”。实际上,决策树学习不应列为统计式机器学习的成果,它是基于符号的机器学习算法中最成功的案例。有足够的理由说明这一点,决策树的本质是树结构,每个非叶节点都是一个属性上的逻辑判断活动,每个叶子节点则都存放着一个逻辑规则的分类结果,这种因结构而产生的效果要远远高于算法后期加入的、统计式的特征系数或高维空间等所发挥的效用。同时,对符号主义的“推理期”和“学习期”的看法不能太过狭隘,基于符号的机器学习也是从样本中获得知识,如果希望从最基础最本质的知识推导出其他知识,对应到人类认知世界的两个基本思路就是演绎和归纳,逻辑学学科内更重视演绎,而人类更常用的是归纳,决策树学习便是自然而然的归纳推理的选择。由此可知,符号主义的机器学习的“推理期”是“演绎”,而“学习期”则是“归纳”。

符号主义具有良好的可解释性,从知识层面而言,无论是中间知识,还是最终得到的知识,都有清晰的解释。但不可否认,符号主义目前遇到了极大的困境。笔者在这里有一些不同的见解,以为这并非一些学者说的符号主义理论性失败,而是符号主义学派对智能只关注到上层的功能性,而忽略了底层的本质性,具体如下:①基础前提的缺陷。作为符号主义学派的假设性前提,目前来看,图灵所述的智能观是有问题的,他从最初就未能回答出香农对唯逻辑主义的质疑,智能系统很可能就不能完全视为“只是一切逻辑推理的引擎”。[9]这是符号主义的“逻辑派”无法解决的问题。②组合爆炸问题。这种NP完全问题其实是一个表象问题(逻辑规则和数据库的无穷增加),根本问题是:智能心理机制是无限的,无限不能用有限系统近似,图灵机虽然满足图灵可计算性,但依然是有限机。近期已有数学研究证明,Connes的嵌入猜想理论——以有限简化无限的思想——是不合理的。[10]这是符号主义的“认知派”无法解决的问题。③机器进步对其贡献较小。与神经网络相比,基于符号主义的机器学习的效果增加受益于当前架构图灵机提升的程度过小,换句话说,目前机器在硬件资源和数据资源上的飞速发展对符号主义学习的效果帮助不大,很可能是,依托于冯诺依曼架构的机器上的符号主义学习效果已接近极限。然而,因果逻辑作为人类智能独特性的体现,是人工智能领域里,绝对不能被抛弃、回避的重要课题,既要“人工”,也要“智能”。

(2)连接主义学派的机器学习机制

连接主义学派最初主要来自对人类大脑神经网络结构系统的研究学者,主张从生物结构角度出发,让机器先去模拟人脑构造,再从中获得智能。这条思路相比探究复杂、隐晦的“心智机制”,显得更加有迹可循。[7]麦卡洛克深信,人类大脑就是一個天然能执行某种思维语言的系统,一定存在着某种运作机制,将人类大脑中大量神经元机械性放电的过程组织起来,由此形成思维、知识和记忆。

连接主义学派的核心纲领是:人工智能源于脑的模仿,使用概率矩阵和加权神经元来动态地识别和归纳模式,代表性产物是神经网络。麦卡洛克-皮茨提出的“M-P神经元模型”阐明了基于连接主义的机器学习的原理。如图3所示,该模型中,一个神经元会接受多个来自其他神经元传递过来的输入信号,不同的输入信号的重要性各有差别,这种差别就通过连接上的“权重”大小来表示,神经元要将接受到的输入值进行加权求和运算,并将求和结果与该神经元自身的“激活阙值”比较,以决定是否对外输出信号。因此,连接主义视界下的机器学习,其实现的关键就在于神经网络的传播(如前馈传播)、权重优化(如SGD优化算法)和激活(如Relu激活函数)。机器改进自身(即机器学习)的表现为:学习的内容就是“权重”,通过训练使权重不断更新,最终提取出多维度特征向量(以特征来描述现实事物的属性)。

需要讨论的是,虽然正值深度学习的高潮时期,神经网络取得了惊人的成果,但连接主义学派依然存在着长期难以攻克的问题,具体如下:①可解释性缺陷。神经网络的本质是依靠经验的曲线拟合,“黑箱”疑难始终存留,缺乏能够说明神经网络因果性的系统性理论,“因为然,所以然”式的解释明显不符合人类对科学以及智能的理解。②难以得到全局最优解。事实证明,神经网络的最优解往往都是局部最优解,只能沿着全局最优解的方向前进,却很难得到全局最优解。这是NP完全问题在神经网络中的体现。③人工神经元比较“低能”。几十年来,神经网络所采用的人工神经元没有太大改进,基本上依然是“M-P神经元模型”,而脉冲神经网络中LIF(Leaky Integrate and Fire)等神经元模型,目前几乎没有实际运用。然而,最新的研究表明,人类大脑的单个神经元就能够完成极其复杂的运算,包括“异或”运算(单个人工神经元无法完成),生物神经元的能力远超人类的想象。[11]除此之外,作为表现神经元功能的激活函数,在近几年虽出现得越来越多,效果不断增强,如Gelu函数,但没有任何一个激活函数可以与真实神经元的情况相类似。

3.EAI对人类学习机制的两种支持性效应

(1)学习机制的一般性规律

依据以上对学习机制(包括人类学习机制和机器学习机制)的分析,无论是从基于逻辑结构的学习机制(信息加工理论与符号主义理论)出发,还是从基于物理结构的学习机制(认知神经科学理论与连接主义理论)思考,机器学习机制同人类学习机制之间都存在着显著的共性,这就阐释出“EAI能够促进人类学习”最重要、最本质的原因。逻辑结构层次上,所有的学习发生机制都是通过学习主体(人或机器)的一系列心理操作对外部知识信息进行内部加工(以符号形式)的过程。物理结构层次上,所有的学习运作机制都是学习主体(人或机器)的大脑根据外部知识信息,调整、建立神经网络结构,最终形成平衡的神经网络结构系统的过程。这就是学习机制的一般性规律。

(2)EAI对信息加工过程的延展效应

EAI改进基于逻辑结构的人类学习机制,着重表现为EAI对信息加工过程具有延展效应。信息加工过程分为信息输入、信息处理、信息输出、信息反馈四个流程,以系统论的观点来看,每个流程实际对应了一个符号系统,分别为输入系统、处理系统、输出系统、反馈系统。所谓EAI的延展效应,就是EAI能够通过人工智能技术延展这四个信息加工系统,具体如下:①延展输入系统。学习输入环节开始于感受器受到了外界环境的刺激,教学媒体理论观点认为,感受器官(如眼、耳、手)是接受外界信息的媒介。目前的学习输入,主要是教师展示多媒体学习内容,学生的视听感官接受刺激。近年来,已出现可以模拟人类各种感官的人工智能产品,通过该产品可使多种感官同时受到刺激,提高学习效率,从而延展了输入系统。②延展处理系统。处理系统对外界信息进行处理,得到有意义信息,然后在原有知识结构的基础上,利用这些外界的有意义信息,整理、优化原有知识结构,进而产生新知识。人工智能技术通过机器的智能解析、智能决策等关键技术,替代或部分替代原有处理系统的一些工作,从而延展了处理系统。③延展输出系统。目前,学生学习输出的信息主要以交流、提问、作业、考试等形式表现,这种获得多是显性学习结果,难以全方位判断学生的认知状态、思维框架构建、知识深层次理解等情况。人工智能技术通过智能识别、自然语言理解等关键技术,支持测量学生的隐性学习结果(如一些非结构化的、复杂的、中间过程性的数据),从而延展了輸出系统。④延展反馈系统。人工智能技术通过智能诊断,鉴定出学生的学习基础、学习风格和特点、学习需求等,实时监控和调整学习者的元认知、理解过程等自我认知发展,使学生与机器共同协商去解决问题,促进了学生更高水平的认知出现,从而延展了反馈系统。

(3)EAI对大脑神经网络结构的强化效应

EAI改进基于物理结构的人类学习机制,着重表现为EAI对大脑神经网络结构具有强化效应。前文说到,学习活动之所以能顺利运作是建立在大脑与内部因素(大脑、心理)和外部因素(身体、社会)的相互作用基础上的,所有这些作用的发挥都离不开大脑的调控,离不开大脑神经网络结构系统的协调与统筹。从基于物理结构的学习机制的视角来看,机器的神经网络结构模仿了人的大脑神经网络结构,学习是一个大脑神经网络结构不断优化的过程,最终形成能解决当前问题下不平衡状态的大脑神经网络结构系统。所谓EAI的强化效应,即EAI近似于大脑的运作过程,分担并帮助了大脑的神经活动,增强大脑神经网络结构的组建能力。这种组建主要表现为学习者对大脑神经网络结构的激发、构建、重组,具体如下:①激发旧神经网络结构。先前知识经验存储于旧的神经网络结构,当学生面对一个新的问题情境时,会首先激发、回调相关联的旧神经网络结构,提取出存放的知识,将之与新信息对照。所以说,学习机制的运作是从已有神经网络结构的激发开始的。②构建新神经网络结构。学习时,学生会联系已有关联性知识去试图领会新信息,之后往往生产出面对当下问题情境的新意义,这些新意义的产生就是一个个新神经网络结构的建立,并联结到一起的结果。要注意的是,这种变化不是连续的,更不是一步到位的,而且若学生的知识框架被重塑,他的参照性旧神经网络结构也很大可能被重构。③重组新旧神经网络结构。新的神经网络形成后,它也必须时刻处在可调用的状态。正因为大脑不断整理它的“存货”,才能达成实时、动态的重组。这种新旧结构之间的重组会提供应对新的问题情境的方式,从某些意义来说这种重组是一种学习的完结,同时也是一种更新、更高层次的学习的起步。通过重组机制,脑就能不断地适应新环境,获得新知识,就能发展出最佳的大脑神经网络结构系统。人工智能技术通过接近的神经网络结构(如CNN卷积神经网络结构),使大脑整个运作过程的效率得到提高,从而显示出EAI对大脑神经网络结构的强化效应。

三、总结

本文探索了EAI对人类学习机制的两种支持性效应,EAI同时具有对学习发生过程的延展效应以及对学习运作过程的强化效应,前一个过程实质是基于逻辑结构的信息心理加工过程,后一个过程实质是基于物理结构的大脑神经网络结构改组过程。

参考文献:

[1]闫志明,唐夏夏,秦旋,张飞,段元美.教育人工智能(EAI)的内涵、关键技术与应用趋势——美国《为人工智能的未来做好准备》和《国家人工智能研发战略规划》报告解析[J].远程教育杂志,2017(1):26-35.

[2]国务院印发《新一代人工智能发展规划》[J].广播电视信息,2017(8):12-13.

[3]南京大学人工智能学院.南京大学人工智能本科专业教育培养体系[M].北京:机械工业出版社,2019:2.

[4] (美)理查德·E.迈耶.多媒体学习[M].北京:商务印书馆,2006.1:66.

[5]经济合作与发展组织编,周加仙等译.理解脑——新的学习科学的诞生[M].北京:教育科学出版社,2014.12:17.

[6](美)M.S.Gazzaniga主编,沈政等译.认知神经科学[M].上海:上海教育出版社,2009:6-9.

[7]周志明.智慧的疆界——从图灵机到人工智能[M].北京:机械工业出版社,2018.10:66-113.

[8]林艳.人工智能的符号主义纲领及其困境[J].求索,2019(6):186-193.

[9]刘欣.皮亚杰儿童智力发展理论述评——兼论基于建构主义的人工智能[J].人工智能与机器人研究,2020(1):1-7.

[10]Zhengfeng Ji.,et al.(2020)MIP*=RE.arXiv,1[DB/OL]. https://arxiv.org/abs/2001.04383.

[11]Gidon Albert,Zolnik Timothy Adam,Fidzinski Pawel,Bolduan Felix,Papoutsi Athanasia,Poirazi Panayiota,Holtkamp Martin,Vida Imre,Larkum Matthew Evan. Dendritic action potentials and computation in human layer 2/3 cortical neurons[J]. Science (New York, N.Y.),2020,367(6473).

(编辑:王天鹏)