ChatGPT教育应用的伦理省思

2023-12-06 04:00李永杰
内蒙古财经大学学报 2023年6期
关键词:伦理人工智能教育

李永杰

(内蒙古财经大学 商务学院,内蒙古 呼和浩特 010070)

2022年11月30日,位于加州旧金山的软件公司OpenAI向全世界发布了一款人工智能聊天工具ChatGPT。在随后半年的时间里,ChatGPT作为生成式人工智能的典型代表,被广泛应用于包括教育在内的多个领域。围绕ChatGPT所具备的显在和潜在教育功能,多国学者展开了激烈的讨论。那么,作为人工智能技术的里程碑,ChatGPT及其类属产品会将教育带向何方,是伊德笔下“创造美丽佳景的乌托邦”还是“令人望而生畏的敌托邦”[1]呢?换言之,在数字时代,ChatGPT的教育融入将引发怎样的系统性革新,同时又可能触发哪些伦理风险?本文试对上述问题做一梳理和回应。

一、ChatGPT教育应用的主要方式

ChatGPT是一个基于神经网络的“大型语言模型”(Large Language Model,LLM),它的超越性优势在于能够采用自然语言处理方式 (Natural Language Processing, NLP)实现与用户的对话。目前,在教育实践领域,ChatGPT已经被应用于课程、教学、学习和评估等多种不同类型的活动之中,其所具备的教育效能也在多个层面有所显现。

(一)创生课程资源

ChatGPT带来了内容生产方式的全面革新,它的教育应用有利于提升课程资源的精准度、灵活性和适配度。具体而言,ChatGPT对课程资源创生的优化作用主要体现在以下方面。一是实现数据信息的任务型筛选。ChatGPT可以通过上下文对话来分析教师意图,进而从知识库中按照特定规则遴选并呈现匹配性较高的数据信息。二是实现知识素材的交互式加工。ChatGPT可以和教师以对话的方式合作完成知识素材的提炼,尤其可以通过挖掘那些潜藏于数据之中的不明显关联来为课程资源建设提供独特视角,这极大地突破了人脑信息加工的有限性。三是实现材料内容的多模态输出。ChatGPT能够完成结构化数据和非结构化数据的并行加工,当它与其他应用组合时,不仅可以生成文字,还可以生成图片、视频、演示文稿、代码、网站等多种表达形式,方便快捷地实现课程资源的多模态呈现。综合来看,ChatGPT有助于推动课程资源建设机制的深度革新。

(二)辅助教学活动

ChatGPT能够创造性地解答用户问题,提供具有针对性的意见和建议,这为实现教学工作的减负增效提供了重要的专业支持。首先,ChatGPT可以助力教学准备的集约化开展。在备课的过程中,教师不仅可以利用ChatGPT来梳理思路、生成教案和编辑课件,而且还可以应用ChatGPT来模拟课堂对话,在更加充分地预判学情的基础上做好教学设计工作。其次,ChatGPT可以协助教学过程的智能化组织。ChatGPT所具有的跨领域自然语言理解与生成能力为智能教学系统提供了新型的“能力基座”,它方便教师开展对话辅导、技能训练、讲授演示、协同创作、交互评价等多样化的活动[2],既可以拓展教师开展教学活动的方式,又可以促成多项教学活动的有机衔接和柔性切换。再次,ChatGPT还可以促进教学辅导的个性化实施。借助ChatGPT,教师能够实现教育角色的“自动化分身”,从而为不同的学生提供随时随地的个别反馈和特定帮助,这不仅可以提高学业指导的针对性和实效性,还可以为学生提供一定的心理和情感支持。可以说,ChatGPT的教学融入,为优化教师教学工作创造了复合交互的现实条件。

(三)定制学习方式

ChatGPT基于学习训练和多任务提问来服务于学生学习方式的定制化转变,其影响已经远远超越了尼葛洛庞帝曾在世纪之交做出的大胆预期——“如果我第一次说的时候,你没听明白,那么就让我 (机器)换个方式,用卡通或三维立体图解演给你看。这种媒介的流动可以无所不包,从附加文字说明的电影,到能柔声读给你听的书籍,应有尽有。这种书甚至还会在你打瞌睡时,把音量放大”[3]。而今,ChatGPT对学习方式的支持呈现出更为综合和精细的特点,其作用集中体现在如下方面:一是支持个性化阅读与写作。ChatGPT最突出的特点就是通过大数据的调用生成适切的素材,进而帮助各级各类学生理解和掌握抽象的概念知识;不仅如此,ChatGPT还能根据学习者的发问方式自动规划提纲、甄选资源、组合材料信息并生成作业文稿。二是支持混合式小组协作学习。在新型的小组学习中,ChatGPT不仅扮演着 “智能学伴”的角色,可以根据上下文情境提供资源、思路和建议;与此同时,ChatGPT还发挥着“合作枢纽”的作用,它能够为小组成员提供主题材料、讨论结构和实时反馈。三是支持远距离差异化学习。对于远程学习,ChatGPT可以生成伴随性问题,并根据学生的知识水平提供实践主题、材料解释和发展建议,以便他们可以按照自己的节奏学习[4]。总而言之,作为一种大型语言模型,ChatGPT为个性化的学习体验提供了新颖独特的机会。

(四)推动评价创新

ChatGPT的教育应用,为教育评价改革提供了新思路和新方案。首先,ChatGPT可以提升自动化评价的服务能力。根据教师的要求,ChatGPT能够生成交互式的课堂测验或是抽测卡,还可以针对需要评测的内容生成多项选择题和相应的配套答案。这种自动生成的评估测验不仅减轻了教师手工设置的负担,而且还为学生学习教科书和完成应考训练提供了支持性的工具。其次,ChatGPT可以实现自适应反馈。基于智能化的分析方法,ChatGPT可以对测评结果进行量身定制的反馈,及时推送符合学生学习需要的材料,它甚至还可以根据用户的学习习惯和学习特点自动调整学习资源,进而帮助学习者提高学习效率。再次,ChatGPT可以改进教育的过程性评价。作为升级版的人工智能工具,ChatGPT能够将学生的语言表达转换成可记录的文本,从而为更精细的学习轨迹分析提供依据。总之,ChatGPT应用于教育评估活动,凭借其拥有的自动评分系统、自动推荐系统和自动知识图谱系统,不仅为提升教育评价的可操作性提供了强有力的技术支撑,而且对改进教与学的效果也有着正向的影响。

二、ChatGPT教育应用的伦理风险

ChatGPT的教育应用引发了全球的热烈讨论,这其中不乏质疑、忧虑和批判的声音。享誉世界的著名语言学家诺姆·乔姆斯基(Noam Chomsky)表示,ChatGPT“本质上就是高科技剽窃”和“一种避免学习的方式”[5],美国佛罗里达州诺瓦东南大学哲学助理教授杰里米·韦斯曼(Jeremy Weissman)则指出,“ChatGPT是对教育的一场瘟疫”[6]。事实上,学者们关切乃至争议的焦点并非ChatGPT的技术功能本身,而是在于其所带来的伦理风险。

(一)主体精神的衰微

增持人的能力,这是各类技术手段被应用于教育活动的根本出发点。然而,回溯近代以来的教育技术发展史,从电影、幻灯、广播、录像、电视到计算机和互联网,似乎每一种技术在实现“人体延伸”的同时,也持续制造着教育的人道主义危机——技术手段对人主体精神的宰制。在新的历史条件下,ChatGPT的教育应用可能使这一危机再次升级。

ChatGPT通过“类人化”的方式参与教与学的活动,极大地降低了人与技术互动的门槛,而这一门槛的降低非常容易导致教育者和学习者产生“模型依赖”[4],进而迫使个人的主体性走向衰微。具体而言,一方面,ChatGPT作为教学活动的智能助理,它的不当介入可能消弭教师的自主性和创造性。另一方面,ChatGPT作为学习的智能伙伴,它的过度参与也会引发学习者主体性的萎缩。面对学业问题的咨询,ChatGPT总能提供答案,这不仅会导致学生“认知结构的浅薄化”与“认知思维的同质化”[7],而且还可能影响学生的冒险精神和探索勇气[8]。令人深感忧虑的是:ChatGPT在教育领域中的恣意扩张,很容易引发利益相关者自由意志的衰减,进而被动卷入到海德格尔笔下“预置”的去弊方式[9]。

综合来看,倘若师生不能很好地认清ChatGPT及其类属产品的局限性和伦理影响,产生了对ChatGPT及其类属产品的不适当依赖,那么主体性式微的风险就近在眼前了。

(二)道德责任的弱化

技术使用是负载道德责任的。随着人的行为不断被技术化,人的行为能力得到了进一步的拓展,相应地,要求随之加大道德责任的呼声也日益强烈[10]。进入21世纪之后,类人化的智能技术产品使道德责任的伦理问题变得更为复杂。

作为一种对话式的人工智能,ChatGPT的教育应用分化了教育活动中的道德责任,“谁来负责”和“如何负责”凸显成为教育界的棘手难题。具体而言:一是“算法黑箱”导致的责任边界模糊化。ChatGPT作答的过程就像是某种“技术黑箱”,具有不透明性和不可解释性。换言之,教师和学生可以得到来自ChatGPT的反馈,但是这一反馈的依据来源和建构过程都是不可获取的。国内外的研究都反映出:面对五花八门的教育问题,ChatGPT时常会“一本正经地胡说八道”,给出令人啼笑皆非的作答;不仅如此,ChatGPT提供的参考文献,有的存在缺误,有的张冠李戴,还有的根本就是搜索无果。但由于算法非透明,这不仅使得结论真伪混杂,而且也使得责任划界几乎无从谈起。二是“身份失能”导致的责任主体缺位化。在组织教学和评估学生时,ChatGPT的确能够拓展新的方式方法,将很多可能性带入教育领域。然而,作为ChatGPT的创造者和维护者,OpenAI并没有义务在维护和访问其模型时满足教育机构的专属需求[11],一旦ChatGPT造成伦理伤害,大型语言模型自身无法承担道德责任,而OpenAI似乎也游离在问责范围之外。这样一来,ChatGPT就使教学和学习的活动出现了责任主体的部分“真空”状态,道德规范的建设和监管就变得困难重重。三是“数据固态”导致的责任结果盲区化。ChatGPT需要基于已有的数据库来展开工作,其在信息的准确性、实效性、前沿性方面存在着天然缺陷:尽管算法的迭代发展赋予ChatGPT强大的数据处理和加工能力,但ChatGPT提供的结果充其量只能与它们所训练的数据一样好;如果训练数据不足或质量较差,则很可能会导致ChatGPT生成的文本内容存在事实性错误、概念误用甚至捏造信息等问题[12],这对人才培养和学术研究造成的损害可能是无法估量的。

不难看出,ChatGPT的教育参与,使得主体道德责任变得复杂、模糊和泛化。由于教育活动效果具有长期性和滞后性,因而一些负面影响可能会在很长时间之后才显现出来,这对教育健康发展无疑构成了巨大挑战。

(三)学业诚信的消解

教育是一种道德性实践,“学业诚信”是学校教育的题中之义,它直接关系到每一位学习者人格品质的养成、完善与发展。进入21世纪以来,信息技术的日新月异及其在教育领域应用的不断拓展,使得学业诚信受到越来越多来自技术手段的挑战,这也随之引发了各国教育者的关切。

当前,ChatGPT应用于教育,最普遍的担忧和最激烈的声讨就集中于其对学业诚信生态所构成的威胁。一方面,借助ChatGPT,学生可能会成为自欺欺人的积极行动者。如果将“抄袭”定义为仅仅通过重新措辞来复制他人作品的行为,而不考虑使用的方法,也不添加任何个人内容,这就是对学术诚信的严重侵犯[13]。一项针对美国大学生的调查数据显示:有89%的大学生选择使用ChatGPT来完成作业[14]。这一调查结果不仅引发了美国高等教育界的忧虑和不安,而且也在全球产生了“一石激起千层浪”的巨大反响。另一方面,采用ChatGPT,学生也可能会沦为错误信息的消极承担者。对于学习咨询,ChatGPT需要摄取数据库中的数据,而囤积于数据库中的海量数据往往良莠不齐,这就使得ChatGPT做出的判断并不总是值得信赖的。因而,缺乏了知识产权和数据品质的保障,使用ChatGPT的学生可能毫无防备地接收了讹误信息,进而成为诚信生态恶化的间接受害者。

教育服务于整全生命的培养,培育学生诚信品质是教育工作的道德使命,为学生发展维护诚信学习的环境亦是教育工作的基本伦理遵循。ChatGPT在降低资源获取门槛的同时,也加剧了学业诚信的监管难度,学生可能有意或是无意地成为诚信失范者,教师也不得不花费更多的时间精力来防范由ChatGPT所带来的学业失信问题。

(四)技术鸿沟的加剧

在教育领域,技术使用所催生或是所扩大的“马太效应”,构成了长期存续的伦理难题。边缘群体的“再边缘化”,往往成为技术纳入最令人沮丧的负效应。

ChatGPT创造了新的连接方式并极大地拓展了教育的活动空间,而与此同时,它也有意无意地成为了教育技术鸿沟的“助推手”。首先,并非所有的国家都能获得平等使用ChatGPT的机会。到目前为止,OpenAI 仍然限制四十多个国家用户的使用,这显然和它所宣扬的开放获取精神是名不副实的。其次,即便是获准使用的国家,由于经济发展水平的差异,高收入国家和低收入国家之间可获得的潜在机会也并不平衡[15]。尽管ChatGPT的收费有所降低,但对于教学、学习和科研而言,如果放任资本权力的强势运行,那么资本的逐利本性只会持续拉大不同群体之间的差距:一些人会成为“技术加持”的利益既得者,另一些人则会沦为“技术反噬”的利益受损者。再次,技术鸿沟加剧的风险,不仅存在于国家之间,而且也存在于个体之间。正如有学者指出的那样:在智能时代,教育领域中拥有更多资金资源支持的年长专业人员与初入职场的年轻专业人员相比,后者显然处于不利地位,这将为科学知识生产带来不可预测的后果[15]。事实上,受到经费、视野以及技术准备度等诸多因素的影响,ChatGPT在扩大学习者的差距方面也有着消极的潜在影响。

总而言之,对于教育的发展而言,ChatGPT在给予人们以希望和憧憬的同时,也引发了诸多的伦理难题和道德争议。正如有学者所指出的那样:新的技术基础将导致教育系统运行模式与生态结构的重大变化,教育伦理学需要缜密思索技术革新带来的新问题和新挑战,从而引导教育技术应用的价值方向,纠正和反省可能出现的价值偏差[16]。

三、ChatGPT教育伦理风险的纾解进路

教育致力于培养人们获得面向未来并驾驭复杂未来的能力,这就意味着教育工作不仅不能回避,而且必须要积极寻求与以ChatGPT为代表的人工智能的协同合作。当下,一项紧迫的任务在于“定义并阐明人工智能在学习和教育环境中的作用以及它与人类学习和认知关系的协商空间”[17],那么,ChatGPT及其类属产品的教育应用如何才能是合宜且正当的呢?其伦理风险的纾解路向集中在如下方面:

(一)加速教育伦理标准研制

ChatGPT引发的教育新问题,让越来越多的教育工作者意识到开展教育伦理标准研讨的现实性和紧迫性。正如美国学者迈克斯·泰格马克所指出的那样,“如果我们在教给强大的智能机器基本伦理标准之前,在某些标准上达成了共识,那一切就会变得更好”[18]。伦理标准的建设需要在两个层面上加以深入系统地探讨,一是研制或是完善一般性的、普遍适用的教育道德规范和行为准则。ChatGPT及其类属产品将促使人们重新思考教育中诸多根本性的价值问题,例如真实、诚信、公正、尊重、安全等,如何抑恶扬善以最大地增进教育者和学习者的福祉,这需要对具有普遍道德性质的问题进行厘清和划界,并在此基础上寻求构建国际国内的广泛共识。二是制定具有针对性的教学伦理以及学习伦理的道德规范和行为准则。面对ChatGPT对科研工作的介入,全球顶尖的科学杂志《自然》编辑部做出了快速反应,该杂志及其子刊声明大型语言模型工作不能作为研究的合作者,但研究者可以在工具使用部分或是致谢部分记录他们的技术应用。随后,一些知名期刊也纷纷发表类似声明。而与出版行业形成对比的是,教育业界的反应相对迟滞,ChatGPT带给教与学的变革性影响无疑是巨大的,但是与教学相关的伦理规范、动机目标、责任义务和行为效果的探讨还十分有限。对于ChatGPT的健康有序应用而言,善恶标准是什么?核心指导思想是什么?行动规则又是什么?这都需要加以系统考虑,并尝试建立一套规范性的教育伦理准则。总体而言,无论是在教育的一般层面还是在具体的教与学的行为领域,加速伦理标准的研制出台,都具有极为重要的现实意义。

(二)提升师生人工智能素养

在智能时代,教与学的活动越来越离不开人工智能技术的介入和参与,为了更好地释放ChatGPT及其类属产品的教育之善,教师和学生需要具备相应的人工智能素养,包括“智能知识、智能能力、智能思维、智能应用以及智能态度”[19]。那么,如何才能切实有效地提升广大师生的人工智能素养呢?一是可以为所有适龄学生增设人工智能公修课程。2022年2月,联合国教科文组织发布了《K-12 人工智能课程:政府支持的人工智能课程蓝图》,其对基础教育领域中的人工智能课程进行了国别比较和情况分析。事实上,高等教育领域与基础教育领域的情况类似,不同年龄段的学生都迫切需要以“课程”的形式来获得与包括ChatGPT在内的人工智能产品的友好相处方式。二是努力为一线教师配置服务支持型的专家团队。对于教师智能素养的提升而言,专家的引领作用非常重要,但“专家团队不应成为特定时间和特定地点里宣读‘圣谕’的权威,而应该成为真正能够长期服务于教师需求的咨询者、支持者和帮助者”[20]。三是为全体师生举办智能科技教育应用的校本普及宣讲活动。继ChatGPT之后,谷歌、微软、百度等科技公司相继发布了自己的对话式AI产品,高等院校和基础教育学校均可以采用校企合作或是产研结合的灵活方式,将技术发展和应用的前沿信息带给广大的师生。总而言之,进入智能时代,师生并非天然的“数字原住民”,他们需要不断提升人工智能素养,以更合道德且有意义的方式使用ChatGPT。

(三)完善学习诚信监管机制

发挥ChatGPT良好的教育服务功能,需要构建完善的教育监管机制作为保障。具体可以从“结果检测”和“过程监测”两个方面入手:其一,加强成品作业的诚信度检测,构建混合式的教育管理举措。面对ChatGPT的教育“加盟”,一些学校研发了专用工具用以判断学生的作业是否由ChatGPT生成;然而,优质的诚信检测方式不能“让专业知识靠边站”,更不能将决定权放在程序员手中而使责任制“黑箱化”[17]。因此,成品作业的诚信度检测一方面需要依托人工智能“防火墙”,积极利用技术监督预警功能;另一方面,还要充分唤起教育者和管理者的主体性,要始终尊重并重视专业标准和专家判断,坚持发挥教育者的主体性、能动性和创造性。其二,开展学习过程的跟进式监测,激励受教育者提升自我教育能力。为了避免学生过分依赖ChatGPT完成作业,有学者提出:可以要求学生提交作业提纲与迭代的草稿,草稿需要保留教师的指导意见和反馈;可以让学生运用一些协同共享文档完成论文作业,保留作业的不同版本;可以组织学生讨论ChatGPT等辅助生成的论文,辨析其可接受性和不可接受性[21]。总而言之,无论是“结果检测”,还是“过程监测”,教育的根本目的还是为了引导学生能够积极地自我完善,这需要管理方式的革新能顺势而为、因势利导。

(四)开展技术伦理专项宣传

随着以ChatGPT为代表的生成式人工智能的教育融入,开展技术伦理宣传教育已经迫在眉睫。究其根本,技术应用不只是简单的手段改造或是产品推广过程,而且还是人与自我、人与他者以及人与社会关系的变革过程。尤其特别需要指出的是:师生使用技术的依据,只是在部分意义上取决于对技术性能的考察,而另一部分甚至可以说在更大程度上则需要取决于对技术之外的各种社会规范的重视和兼顾。在此基础上,学校技术伦理教育内容要能够涵盖那些最核心的价值议题,包括教育者和学习者的道德责任,技术选择的优先标准和决策标准,技术应用的伦理风险评估,教育行动和学习行动的经济性、发展性与社会性,社会风尚、公共福祉和可持续发展等等。除此之外,技术伦理教育还应重视引导师生保持对技术使用实践的自省和反思意识。由于采用了自然语言处理模式,ChatGPT及其类属产品进一步消解了人技协作的“感知”边界,这极容易导致教师和学生对“剽窃”“欺骗”“失德失范”等产生认识上的混乱,进而影响教学、学习和科研工作的有序开展。因此,培育师生的自省意识,应该成为学校开展技术伦理教育的重要组成部分。

总体而言,生成式人工智能已经成为当下和未来推动教育革新的强大技术力量,继ChatGPT之后,微软的NewBing、百度的文心一言以及谷歌的Bard也相继投入使用。在实践中,ChatGPT类属产品的确可以为教育内容选择、教学交流指导、学习方式变革和教育评价创新提供新的机会,但同时也引发了全球教育界对技术滥用的新担忧。《2023地平线报告(教与学版)》明确指出:生成型人工智能加剧了人工智能的伦理辩论,教育者有责任让学生做好准备,进而能够合乎道德和负责任地与生成式人工智能技术进行互动[22]。面向未来,做好生成式人工智能教育应用的伦理风险预防,力争超越“乌托邦”与“敌托邦”的对峙,还有待更多的理论思考和更为深入的学术对话。

猜你喜欢
伦理人工智能教育
国外教育奇趣
《心之死》的趣味与伦理焦虑
题解教育『三问』
护生眼中的伦理修养
教育有道——关于闽派教育的一点思考
2019:人工智能
人工智能与就业
办好人民满意的首都教育
数读人工智能
下一幕,人工智能!