人工智能教育应用伦理的核心议题与应对之策

2023-07-17 04:15方海光舒丽丽王显闯
中小学数字化教学 2023年7期
关键词:人工智能教育隐私保护伦理道德

方海光 舒丽丽 王显闯

摘要: 以ChatGPT为代表的生成式人工智能对教育已经产生了深刻影响。尽管人工智能在教育领域中具有许多潜在优势,但也引发了一系列伦理问题,如教育道德、隐私保护、透明度与公平性、知识产权和版权保护等。为充分利用人工智能教育优势,人类必须认真研究人工智能教育的伦理问题。这需要政府、学校、机构、企业等多方协作,共同参与制定政策和法规,确保人工智能教育的安全性、公正性和道德性。教育研究者也要不断深化人工智能教育应用研究,使人工智能真正为教育变革带来持续的助力。

关键词:人工智能教育;ChatGPT;伦理道德;隐私保护;伦理约束

当前,教育领域人工智能伦理研究成为人工智能教育应用研究紧迫且重要的内容之一。为此,我国新一代人工智能治理专业委员会于2021年9月发布了《新一代人工智能伦理规范》,联合国教科文组织于2021年11月发布了《人工智能伦理问题建议书》。实际上,人工智能迅速发展使其应用领域不断扩大,特别是在教育领域,人工智能正在以新的方式促进人类的思维方式和学习方式变革。一方面,传统上我们认为的人工智能的弱项,如内容创作、艺术创作等,正逐一被基于大数据和大模型的深度学习算法优化而克服;另一方面,以ChatGPT为代表的生成式人工智能的超预期提前实现,成为人工智能发展的重要里程碑。在教育教学领域,伴随着人工智能技术不断渗透、应用于课堂内外,人工智能已全面融入教育的教、学、管、评、测等各个环节,引发了教育教学方式的深刻变革。但在应用过程中,研究者们也深刻意识到人工智能教育应用存在着潜在的风险和伦理道德问题。

一、人工智能教育应用伦理问题日益凸显

技术是一把“双刃剑”,而人工智能是一种特殊的技术。实际上,对人工智能的应用本身并不能保证教育变革的正确方向,人工智能系统在整个生命周期内的任何进程决策,也无法保证都能适切地满足教育的需求。因此,如何确保人工智能与人类教育的协同发展演化,成为一个基础性问题。人工智能教育应用是利用人工智能技术辅助教育教学全过程,改善师生活动方式和评价方式,优化教育教学效果的理论与实践。对人工智能教育应用伦理问题的研究基于人类与人工智能的相互关系。在人机协同教育理论的基础上,随着人工智能技术的演化和应用程度的加深,人工智能越来越多地参与到人类教育的决策过程中,其发展演化过程分为三个阶段。

(一)以人为主导的教育决策阶段

在这一阶段,人们仅仅把人工智能视作教育工具来使用。人完成主要工作和解决问题,机器为辅助。比如,教师在教学过程中使用人工智能一体机教学,教师依旧是整个教学活动的主导者和人工智能工具的选择使用者,人工智能教育应用的伦理问题仍集中在人的身上。

(二)平等参与教育决策阶段

在这一阶段,教师和人工智能是平等的角色,人工智能可以辅助教师完成决策,并适当地为教师分担一定的教学工作。但是,当人工智能参与教育决策时,会不可避免地对学生的教育和成长产生一定影响,而学生的成长本身是充满未知的,无法用单一的决策决定学生的成长。也就是说,学生在成长中是可以犯错的,但机器并不允许犯错。这时,人工智能教育的伦理问题就比较突出。

(三)深度影响人类教育决策阶段

在这一阶段,机器具有一定的主观性,课堂教学活动的发起可由教师完成,也可由人工智能完成。比如,当前的“双师课堂”,教育机器人和教师共同完成课堂教学活动,虽然教师依旧是课堂的重要决策者,负责监督整个教学决策,可一旦把教学决策放权给人工智能,那么人工智能在这个过程中就会涉及教学目标之外的内容,对学生的成长产生较大影响。所以,如何让教师把握住教学的主动权,是我们在研究人工智能教育应用伦理的过程中必须考虑的一个重要问题。

在人工智能教育应用的不同阶段,其所面临的问题和挑战也不尽相同,经过系统的文献分析和大量的教育實践总结,我们认为人工智能教育应用伦理主要涉及教育道德、隐私保护、透明度与公平性、知识产权和版权保护等核心议题。

二、人工智能教育应用伦理的核心议题

人工智能教育的伦理问题可分为道德和伦理两个层次。传统上来看,道德更趋向于个体,而伦理则更趋向于群体,其中又伴随着个体的影响。当我们把人工智能应用到教育领域时,会出现三类伦理问题:人工智能的伦理问题、教育的伦理问题、人工智能教育的伦理问题。这是因为,人工智能是自然科学体系中的内容,而教育是社会科学所要考虑的内容。当我们用自然科学的内容解决社会科学领域的问题时,就会带来新的矛盾,从而使伦理问题变得更为复杂。

(一)教育道德

人工智能的教育应用需要尊重学生的自主性和个性差异,符合学生群体的认知规律,而不能将学生简单地视为数据加工的对象。只有技术应用合乎道德规范,人工智能在教育领域中的价值和作用才能得到更好的发挥。因此,人工智能教育应用需要强调并融入教育道德标准。以ChatGPT为例,最初是由美国开放人工智能研究中心(OpenAI)研发的大型语言模型,并不具有任何的伦理道德方面的“认知”。它通过学习大量的文本数据并按照统计学的概率生成问题的回答,这就导致了学生在使用过程中容易获得大量的有害内容。

(二)隐私保护

在教育中应用人工智能技术,不可避免地会收集学生的个人信息,如姓名、年龄、性别等,以便为他们提供个性化的学习服务。在推广人工智能教育的同时,开发者和使用者如果没能重视教育隐私保护问题,并采取相应的措施来确保数据的安全性和隐私性,很可能造成学生个人信息被滥用。比如,一些学者担心将学生的信息输入ChatGPT后,虽然在一定程度上能帮助自己做教育决策,更好地开展因材施教,但是这些与学生息息相关的数据可能被人工智能系统的研发人员未经学校及家长许可就用在别处,也有可能被黑客盗取并利用它们进行各种不法活动,给学生带来伤害。

(三)透明度与公平性

保证透明度和公平性是一个先进、开放、可持续的教育体系的必要条件。人工智能的决策依据往往是算法,而算法是可能存在偏见或歧视的。这是因为我们所说的“算法”其实是由人编写的,算法的结果也会受到编写者的影响,进而使决策产生偏差。例如,一个数据集可能存在隐含的偏见或歧视,当这些数据被用来训练机器学习模型时,模型的结果也会带有这些偏见或歧视。因此,人工智能教育的透明度和公平性问题至关重要,如果人工智能教育的过程不能被公开或存在不公平问题,将会对整个教育结果产生恶劣的影响。

(四)知识产权和版权保护

作为一种创造性活动,人工智能教育应用的研发涉及很多原创内容以及算法和程序,需要遵守知识产权的相关规定,并确保合法使用这些资源。以ChatGPT为例,它所生成的内容往往是对已有文本的拼接,在生成的回答中我们只得到了最终结果,而对于这个结果是如何产生的,尤其是引自哪里并未有所提及,这就导致了知识产权和版权保护等问题的出现。

三、人工智能教育应用伦理问题的解决对策

人类的学习不是完全程序化和形式化的过程,它同时还受历史观、信息观、情感观、家庭观等一系列因素的影响。人工智能教育应用也注定是一个复杂的混合性问题。因此,在研究人工智能教育的伦理问题时,我们要取得社会科学和自然科学思维体系的平衡。

(一)注重人工智能教育应用的道德监管

首先,应坚持以人为本的原则。人工智能教育的开展,应尊重学生的个体差异和发展需求,关注他们的情感、思维和行为表现,避免简单的“刻板印象”和歧视性言论,确保不会伤害到学生的身心健康和切身利益。其次,应强化道德引导和监管机制。人工智能教育的开展,应注重培养学生正确的价值观和道德观,鼓励学生积极参与社会实践,增强社会责任感和公民意识。最后,应建立健全监管机制。对违反道德规范和法律法规的行为,要及时纠正和惩处。以ChatGPT为例,为满足社会约定俗成的伦理道德标准,OpenAI研发了名为reword的模型。该模型具有激励惩罚机制,以人工标注打分的方法使其形成符合伦理道德标准的内容,以此规避在教育应用时的潜在风险。这种标注方法虽然不可避免地还存在一些主观因素,但从结果来看,已能够在一定程度上剔除对学生有害的生成式内容。这也为其他人工智能产品在教育领域中的应用提供了一种可借鉴的处理方式。

(二)注重人工智能教育的数据隐私保护

首先,要保证学生的个人信息安全。学生在接受人工智能教育过程中会产生大量数据,如学生个人基本信息、学习轨迹、学业成绩等,这些信息必须得到严格的保护,避免泄露、滥用或者篡改。其次,要明确收集和使用学生数据的目的与范围。在涉及学生隐私的情况下,任何的数据收集和使用都必须遵守法律法规,并且必须得到学生及其家长的明确授权和同意。学校和相关机构也应为学生提供保护个人隐私的知识和培训,以增强他们保护自身隐私的意识和能力。最后,要加强技术手段的保障。针对人工智能教育的特点,教育管理部门应建立健全数据管理制度和技术安全保障体系,采用加密、匿名化、去标识化、脱敏等技术手段,尽可能减少学生个人信息的泄露风险,同时加大对不法分子盗取相关教育信息的惩处力度。

(三)确保人工智能教育决策的透明度与公平性

首先,要保证基于人工智能的决策具有可解释性。这意味着教育机构必须向用户或学生清晰地解释和展示其决策过程,让他们了解决策背后的原因和依据,从而能够更好地发现人工智能教育应用过程中存在的偏差或缺陷。其次,要确保人工智能技术应用的透明度。使用人工智能技术的教育机构应提供足够多的算法和数据集信息,以便外界进行监督和审查。最后,要确保人工智能教育的公平性。在使用人工智能技术时,教育机构应该采取公平、准确、客观的评价方式,避免产生歧视和偏见。比如,考虑到学生的个体差异,教育机构可采用多元化的数据集和算法,以更好地满足学生的个性化需求。与此同时,人工智能教育也应当以赋能教育公平为己任,公平对待所有学生。

(四)确保人工智能教育产出的知识产权和版权保护

首先,研发人员在进行人工智能教育研究和开发时,对原创的内容需要明确知识产权的归属,明确自己的权利和责任。人工智能教育应用中的算法和程序,开发者可以采用发明专利、实用新型专利等形式保护自身知识产权,也可以通过商标、著作权登记等途径加大对原创内容的保护力度,制约他人在未经授权的情况下复制自己的代码和算法。其次,开发者和使用者都应遵守版权法规,确保不侵犯他人的知识产权和版权。最后,加强监管和执法力度。政府和相关机构应该加强对人工智能教育内容的监管和执法力度,并严厉打击盗版和侵权行为。例如,ChatGPT等生成式人工智能生成的内容应尽可能地标明出处,使用者在使用其生成的内容时也应标明引用的来源等。

四、总结与展望

综上所述,尽管人工智能在教育领域中具有许多潜在优势,但同时也引发了教育道德、隐私保护、透明度與公平性、知识产权和版权保护等一系列伦理问题,在人工智能教育应用中,如何保证教育公平、促进教育高质量发展,需要政策制定者、人工智能教育应用研究者、开发者和使用者多方协作,并采取相应措施来保证人工智能教育的安全应用。

人工智能技术在教育领域中的应用广泛且深刻,其未来的发展前景非常广阔,如构建公平而有质量的教育生态系统、推动学校教育评价变革、创新人才培养模式等。我们只有充分考虑人工智能教育的道德与伦理问题,并在实践中加以维护和保证,才能使人工智能教育真正为教育变革带来切实可行的益处。因此,我们应该不断深化人工智能教育应用研究,推动其不断向前发展。

参考文献

[1] 中华人民共和国科学技术部.《新一代人工智能伦理规范》发布[EB/OL].(2021-09-25)[2023-05-25]. https://www.most.gov.cn/kjbgz/202109/t20210926_177063.html.

[2] 联合国教科文组织.人工智能伦理问题建议书[EB/OL]. (2021-11-24)[2023-05-25].https://unesdoc.unesco.org/ark:/48223/pf0000380455_chi.

[3] 吴茵荷,蔡连玉,周跃良.教育的人机协同化与未来教师核心素养——基于智能结构三维模型的分析[J].电化教育研究,2021(9):27-34.

[4] 彭绍东.人工智能教育的含义界定与原理挖掘[J].中国电化教育,2021(6):49-59.

(作者方海光系首都师范大学教育学院教授、博士生导师,教育部数学教育技术应用与创新研究中心主任,北京市教育大数据协同创新研究基地主任;舒丽丽系首都师范大学教育学院硕士研究生;王显闯系首都师范大学教育学院硕士研究生)

责任编辑:牟艳娜

猜你喜欢
人工智能教育隐私保护伦理道德
企业伦理道德视角下的安全生产
人工智能背景下的职业教育发展困境及对策研究
最近发展区理论对中小学人工智能教育的启示
高中人工智能教育信息化教学模式
人工智能教育之悠然学习
大数据环境下用户信息隐私泄露成因分析和保护对策
大数据安全与隐私保护的必要性及措施
社交网络中的隐私关注及隐私保护研究综述
大数据时代的隐私保护关键技术研究
突发新闻采访中新闻记者的职业道德和伦理道德平衡