面向自适应学习的个性化学习路径推荐*

2023-02-09 03:12李建伟武佳惠姬艳丽
现代教育技术 2023年1期
关键词:学习效果个性化学习者

李建伟 武佳惠 姬艳丽

面向自适应学习的个性化学习路径推荐*

李建伟1,2武佳惠1姬艳丽1

(1.北京邮电大学 网络教育学院,北京 100088;2.北京邮电大学 网络系统与网络文化北京市重点实验室,北京 100876)

根据学习者的学习记录和学习任务进行学习路径推荐,是实现自适应学习的关键技术。文章首先将个性化学习路径推荐模型归为八类,并对每类模型进行详细分析,总结出这些模型普遍存在的问题,认为这些问题严重影响了自适应个性化学习的应用效果。之后,文章提出一种从课程、学习任务两个维度进行学习路径推荐的个性化学习路径推荐模型,其融合了知识图谱、深度知识跟踪和强化学习三种智能技术,能有效解决上述问题。最后,文章通过对学习任务内学习路径推荐模型进行对比实验及其相关数据分析,发现该模型能有效提高学习效果和学习效率,其推荐性能也优于目前主流的推荐模型。文章的研究成果对自适应学习的实现具有重要应用价值,并为教育领域个性化学习路径推荐的理论与技术研究提供了重要参考。

自适应学习;学习路径推荐;知识图谱;深度知识跟踪;强化学习

2018年,教育部印发《教育信息化2.0行动计划》,强调大力推进智能教育,开展以学习者为中心的智能化教学支持环境建设[1]。2021年,《教育部等六部门关于推进教育新型基础设施建设构建高质量教育支撑体系的指导意见》发布,提出开发基于大数据的智能诊断、资源推送、学习辅导等应用,促进学生个性化发展[2]。从近年来国家发布的一系列教育信息化政策可知,“人工智能+教育”已成为我国教育创新发展的重要战略,而将人工智能技术应用于教育的自适应技术业已成为研究的热点。在2015~2020年间发布的《地平线报告》中,自适应技术是出现频率最高的关键性技术[3]。自适应技术支持的自适应学习是针对学生学习过程中产生的知识状态、互动参与、练习交互等数据,调整对学习内容的推荐,改变学习路径,提供千人千面的个性化教学和辅导,而个性化学习路径推荐是实现自适应学习的关键。

一 推荐模型的分类及其研究现状

目前,在个性化学习路径推荐领域,有大量国内外学者进行了理论与实践研究,从不同视角构建了个性化学习路径推荐模型,并已取得初步成效。通过对相关文献及目前的自适应学习平台进行全面分析,按照模型使用的推荐算法,可将个性化学习路径推荐模型归为八类:

1 基于启发式算法的推荐模型

本模型应用的算法主要包括遗传算法、蚁群算法、粒子群算法等。例如,Dwivedi等[4]利用改进的变长遗传算法构建推荐模型,有针对性地推送符合学习者特征的学习资源。孔维梁等[5]将改进的蚁群算法应用于学习者即将开展的活动序列设计。De-Marcos等[6]构建了改进二进制粒子群算法的推荐模型,并通过实验验证了这种模型的有效性和精确度。整体来说,本模型推荐效果一般,主要的应用平台有松鼠AI、猿题库等。

2 基于数据挖掘的推荐模型

本模型应用的算法主要包括AprioriAll算法、决策树算法、概率图模型等。例如,姜强等[7]基于AprioriAll算法构建推荐模型,挖掘学习偏好、知识水平相近的学习者群体,推荐个性化学习活动序列。Fu等[8]采用决策树算法构建推荐模型,通过预判学习者认知差异,为学习者推荐不同活动序列。崔炜等[9]通过概率图模型获取学习者对邻近知识点的掌握度,进而推荐知识点序列。整体来说,本模型推荐效果一般,主要的应用平台有Knewton、ALEKS、松鼠AI等。

3 基于知识的推荐模型

本模型应用的算法主要包括基于本体的推理算法和基于情境感知的推理算法。例如,Tarus等[10]通过建立学科领域本体和学习情境本体,基于本体的推理算法搭建了适应性学习路径推荐系统。黄志芳等[11]建立了学习情境本体模型和学科领域本体库,并基于情境感知的推理算法构建了适应性学习路径推荐模型。整体来说,本模型推荐效果一般,主要的应用平台有智学网、Realizelt、Declara等。

4 基于内容的推荐模型

本模型应用的算法主要包括基于向量空间模型的余弦相似度算法。例如,Ghauth等[12]通过基于向量空间模型的余弦相似度算法和优秀学习者的学习资源评分指标为学习资源建模,进而为学习者推荐与过往学习喜好类似的学习资源。整体来说,本模型推荐效果一般,目前没有自适应平台应用本模型。

5 协同过滤推荐模型

本模型应用的算法主要包括基于用户、基于项目、基于模型的协同过滤。例如,赵学孔等[13]从认知水平、学习路径两个维度构建学习者模型,使用皮尔逊相关系数算法筛选相似的邻近区用户群,为学习者推荐个性化学习资源。丁永刚等[14]提出了基于社交网络的资源推荐模型,将学习群体或学习伙伴对学习资源的评分作为资源推荐的依据。陈壮[15]使用聚类算法划分具有较高学习特征相似度的学习者,并寻找相似学习者的学习路径作为推荐路径。整体来说,本模型推荐效果良好,主要的应用平台有Knewton、松鼠AI等。

6 混合推荐模型

本模型应用的算法主要包括“人工神经网络算法+基于模型协同过滤算法+蚁群算法”“基于用户协同过滤+序列模式挖掘算法”等算法组合。例如,申云凤等[16]利用人工神经网络算法构建相似用户模型,通过网格聚类算法实现协同过滤,采用蚁群算法优化推荐学习路径。Salehi等[17]提出一种基于序列模式挖掘和基于用户协同过滤的模型,为学习者推荐个性化学习资源。整体来说,本模型推荐效果良好,主要的应用平台有松鼠AI。

7 基于深度学习的推荐模型

本模型应用的算法主要包括受限玻尔兹曼机和门控循环单元。例如,Ruslan等[18]首次提出使用受限玻尔兹曼机来构建推荐模型,用于求解Netflix竞赛中的推荐问题。Hidasi等[19]提出一种基于递归神经网络的推荐模型,此模型采用门控循环单元,输入学习会话的顺序,然后输出下一步要学习的学习项目的概率分布。整体来说,本该模型推荐效果良好,目前没有自适应平台应用本模型。

8 基于强化学习的推荐模型

本模型应用的算法主要包括Deep Q-learning和Actor-Critic。例如,Tan等[20]通过Deep Q-learning算法构建推荐模型,为学习者推荐知识点序列,并以最大化学习效率为推荐目标。Liu等[21]利用深度知识跟踪、认知导航和Actor-Critic算法构建推荐模型,为学习者推荐个性化知识点序列。整体来说,本模型推荐效果优秀,主要的应用平台有智学网。

综上所述,伴随着推荐系统在电商、娱乐、信息流等领域的大规模应用,个性化学习路径推荐在最近十年一直是教育领域的研究热点,使用的技术也越来越智能。但是,目前教育领域已有的推荐模型普遍存在三个主要问题:①在推荐目标方面,多数研究照搬电商、娱乐等领域的推荐模型,而忽视了学习场景与这些业务场景在推荐目标上具有本质上的不同——前者以学习效果或效率为目标,后者以用户偏好为目标;②在推荐性能的评价方面,传统推荐模型一般采用经典的评测指标如查准率(Precision)、召回率(Recall)、F1-Score、AUC(Area Under Curve)等,而个性化学习路径推荐采用学习效果和学习效率作为评价指标——目前,学习效果和学习效率的量化问题仍是具有挑战性的难题;③在推荐内容方面,多数研究推荐学习资源、学习活动、知识点序列三种内容中的一种或两种,而无法全面覆盖这三种推荐内容。针对以上三个问题,本研究团队提出基于深度知识跟踪与强化学习的学习路径优化方法[22],在此基础上构建一种融合知识图谱、深度知识跟踪、强化学习三种智能技术的个性化学习路径推荐模型,为上述三个问题的解决提供了一种全新的方案。

二 个性化学习路径推荐模型的构建

在自适应学习中,一门课程包括多个学习任务,学习任务是基本的学习单元。课程的学习路径由多个学习任务组成,课程内学习路径推荐是基于课程知识图谱和学习者学习记录,为课程内的学习任务规划一个学习序列,学习者沿着该序列以最快速度掌握所有的学习任务。学习任务的学习路径由多个学习项目(如练习、资源、讨论等)组成,学习任务内学习路径推荐是基于学习任务的学习目标和学习者学习记录,为学习任务中的学习项目规划一个学习序列,学习者沿着该序列以最快速度达到学习任务要实现的学习目标。因此,本研究提出的个性化学习路径推荐模型由课程内学习路径推荐模型和学习任务内学习路径推荐模型组成。

1 课程内学习路径推荐模型

课程内学习路径推荐模型通过课程知识图谱确定学习任务的先修后继关系,使用深度知识追踪(Deep Knowledge Tracing,DKT)模型确定学习任务的难易程度,按照先易后难的教学原则推荐学习任务。课程内学习路径推荐模型的设计如图1所示,具体包含以下环节:

①学习者开始学习一门课程前,将课程中所有学习任务的目标知识点映射到课程知识图谱,如图2所示。其中,K6是离散知识点,K1是根知识点。K1是学习K5前需要掌握的知识,因此K1是K5的先修知识点。同理,K2、K3是K4的先修知识点。待选知识点集合由未学的离散知识点和根知识点构成。

②将学习者的学习记录进行one-hot编码后输入DKT模型,预测待选知识点的掌握水平。

③向学习者推荐掌握水平最高的知识点K。需要注意的是,如果学习者属于“冷启动”,即还未产生任何学习记录,DKT将无法进行预测,此时可以采用随机抽取的方式推荐知识点K。

④使用学习任务内学习路径推荐模型,为学习者推荐知识点K的学习项目。

⑤知识点K通过后,判断K是否存在后继知识点,即K是否为某一知识点的先修内容,若是,则进入环节⑥;若否,则将K从待选知识点集合移出,然后进入环节⑦。

⑥将知识点K的后继知识点加入待选知识点集合,并将K从待选知识点集合移出。

⑦判断待选知识点集合是否为空,若是,则终止循环;若否,则返回至环节②,继续推荐。

图1 课程内学习路径推荐模型的设计

图2 课程知识图谱

图3 学习任务内学习路径推荐模型的设计

2 学习任务内学习路径推荐模型

学习任务内学习路径推荐(Learning Path Recommendation within Learning Task,LPRLT)模型基于强化学习的Q-Learning算法构建,其设计如图3所示,具体包含以下环节:

LPRLT模型通过建立Q-table,来计算智能体做出不同行为的奖励。Q(s, a)表示在s状态下智能体做出a行为得到的奖励,智能体将Q(s, a)的值作为下一行为的选择依据。矩阵Q如公式(2)所示,其中行表示状态、列表示动作,元素Q(s, a)表示学习者在状态s下选择动作a能够获得收益的期望。

②LPRLT模型的训练是通过获取不同环境下对智能体行为的奖励来更新参数。在这一过程中,状态和智能体的行为不断变化,智能体从某一初始状态到目标状态中所表现的行为可以看作是一个回合,一个回合完成后进入下一回合。在状态s下,选择行为a的规则如下:判断s状态下未表现的行为的Q值集合是否全为0,若全为0,则随机选择一种行为;否则,则90%的概率是选择Q值最大的行为,10%的概率是随机选择一种行为。

③当LPRLT模型训练结束,输出训练结果Q-Table,用于学习任务内学习项目个性化推荐。

三 实验设计

课程内学习路径推荐模型的推荐性能,由学习任务推荐策略和学习任务内学习路径推荐模型的性能决定。由于学习任务推荐策略是根据知识点的先修后继关系、按照先易后难的顺序进行推荐,此策略在理论上已经最优,无需实验验证,因此学习任务内学习路径推荐模型的推荐性能就显得至关重要了。本实验设计的目的,便是验证学习任务内学习路径推荐模型的性能。

1 实验方法与评价指标

推荐系统常用的实验方法主要有离线仿真实验法和在线AB测试法。其中,离线仿真实验法在大量不同算法的实验中效率优势显著,所以适合在学术研究中应用。

目前,对学习效果和学习效率的量化仍然是一个挑战。Knewton通过学习任务的测试成绩对学习效果进行量化评价,通过完成学习目标需要的学习项目数量对学习效率进行量化评价。此外,有研究通过知识掌握水平的提升(即E)对学习效果进行量化评价[23][24]。E的计算如公式(4)所示,其中E表示学习者对知识的初始掌握水平值,E表示学习者对知识的最终掌握水平值,E表示学习者对知识的最高掌握水平值。

本研究使用离线仿真实验法,采用知识掌握水平的提升E作为学习效果的量化评价指标,采用完成学习目标需要的学习项目数量作为学习效率量化评价指标;同时,采用推荐算法常用的查准率(Precision)、召回率(Recall)、F1-Score、AUC作为推荐性能的评价指标。

2 实验数据

为验证学习任务内学习路径推荐模型的有效性,本实验选择真实在线学习数据训练DKT模型,数据来源于本研究团队自主研发的英语自适应学习平台上的“公共英语”课程。数据集含有17179个学习者完成23个语法学习任务时产生的学习记录,其按照8:1:1的比例切分,分别用于DKT模型的训练、验证和测试。实验的学习任务选取知识点“副词用法”,其先修知识点是“形容词用法”“动词用法”;学习任务共计40个学习项目,包括副词25个、形容词7个、动词8个。

3 实验环境设计

本实验使用的学习效果和学习效率这两个评价指标容易受多种因素的影响,故需要对实验环境进行设计,排除或控制无关因素对实验过程和结果的干扰。

(1)学习效果评价实验环境设计

由于已有的学习者真实学习数据只代表其在一条学习路径上的学习过程,且无法判断这条学习路径是否最优,所以真实数据不能作为观察值用于模型评价,无法像一般推荐系统(如商品、电影等推荐系统)通过真实存在的观察值和模型预测值进行性能评价。此外,一个学习者在现实中只能产生一条学习路径的有效学习数据,而无法产生多条学习路径的有效学习数据。所以,本实验通过构造模拟器去生成数据,用于模型的学习效果评价。模拟器的主要作用是模拟学习者对模型推荐的学习项目做出掌握或未掌握的决策,从而产生学习记录数据。

受Liu等[25]、Chen等[26]的研究成果启发,本实验采用三参数的项目反应理论(Item Response Theory,IRT)模型作为模拟器。本实验基于IRT模型随机产生2000个虚拟学习者,每个学习者随机生成三个初始能力值。其中,目标知识点的能力值从区间[-3, 3]中随机产生,其他两个先修知识点的能力值从区间[3, 4]中随机产生,表示学习者在已掌握两个先修知识点的前提下开始学习目标知识点。

(2)学习效率评价实验环境设计

由于IRT模型是在假设受测者能力值不变的情况下建立的,所以基于IRT模型的模拟器与现实中的学习者有一定差距,不能真正代表学习者。如果使用模拟器对学习任务中的学习项目做出掌握或未掌握的决策,必然会影响完成学习目标需要的学习项目数量,这将无法保证实验结果的正确性。为排除模拟器对实验结果的干扰,本实验设计了一种理想的学习场景,即在任何学习路径中学习者对推荐的全部学习项目都能做出“掌握”的决策。虽然实验环境与真实的学习场景有一定差距,但此环境有助于有效评价学习者在不同学习路径上的学习效率。

四 实验分析与结果

依托实验设计,本研究选取多种主流推荐模型作为对比模型,对学习任务内学习路径推荐模型的推荐性能进行对比实验,具体的实验分析与结果如下:

1 学习效果评价

本实验选取KNN、GRU4Rec、Random三种推荐模型作为对比模型,选取的学习任务为“副词用法”,所有模型推荐的学习路径长度固定为15个学习项目。其中,KNN是一种基于用户的协同过滤推荐模型[27],通过比较学习任务中学习路径的余弦距离,从用户群中筛选相似性用户作为当前用户的邻居,并为新用户推荐下一步的学习项目;但是,此模型未使用知识图谱和知识水平跟踪,所以学习任务只包括目标知识点,而不包括先修知识点。GRU4Rec是一种基于递归神经网络的推荐模型[28],采用门控循环单元(GRU),输入是学习任务中学习路径的顺序,而输出是下一步出现的学习项目概率分布;但是,此模型也未使用知识图谱和知识水平跟踪,所以学习任务只包括目标知识点,而不包括先修知识点。Random是一种随机推荐模型,推荐项目采用简单随机抽样方法从学习任务的学习项目中随机选取;此模型虽然使用了知识图谱,但未使用知识水平跟踪,所以学习任务包括目标知识点和先修知识点。

不同推荐模型的学习效果评价指标E比较结果如表1所示,其中E分别采用IRT模型、DKT模型计算学习者在学习任务中目标知识点的初始掌握水平和最终掌握水平。表1显示,LPRLT模型对学习效果的提升幅度最大,KNN、GRU4Rec两种模型由于没有使用知识图谱和知识水平跟踪,仅根据学习者的兴趣偏好推荐学习项目,其推荐的学习路径对学习效果几乎没有提升。Random模型由于使用了知识图谱,故其推荐效果优于KNN模型和GRU4Rec模型,仅次于LPRLT模型。实验结果充分说明了学习路径推荐与一般的路径推荐有本质上的不同,知识图谱、知识水平跟踪和推荐算法对学习效果均有较大影响。

表1 不同推荐模型的学习效果评价指标Eφ比较结果

2 学习效率评价

本实验选择Random模型作为对比模型,选取的学习任务为“副词用法”,随机生成一位虚拟学习者。该虚拟学习者对“副词用法”的初始掌握水平是0.4885,学习目标是“副词用法”的掌握水平要大于0.9。具体的实验步骤如下:

①使用LPRLT模型为该学习者推荐一条学习路径,路径中包括8个学习项目,对目标知识点的掌握水平达到0.9017。

②使用Random模型为该学习者随机推荐多条学习路径,使用简单随机抽样法抽取在每条路径的学习项目。

③采用学习路径中的学习项目数量(即学习路径长度)作为学习效率的量化评价指标,为方便评价,设计了学习路径推荐概率。学习路径A的推荐概率的计算如公式(5)所示,其中事件A分别表示学习项目数大于、等于、小于8的学习路径,m表示A中包含的结果数,n表示可能出现的结果总数。

图4 Random模型的学习路径推荐概率图

Random模型的学习路径推荐概率如图4所示,可以看出:通过对Random模型进行1000次、5000次和10000次的随机试验,值逐渐趋于稳定,Random模型推荐的所有学习路径中有4.99%优于LPRLT模型、39.83%等于LPRLT模型、51.58%劣于LPRLT模型。其中,在优于LPRLT模型的499条学习路径中,学习路径长度全部为7;在劣于LPRLT模型的5158条学习路径中,学习路径长度为9的有3784条,学习路径长度为10的有1458条,学习路径长度为11的有248条,学习路径长度为12的有28条。总的来说,LPRLT模型推荐的学习路径95.01%优于或等于Random模型。

从上述分析可知,LPRLT模型推荐的学习路径并未100%优于或等于Random模型,原因主要在于模型训练时,考虑到模型的训练时间不要过长,且训练出的Q-table也不要太大,故设置了算法收敛条件。实验证明,如果提高算法收敛条件,则推荐性能也会随之提高。

④使用均方根误差指标(Root Mean Square Error,RMSE),评测两个模型推荐的学习路径与最优学习路径的学习路径长度偏差值。在本实验中,最优学习路径长度为7,RMSE值越低,代表模型的性能越好。实验结果表明,LPRLT模型与最优学习路径的RSME值为1,Random模型与最优学习路径的RSME值为1.9212,可见LPRLT模型的性能明显优于Random模型。

3 推荐性能评价

本实验的环境与学习效果评价相同:实验选取KNN、GRU4Rec、Random三种推荐模型作为对比模型,选取的学习任务为“副词用法”,所有模型推荐的学习路径长度固定为15个学习项目。对于一个学习项目来说,推荐结束后可能有四种结果:①模型推荐给学习者且学习者掌握了此学习项目;②模型推荐给学习者但学习者未掌握此学习项目;③学习者掌握了此学习项目但是模型未推荐;④学习者未掌握此学习项目且模型未推荐。本实验选取查准率(Precision)、召回率(Recall)、F1-Score、AUC四种常用的推荐算法评价指标来评价不同模型的推荐性能,结果如表2所示。表2显示,与其他三个模型相比,LPRLT模型的查准率、召回率、F1-Score、AUC的数值最高,其推荐性能最优;Random模型由于使用了知识图谱,故其查准率、召回率、F1-Score的数值高于KNN模型和GRU4Rec模型,但其AUC的数值最低。总的来说,LPRLT模型的推荐性能最优,随后依次是GRU4Rec模型、KNN模型、Random模型。

表2 不同模型的推荐性能评价指标比较

五 结语

本研究提出一种智能的个性化路径推荐模型,其融合了知识图谱、深度知识跟踪、强化学习三种智能技术。与已有的推荐模型相比,个性化路径推荐模型的创新之处主要体现为:①此模型可以推荐知识点序列、学习资源和学习活动三种内容,有效解决了目前推荐模型的推荐内容比较单一的问题。②在模型构建的过程中,充分考虑了学习效果和学习效率这两个影响因素,有效解决了目前推荐模型不能以学习效果和学习效率为推荐目标的问题。例如,在学习任务内学习路径推荐模型中,设计动作集合时,不仅选择有目标知识点的学习项目,还考虑有先修知识点的学习项目,充分考虑了知识结构对学习效果的影响;设计奖励时,学习者在某个状态下完成学习项目后,状态转移到了下一个状态值,若状态值大于等于设定的目标状态值,则赋予奖励值,否则没有奖励值——这种设计使模型对学习效果和学习效率具有目标导向作用。③通过实验环境设计,有效控制了影响学习效果和学习效率量化的因素,解决了目前推荐模型只能采用常用评价指标(如查准率、召回率等),而不能采用学习效果和学习效率作为评价指标的难题。实验结果表明,学习任务内学习路径推荐模型对学习效果的提升幅度比KNN、GRU4Rec和Random模型更高,推荐性能也更优;且与Random模型相比,其学习效率更高。本研究为面向自适应学习的个性化学习路径推荐提供了一种新的解决方案,解决了自适应个性化学习中的关键问题,促进了自适应学习的研究与发展。

[1]教育部.教育信息化2.0行动计划[OL].

[2]教育部等六部门.教育部等六部门关于推进教育新型基础设施建设构建高质量教育支撑体系的指导意见[OL].

[3]金慧,王梦钰,王陈欣.促进教育创新的关键技术与应用实践——2015-2020《地平线报告》的分析与比较[J].远程教育杂志,2020,(3):25-37.

[4]Dwivedi P, Kant V, Bharadwaj K K. Learning path recommendation based on modified variable length genetic algorithm[J]. Education and Information Technologies, 2018,(2):819-836.

[5]孔维梁,韩淑云,张昭理.人工智能支持下自适应学习路径构建[J].现代远程教育研究,2020,(3):94-103.

[6]De-Marcos L, Martínez J J, Gutiérrez J A. Particle swams for competency-based curriculum sequencing[A]. Emerging Technologies and Information Systems for the Knowledge Society[C]. Berlin: Springer, 2008:243-252.

[7]姜强,赵蔚,李松,等.大数据背景下的精准个性化学习路径挖掘研究——基于AprioriAll的群体行为分析[J].电化教育研究,2018,(2):45-52.

[8]Fu L C, Yeh Y C, Hsin H Y, et al. Data mining for providing a personalized learning path in creativity: An application of decision trees[J]. Computers & Education, 2013,68:199-210.

[9]崔炜,薛镇.松鼠AI智适应学习系统[J].机器人产业,2019,(4):84-94.

[10]Tarus J K, Niu Z, Mustafa G. Knowledge-based recommendation: A review of ontology-based recommender systems for e-learning[J]. Artificial Intelligence Review, 2018,(1):21-48.

[11]黄志芳,赵呈领,黄祥玉,等.基于情境感知的适应性学习路径推荐研究[J].电化教育研究,2015,(5):77-84.

[12]Ghauth K I, Abdullah N A. Learning materials recommendation using good learners’ ratings and content-based filtering[J]. Educational Technology Research and Development, 2010,(6):711-727.

[13]赵学孔,徐晓东,龙世荣.协同推荐:一种个性化学习路径生成的新视角[J].中国远程教育,2017,(5):24-34.

[14]丁永刚,张馨,桑秋侠,等.融合学习者社交网络的协同过滤学习资源推荐[J].现代教育技术,2016,(2):108-114.

[15]陈壮.在线学习路径推荐算法研究[D].武汉:华中师范大学,2020:27-29.

[16]申云凤.基于多重智能算法的个性化学习路径推荐模型[J].中国电化教育,2019,(11):66-72.

[17]Salehi M, Kamalabadi I N, Ghoushchi M B G. Personalized recommendation of learning material using sequential pattern mining and attribute based collaborative filtering[J]. Education and Information Technologies, 2014,(4):713-735.

[18]Ruslan S, Andriy M, Geoffrey H. Resticted Boltzmann machines for collaborative filtering[A]. Proceedings of the 24th International Conference on Machine Leaning[C]. USA: ACM, 2007:791-798.

[19][28]Hidasi B, Karatzoglou A, Baltrunas L, et al. Session-based recommendations with recurrent neural networks[A]. 4th International Conference on Learning Representations, ICLR 2016-Conference Track Proceedings[C]. Puerto Rico: ICLR, 2016:291-300.

[20]Tan C, Han R, Ye R, et al. Adaptive learning recommendation strategy based on deep Q-learning[J]. Applied Psychological Measurement, 2020,(4):251-266.

[21][23][25]Liu Q, Tong S, Liu C, et al. Exploiting cognitive structure for adaptive learning[A]. Proceedings of the 25th ACM SIGKDD International Conference on Knowledge Discovery & Data Mining[C]. Anchorage: ACM, 2019:627-635.

[22]李建伟,李领康,于玉杰.一种基于深度知识跟踪与强化学习的学习路径优化方法[P].中国专利:113268611A,2021-8-17.

[24][26]Chen Y, Li X, Liu J, et al. Recommendation system for adaptive learning[J]. Applied Psychological Measurement, 2018,(1):24-41.

[27]Cover T, Hart P. Nearest neighbor pattern classification[J]. IEEE Transactions on Information Theory, 2003,(1):21-27.

Personalized Learning Path Recommendation Oriented to Adaptive Learning

LI Jian-wei1,2WU Jia-hui1JI Yan-li1

Learning path recommendation based on learners’ learning records and learning tasks is the key technology to realize adaptive learning. Firstly, this paper classified personalized learning path recommendation models into eight categories, and analyzed each category of models in detail, summarized the common problems of these models, and believed that these problems seriously affect the application effect of adaptive personalized learning. Then, the personalized learning path recommendation model for learning path recommendation was proposed from two dimensions of curricula and learning tasks, which integrated three intelligent technologies of knowledge map, deep knowledge tracking and reinforcement learning and could effectively solve the above problems. Finally, through comparative experiments and relevant data analysis on the learning path recommendation model within learning task, it was found that this model can effectively improve the learning effect and learning efficiency, and its recommendation performance was also better than the current mainstream recommendation model. The research results of this paper had important application value for the realization of adaptive learning, and provided important reference for the theoretical and technical research of personalized learning path recommendation in the education field.

adaptive learning; learning path recommendation; knowledge map; deep knowledge tracking; reinforcement learning

G40-057

A

1009—8097(2023)01—0108—10

10.3969/j.issn.1009-8097.2023.01.012

本文为网络系统与网络文化北京市重点实验室主任基金项目“基于深度学习的个性化学习内容推荐模型研究”(项目编号:NSNC-2020 A05)、北京邮电大学研究生教育教学改革项目“研究生课程思政教学模式研究与实践”(项目编号:2022Y004)的阶段性研究成果。

李建伟,北京邮电大学网络教育学院副教授,北京邮电大学网络系统与网络文化北京市重点实验室副研究员,硕士,研究方向为智能教育技术与应用,邮箱为lijianwei@bupt.edu.cn。

2022年6月7日

编辑:小米

猜你喜欢
学习效果个性化学习者
疫情期间线上学习效果评价分析
“百词斩”对于大学英语四级词汇学习效果的实证研究
基于学习性评价原则提高研究性学习效果的研究
你是哪种类型的学习者
坚持个性化的写作
十二星座是什么类型的学习者
莲心宝宝有话说
青年干部要当好新思想的学习者、宣讲者、践行者
新闻的个性化写作
上汽大通:C2B个性化定制未来