Knowledge structure enhanced graph representation learning model for attentive knowledge tracing

前言

这篇是一篇期刊论文,篇幅较长,且代码不公开。作者所发表的期刊很好,是SCI一区的文章,因此可靠性很强。这篇文章像是我上周分享的一篇文章GIKT的改进,改进点主要有两点:一,缓解图的稀疏性;二,构造异质图,使用Metapath2vec进行embedding。如果不熟悉GIKT的读者,可以去我上一篇的博客查看解析:CIKM-2021 Multi-Factors Aware Dual-Attentional Knowledge Tracing_奥特曼熬夜不sleep的博客-CSDN博客前言首先说一下自己读这篇文章的感受,通过读文章题目,我们可以得知。这篇文章的主要创新点就在于multi-factors和dual-attention。文章的思路也很清晰,首先就是介绍多factor是哪些factor?然后介绍文章使用的对偶注意力机制是加入在哪一部分的?目录文章目录前言一、Multi-Factors二、Dual-Attentional Mechanism1.Framework总结一、Multi-Factorsstudent-related fac..https://blog.csdn.net/m0_45275062/article/details/123011651?spm=1001.2014.3001.5502我下面不按照作者的叙述顺序讲解,我按照自己的理解来浅显的讲一下我的理解,如有不对,虚心接受批评指教。

一,模型结构

Knowledge structure enhanced graph representation learning model for attentive knowledge tracing_第1张图片

 图中一共有六个模块,模块一用于提取潜在的Knowledge Structure(KS)。模块二即常见的知识点题目矩阵。模块三是使用KS增强后的异质图进行向量嵌入。模块四通过卷积进行信息融合,包括题目embedding,知识点embedding,以用户为导向的difficulty向量。模块五用于计算注意力分数,提供给模块六使用。模块六就是很基本的LSTM,用于预测学生的回答。

二,模块理解

 对于模块一:

Knowledge structure enhanced graph representation learning model for attentive knowledge tracing_第2张图片

 这个模块作者使用了六种不同的推断方法去提取KS,方法如下:Knowledge structure enhanced graph representation learning model for attentive knowledge tracing_第3张图片

 对于模块二:

在这里需要特别的强调,如果直接根据知识点-题目矩阵去进行向量嵌入,是非常稀疏的。因为一道题目只含有很少的知识点,比如一个或两个,很难做到信息融合的目的。得益于上一步所提取的KS,进行我下图中红色剪头所指操作后就能获得一个含有更多信息的知识点-题目矩阵。Knowledge structure enhanced graph representation learning model for attentive knowledge tracing_第4张图片

 对于模块三:

在这里就是进行异质图的嵌入,作者所使用的方法是Metapath2vec,在下方链接中讲解了一下异质图与Metapath2vec,这是作者的创新的地方。【Graph Embedding】: metapath2vec算法_DivinerShi的博客-CSDN博客_metapath2vecmetapath2vec: Scalable Representation Learning for Heterogeneous Networks发表在kdd2017,用于解决异构网络的embedding表示。个人看完文章的感觉就是将deepwalk的算法思路引入到异构网络当中,并针对异构网络的特点,针对deepwalk算法中的各个步骤,针对性的进行优化。所以看在了解metapath2vec之前...https://blog.csdn.net/sxf1061926959/article/details/88623116异质图神经网络学习笔记 - 知乎图神经网络是最近AI领域最热门的话题之一,所以参加了北京邮电大学的博士生纪厚业 @Houye 大神的「异质图神经网络:模型和应用」的主题分享[7]。文中图片源自作者的PPT,密码hqtw,写点笔记督促自己学习呀。 1. 图…https://zhuanlan.zhihu.com/p/113242299

 三,总结

作者的实验做的也很详细,做了很多对比实验与消融实验。并探讨了产生的题目embedding 的聚类效果,以及不同KS推断方法能够产生的不同效果。

你可能感兴趣的:(cnn,深度学习,人工智能)