2021-10.25
1.看MOPSO的收敛性详细证明过程;(着重看是否可以在满足一定条件下让其收敛)
2.详细看IMOPSO的对于MOPSO改进了什么,改进后怎么就收敛了?是否可以将该改进方式加入到我们的模型中;
3.GNN课程学习;
4.python数据分析学习;
2021-11-4
科学院正式上班第一天
1.看老师修改后的论文;
2.看IMOPSO的收敛性证明;
3.开始写自己的收敛性证明部分;
4.代码改进,加入mutation operator;
2021-11-9
第二周上班
1.开始系统学习GNN知识;
2.改写自己的代码;
3.调试mutation部分的参数设置;
4.入党申请书;
2021.11.11
和老师讨论
1.对论文中related work部分按照老师给出的框架填补内容;
2.介绍一些MOPSO相关的变体算法;
3.将参考文献格式进行改正,就是把所有参考文献统一放在一个文件中;
(以上为当前主要工作)
4.看一下老师写的Algorithm;
5.再改改实验,尽量让citeseer的结果优于FCAN;
(1)全局最优的选取不只是在变异后的R,试试将变异后的R和变异前的放在一块选取;
(2)每次求解ui时,不随机初始化,而是将上一次的最优结果作为输入;
6.整理所有重要资料;
2021.11.21
本周完成工作
1.求出所有数据;√
2.将图形重新绘制;√
3.将数据和图补充到论文中;√
4.更改pbest和gbest的求解;√
5.对论文检查和完善;√
6.MISAGA和FSPGA是基于什么的算法;√
2021.11.28
本周完成工作
1.GCN的文章以及代码; √
2.GAT的文章以及代码;√
3.将GAT中的损失函数想办法换成myself
4.python爬虫 ; √
5.python数据处理与分析
6.复习一下图论知识:邻接矩阵的平方(立方)代表什么意思?
7.对正则化进行研究,考虑能不能打破传统的方法;
2020-12-06
本周完成工作
1.https://zhuanlan.zhihu.com/p/145353262(反向传播;) √
2.https://www.zhihu.com/question/66988664(自定义loss) √
3.看pytorch中怎么对参数正则化,从而看怎么对我们的U进行正则化; √
4.将acc评估改为NMI评估; √
5.检查A和D的使用是否合理;√
6.学习pytorch;
https://blog.csdn.net/qq_23997101/article/details/89509810 √
https://blog.csdn.net/weixin_42042056/article/details/105473569 √
7.https://www.cnblogs.com/picassooo/p/13409146.html(NMI)√
8.改GAT代码;√
9.https://blog.csdn.net/itbig/article/details/119301151(python小练习) √
10.看GNN clustering相关论文;√
2021-12-13
本周完成工作
11https://blog.csdn.net/liufang0001/article/details/77856255/(pandas基本知识)-
12.https://blog.csdn.net/laobai1015/article/details/84580243(tensorflow安装) √
13.GAT代码修改中改进U的正则化问题; √
14.再次细看老师给的论文;√
15.https://blog.csdn.net/qq_28418387/article/details/95918829(先看)√
1.https://zhuanlan.zhihu.com/p/374547276(GNN相关知识)
2.LGNN代码理解以及进一步思考;√
3.https://blog.csdn.net/weixin_45613751/article/details/104089248?(DGL官方实现LGNN) √
4.https://blog.csdn.net/u014281392/article/details/89436033(DGL基础)√
5.pytorch实现简单函数优化的实例;√
6.https://www.bilibili.com/video/BV1Ri4y1o7Pu?from=search&seid=17933976812189479959&spm_id_from=333.337.0.0(line网络) √
7.配置一个可以debug的pytorch环境;√
8.入门tensoflow;√
9.凸优化问题是什么?怎么确定是凸优化问题?√
10.①https://blog.csdn.net/zhong_ddbb/article/details/109864783
②https://zhuanlan.zhihu.com/p/115578494(GCNtensorflow实现) √
11.在GCN的源代码基础上,仅仅改变loss进行实验; √
12.https://blog.csdn.net/qq_30815237/article/details/90033773
(常见损失函数以及正则化);
2021-12-20
本周完成工作
1.多次进行实验,并针对结果进行分析以及改进;√
2.①http://www.360doc.com/content/19/0525/15/99071_838117683.shtml
②https://zhuanlan.zhihu.com/p/343667804(对聚类评估指标进行学习);
3.看聚类相似文献;√
4.邻接矩阵的平方的意义;√
5.对x和adj进行norm;√
6.对输出层进行normalization;√
7.将内容矩阵加入loss中;√
8.看数据处理的细节,以及数据的格式要求;
9.对cora数据集进行实验;
2021-12-27
本周完成工作
1.基于GCN,自己实现交叉熵loss,进行实验;√
2.看MAGCN实现细节以及代码,重点看其中attention机制的实现;√(原文无代码)
3.开始基于GAT去进行改进;√
4.https://blog.csdn.net/weixin_43845931/article/details/118713356?(图聚类快速入门) √
idea:
5。传统卷积层是聚合了相关的信息,考虑是否可以把不相关的信息及进行计算,然后采用合适的方法利用起来;
6.根据GCN得到的图的embedding,利用embedding计算内容矩阵
(①采取FCAN的方法;
②简单计算向量间的相关程度 √)
7.https://www.cnblogs.com/pinard/p/6221564.html(谱聚类知识详解); √
8.https://blog.csdn.net/songbinxu/article/details/80838865(谱聚类的实现) √
9.基于GAT求出的内容矩阵,放入FCAN-MOPSO中进行实验;√
10.基于GAT,将adj的处理进行更改进行实验; √
11.将GAT中的图注意力系数矩阵替换为FCAN的内容矩阵;
12.基于GCN,类似于GAT的方式,在网络层乘以内容矩阵;
2022-01-03
本周完后工作
1.将GAT中的图注意力系数矩阵替换为FCAN的内容矩阵;√
2.基于GCN,类似于GAT的方式,在网络层乘以内容矩阵;
3.将不相关信息加入到网络层中;
4.检查输入数据是否shuffle过,即保证不能是输入的数据是按节点的顺序输入的;√
5.将标签信息加入FCANloss中;√
6.①https://blog.csdn.net/scw1023/article/details/59109922
②https://blog.csdn.net/zb1165048017/article/details/48937135
(KL的基本知识)√
2022-01-10
本周完成工作
1.再次看相关论文,从更深层去理解意义
2.根据和老师的讨论思路,再进行实验;
3.看相关论文,找有代码的重点看其loss如何实现的;
4.将A+R整体看成是A,然后对其进行normalization;
5.https://www.bilibili.com/read/cv8528306/ (期刊分区)
6.https://blog.csdn.net/u013203733/article/details/81449392
(激活函数的作用)
7.https://www.zhihu.com/question/54504471?sort=created (理解GCN)
8.看GCN代码中,loss是怎么对U进行求导的;
2022-01-17
本周完成工作
1.https://blog.csdn.net/qq_32460819/article/details/109775016
(spektral框架) √
2.https://zhuanlan.zhihu.com/p/63184325
(MLP)
3.https://zhuanlan.zhihu.com/p/69294347
(autograd) √
4.https://blog.csdn.net/weixin_43794311/article/details/117471028
(网络参数梯度查看)√
5.https://blog.csdn.net/qq_40268672/article/details/118579535
(GCN-pytorch内部实现)
6.①https://zhuanlan.zhihu.com/p/78467750
②https://blog.csdn.net/D_pens/article/details/107879943 (带代码讲解)
③https://zhuanlan.zhihu.com/p/422380707 (按照算法一步一步进行搭建)
(pyG实现GCN)
7.https://www.cnblogs.com/cxq1126/p/14958440.html
(graph基础以及实现)
8.https://blog.csdn.net/weixin_44546360/article/details/89877336
(pytorch实现MLP)
9.https://zhuanlan.zhihu.com/p/35709485 √
(交叉熵损失函数的由来)
10.https://blog.csdn.net/weixin_43965642/article/details/84988578
(python str常用方法)
11.http://xtf615.com/2019/02/24/gcn/
(图卷积里理论基础)
12.https://zhuanlan.zhihu.com/p/404826711 *******************************
(可作为下次组会讲解的内容)
************************************************************************************
(从GCN到GAT、GCNSage)
13.GAT中attention到底学习了什么?
(看下载的相关论文)
14.https://zhuanlan.zhihu.com/p/429147607
(GraphSage的网络搭建)
15.https://blog.csdn.net/weixin_41171061/article/details/107797561
(cluster-GCN)
8.尝试在GCN网络中多加几层hidden;
9.深入理解Attention的意义;(结合结合下载的相关论文看)
10.将GCN与MLP结合使用;
11.采用多目标优化(embedding+clustering)的方式;
12.看师姐给的一篇相关文献;
13.https://blog.csdn.net/u010626937/article/details/88829096 √
(embedding和representation的区别)
14.https://zhuanlan.zhihu.com/p/336352895
(多种attentation机制以及计算方式)
2022-01-17–02-16
此间为寒假,完成的小任务有
01-15--01-16
15.看已找到的相关资料;
16.搭建完整的理论模型;
17.实现python搭建MLP;
18.继续加强自己的coding;
1.https://zhuanlan.zhihu.com/p/412342870
(模型调优思路)
2.资料整理 √
年后开始学习:
1.阅读领域综述类文章,并根据其开始写自己的大论文;
2.继续研究自己的模型,并且进行实验调优;
3.可以的话先从理论上把论文初步完成;
4.收集工作职位相关信息,并开始着手准备;
2.6-2.13:
1.明白MLP较于GCN的优势;
2.初步看一篇survey;
3.将模型中GCN和MLP换位进行实验;
收假后开始正式上班
2022-02.21-02.27
本周完成工作
2.21-2.27:
1.研读相关代码;
2.想办法验证loss求导的正确性与否;
3.学习github;
4.继续学习数据结构与算法;
5.刷题;
2.22:
1.(tf实现GCN)
①https://blog.csdn.net/zhong_ddbb/article/details/109864783
②https://blog.csdn.net/VariableX/article/details/109820684
2.(tf自定义loss)
https://www.cnblogs.com/yinyoupoet/p/13287355.html
3.研究sc代码中pooling的计算依据;
4.注意到一个问题:相关论文中的loss值都是比较小的,例如[-1,0]之间,一旦将其计算方式改变成较大值,则直接导致结果较差;
2.23
1.搞懂为什么同样的结果acc,用python自带的函数和自己实现的函数的评估结果不一样;
--附加:历年国家线
https://www.sohu.com/a/524482314_120099884
2.聚类评价指标
①https://blog.csdn.net/qq_42887760/article/details/105720735
②https://zhuanlan.zhihu.com/p/53840697
3.python的错误和异常相关语法
2.23.
1.在将除了内容相关的loss之外的loss成功加入到loss计算中;
2.24
1.继续研读dmon代码,搞清楚其逻辑,并将content_loss加入其中;
2.对结果进行测试,做消融实验,研究loss各个部分的重要程度;
3.调参优化;
4.在搞清楚dmon逻辑的基础上,再去完善和改进pytorch代码,力争自己实现整个过程;
2022.02.28–2022.03.06
本周完成工作
02.28-03.06
1. 将整个模型确定下来;
2. 开始准备其他数据集以及对比实验;
3. 有精力的话开始着手小论文的撰写;
4. 继续学习数据结构与算法相关知识并刷题巩固;
5. 学习github基础;
6. 开始学习数据库以及linux相关知识;
02.28
1. 完成算法题目;
2. 将新的理解思路在pytorch框架上进行实验;
03.02
1.完成算法题目;
2.学习相关github的入门知识;
3.看tensorflow代码;
03.03
1.完成算法题目;
2.将自己本地的数据结构算法代码上传到github仓库中;
①如何将本地的仓库关联到远程仓库,并上传;
https://www.cnblogs.com/weigaung/p/9233193.html
②将本地仓库上传到远程时,需要密钥问题的解决;
https://blog.csdn.net/weixin_41010198/article/details/119698015
③个人密钥:
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
3.继续看tensorflow代码,对citeseer数据集做实验;
4.将相关论文进行整理,并确定一篇作为自己的模板;
03.04
1.继续完成算法日常刷题;
2.找论文模板;
3.下载citeseer数据集进行实验;
4.学习tensorflow课程
2022.03.07-2022.03.14
本周完成工作
2022.03.07-2022.03.14
1.分析内容相关性不起作用的原因,并多做实验进行验证;
2.处理数据集,将citeseer数据集进行实验;
3.继续学习数据结构与算法;
4.日常刷题;
5.学习python中字典的使用;(发现字典用处很多很重要)
6.了解职业要求;
7.系统地学习GNN;
03.07
1.将facebook数据集进行处理,并进行了实验;
2.根据和老师的讨论,将X换成A进行实验;
0.3.09
1.开始了解推荐系统相关的知识,搜寻相关论文;
2.相关数据集的处理方式:(这个博主的内容也很值得学习)
https://blog.csdn.net/weixin_41650348/article/details/109406992
03.10
1.numpy中的.npz文件意义以及由来
https://blog.csdn.net/zhaoyunduan1958/article/details/108596695?
2.python对文件的读写方法:(open方式)
https://www.cnblogs.com/zyber/p/9578240.html
3.pandas读取常见文件:
https://blog.csdn.net/weixin_40547993/article/details/89643636?
4.pandas中实现one-hot-encode:
https://blog.csdn.net/maymay_/article/details/80198468
5.scipy稀疏矩阵详解
https://blog.csdn.net/jeffery0207/article/details/100064602?
6.GNN常用数据集介绍及下载地址:
https://blog.csdn.net/qq_32797059/article/details/106577815?
7.GNN资源整理:
https://lqfarmer.blog.csdn.net/article/details/114460767?
03.11
1.重新处理citeseer数据集(去除没有用的数据);(均有用,暂无需处理)
2.完成数据结构与算法进阶版课程,并上传代码到github;
3.准备一个抢票软件项目,并学习;
2022.03.14-03.20
本周完成的工作
2022.03.14-03.20
2022.03.14
1.继续进行实验;
2.再次学习tensorflow,并将MLP加入到现有模型中,并进行实验;
3.阅读论文,并做笔记;
4.下载国内相关硕士论文,为自己毕设做准备;
5.准备挑战赛;
6.notebook 是可以安装的;
2022.03.15
1.将tensorflow2.0课程学完,并写了博客笔记,并将相关代码上传github;
2.刷算法题;
3.做实验;
2022.03.16
1.研读MAGCN论文,并做笔记;
2.做实验,将MLP加入到网络层;
(1)增加神经元个数;
(2)增加网络层数;
3.开始学习mysql,并做笔记;
4.刷算法题;
2022.03.17
1.继续研读MAGCN论文,并做笔记;
2.做实验,将内容矩阵A进行和邻接矩阵一样的处理,然后将其和特征矩阵一起送入网络中进行训练,loss计算中可考虑将FCAN的邻接矩阵拿来计算;
3.考虑内容矩阵是否可以作为attention;
4.研究代码,看如何将得到的embedding进行decoder;
5.自己实现一个简化版的gnn模型;
6.GCN自动编码代表作:
https://blog.csdn.net/weixin_35505731/article/details/105280643?
03.18
1.自己搭建tf模型;
2.继续做实验;
3.关注Graph-MLP;
4.应该决定自己实现求解内容矩阵的代码;
03.20
1.networkx:用于构建和操作复杂得图结构
https://blog.csdn.net/qq_23889009/article/details/102484550
2.torch_geometric(pyg)的介绍和简单使用
(1)https://blog.csdn.net/qq_33309098/article/details/122305551?
(2)https://blog.csdn.net/qq_36243169/article/details/120063118?
(3)https://blog.csdn.net/qq_40206371/article/details/120616454?
(4)https://blog.csdn.net/kin55/article/details/107871331
(5)https://blog.csdn.net/qq_40206371/article/details/120616454?
2022.03.21-03.27
本周完成工作
2022.03.21-03.27
2022.03.21
1.将内容矩阵作为特征矩阵输入MLP,进行实验;
2.安装torch-geometric,并简单使用;
(失败!!!!!)
(1)安装避坑:https://blog.csdn.net/weixin_47779152/article/details/120570367?
3.single-view和multi-view区别:
https://www.zhihu.com/question/364465426
03.22
1.给网络中添加解码层;
2.继续深读GAECN,开始准备组会内容;
3.将dmon代码重新部署,然后重点研究自己应该如何搭建模型;
(1)怎么使用内容矩阵;
(2)重构损失具体怎么构造;(参考论文)
(3)怎么使用T分布;(参考论文)
4.dmon的cora数据集与其他的有什么区别,为什么?
5.确认数据集的正确处理;
03.23
1.根据新加的decoder层,进行各种实验;
2.日常刷题;
3.继续研读MAGCN;
03.24
1.继续研读MAGCN,并复现;
2.将attention机制加入到自己模型中;
3.搞清楚Multi-view的意义;
03.25
1.对pubmed数据集进行实验;
2.继续看MAGCN代码,搞清楚其工作原理;
3.看MAGCN论文中的实验部分;
03.26
1.将MAGCN中的acc评估函数用到自己的模型;
2.将自己模型中重构的机制进行修改;
3.修改loss的计算方式;
4.看看能不能搞懂注意力机制的数学原理;
03.27
1.用MAGCN跑其他的数据集;
2.将attention机制自己实现,加到自己的模型中;
3.完成ppt;
4.将几篇好的文章(CSDN)看完;
5.python中k-means算法的使用;
6.!!!!!DGL有自带cora等数据集;
2022.03.28-04.02
本周完成工作
03.28-04.02
03.28
1.继续研读MAGCN这篇论文,加深理解;
2.attention机制自己实现,加入自己模型中;
3.对于代码中multi-view部分进行消融实验;
4.完成ppt(包括内容以及自己的汇报思路);
5.对一些基本的数学概念进行复习巩固;
03.29
1.继续完善自己的模型,并进行实验;
2.继续完善ppt以及讲解思路;
3.了解一下scm会议,并在其上找一些相关文章,顺便下载其latex模板;
4.日常复习巩固自己的笔记总结;
03.30
1.阅读SMC上的相关会议论文;
2.开始着手写自己的论文;
(主要先把整体框架和内容大致性定下来)
03.31
1.参考pan师兄的期刊和对应会议文章,看其是怎么改写的;
2.将自己改写的内容框架定下来;
3.学习python os;
4.学习python可视化(matlab也可);
5.开始改写论文,并完成1,2部分;
04.01
1.争取将论文整体内容框架上完成,为接下来的修改打基础;
2.看老师发的第一篇生信论文;
3.开始日常刷题;
4.完善csdn上MAGCN这篇文献的理解;
04.02
1.完成了论文的整体内容和框架;
2.完成了CSDN上MAGCN的修改完善;
2022.04.03-04.10
本周完成工作
04.03-04.09
1.将IMFCAN完善,并投出去;
2.开始做FCAN-GNN的工作;
3.对GNN基本理论即发展系统地学习;
(了解经典地GNN模型)
4.人工智能基础理论;
5.机器学习基础理论;
(了解重要的框架)
6.深度学习基础理论;
(了解重要的框架)
7.mysql;
8.Linux;
04.03
1.完成简历地撰写;
04.06
1.论文初版已完成;
2.基于和老师的讨论继续在初版基础上进行修改;
3.投递简历;
04.07
1.根据review,以及和导师的讨论,开始完善之前的工作;
2.完成IMFCAN;
3.先画cora的时间对比(pso和FCAN)图;
4.origin安装;(资源在微信)
04.08
1.完成docker的安装;
2.完成IMFCAN论文;
3.dos基本命令;
4.origin安装;
04.09
1.linux的安装;
2.python内置函数的学习;
2022.04.11-04.17
本周完成工作
04.11-04.17
1.将FCAN-MOPSO按照review进行修改;
2.完成上周没有完成的任务;
(1)对AI,ML,DL有综述性的理解:
(2)了解GNN的发展史;(有时间也应该了解其细节)
(3)总结聚类技术,以及应用前景;
(4)深度学习框架总结;
(注重看一下图相关的框架。)
3.会议投稿;
4.看硕士毕业论文;
04.11
1.分析算法时间复杂度;
2.对cora的运行时间做实验;
3.给华为回复;
04.12
1.分析算法空间复杂度;
2.对cora的运行时间做实验;
(额外完成citeseer的对应实验。)
3.origin快速入门;
04.13
1.论文投稿;
https://ieeesmc2022.org/call-for-papers
2.完成multi_datasets的time实验;
04.14
1.python命令行运行程序;
2.python try的使用方法;
3.python发送邮件;
04.15
1.将multi_datasets实验跑完,并初步进行分析;
2.origin简单入门;
3.python字符串常见操作
04.16
1.将所有数据集的时间转为log形式,目的在于进行标准化,但是又不影响数据之间的相对关系;
04.17
1.论文下载:
Adaptive Graph Encoder for Attributed Graph Embedding(AGE)
2.对比条形图:
grouped bar chart
2022.04.18-04.24
本周完成工作
04.18-04.24
1.开始准备硕士开题的事务(把基本内容搞出来);
2.完成上周没有完成的任务;
(1)对AI,ML,DL有综述性的理解:
(2)了解GNN的发展史;(有时间也应该了解其细节)
(3)总结聚类技术,以及应用前景;
(4)深度学习框架总结;
(注重看一下图相关的框架。)
3.看相关硕士毕业论文;
4.看一篇属性图聚类的综述论文;
5.写GNN相关代码;
6.了解三支决策聚类相关研究;
7.学习基本的神经网络类型;
8.有时间的话看一下FCAN的求导推理;
9.看一下之前encoding+decoding的思路是否可以更好地应用于GNN中;(不一定非要做聚类任务)
04.18
1.将FCAN-MOPSO修改完毕,并发给老师;
2.论文下载:
Adaptive Graph Encoder for Attributed Graph Embedding(AGE)
3.看相关硕士论文;
4.多视图,多角度,多模态;
04.19
1.找managerial insights相关的文献;
2.学习mysql;
3.日常刷题;
4.看文献;(硕士论文,GNN相关)
5.复习冒泡、选择、插入、快速排序;
6.投简历(腾讯);
7.修改简历细节;
04.20
1.查找managerial insights相关资料;
2.日常刷题;
3.学习mysql;
4.看文献(硕士论文,GNN相关);
5.写GNN相关代码;
6.下载论文:
Spectral clustering on protein-protein interaction networks via constructing affinity matrix using attributed graph embedding
04.21
1.python输入语法;
2.日常刷题;
3.继续看GNN综述论文;
3.managementrial insights;
4.python字符串操作;
04.22
1.整理GNN的综述;
2.开始看AGC的综述(并准备开题答辩);
3.开始写GNN的代码;
4.日常刷题;
5.有时间的话看一篇生信聚类相关的论文;
6.论文下载:
(1)Autoencoder based community
detection with adaptive integration of network topology and
node contents
(2)Dfuzzy: a deep learning-based fuzzy clustering model for large graphs
7.深层GNN结果差得原因以及当前研究现状;
(3)Opportunities for value-based selling in an economic crisis: Managerial insights from a firm boundary theory
(4)Extensions in efficiency measurement of alternate machine component grouping solutions via data envelopment analysis
8.使用tensorflow实现GCN;
9.再看一遍聚类应用场景和图聚类入门;
10.在属性权重完全未知的情况下,根据模糊理论的方法求其权重;
04.23
1.开题要求;
2.tensorflow实现GCN;
3.看下载的managerial insights的论文;
4.快速过一遍图聚类入门;
5.快速过一遍图聚类应用;
6.TSNE
https://blog.csdn.net/weixin_46649052/article/details/115370386
04.24
1.初步将decoding加入到GCN中,进行深层GNN实验;
2.开始写managerial insights部分;
3.看硕士论文,从整体思想框架上看;
4.怎么可视化特征向量之间的差异性;
2022.04.25-05.01
本周完成工作
04.25
1.社区检测算法
(1)https://blog.csdn.net/weixin_51361084/article/details/123900802
(2)https://zhuanlan.zhihu.com/p/164772126
(3)https://www.jianshu.com/p/0c1ebbd3a246
2.回答问题:
(1)社区检测是什么?
(2)社区检测的意义何在?
(3)社区检测与聚类的关系?
(4)社区概念是什么?与图的概念有什么联系与区别?
3.继续写managerial insights的部分;
4.开始写开题相关的资料;
5.tensorflow实现GCN;
04.26
1.写开题相关材料;
2.loss中的初始信息用graph的最原始信息;
3.easydict:
https://blog.csdn.net/m0_38082419/article/details/79079516
4.学习python sklearn库;
04.27
1.初步完成文献综述的撰写;
2.听组会;
04.28
1.继续完善文献综述的撰写;
2.日常刷题;
3.继续进行实验验证;
4.开始看老师给的要审核的文章。
04.29
1.继续完善文献综述以及相关材料的撰写;
2.日常刷题;
3.荣耀简历投递;
04.30
1.审核文章;
2.投递简历;
3.论文下载:
Visualizing data using t-SNE
4.完善文献综述;
05.01
1.完成文献综述;
2022.05.2-05.08
本周完成工作
05.02
1.开始准备答辩ppt;
2.看一篇基于模型的聚类方法,搞清楚基于模型的深层意义;
05.03
1.完成答辩ppt;
2.凸问题与梯度下降法;
3.GNN邻接矩阵归一化的目的:
(1)将自身特征加入其中;
(2)将数据范围限制在我们需要的范围内,同时保持数据之间的相对关系;
4.Bat算法:
https://blog.csdn.net/hba646333407/article/details/103081669
5.梯度下降VS导数为0:
(1)https://www.pianshen.com/article/27541236323/
(2)
https://copyfuture.com/blogs-details/201912012134025779uvdizhy89ttk5n
6.凸函数还是非凸:
https://blog.csdn.net/RHONYN/article/details/80342126
05.04
1.看文献(社区检测);
2.看文章;(梯度下降)
3.看ppt;
05.06
1.完成开题相关的资料:
(1)选题来源;
......
05.07
1.参考综述重新修改managerial insights;
2.按照修改意见逐条开始修改,并写回复;
3.将关于GNN证明的两个理论整理出来;
4.PSO的优势(相对于其他启发式算法),找相应的文章阅读;
05.08
1.将回复基本写完;
2.****python启发式算法****:
https://scikit-opt.github.io/scikit-opt/#/zh/README?
3.PSO算法:
https://imonce.github.io/2019/11/06/启发式算法学习(一):粒子群算法/
2022.05.09-05.15
本周完成工作
2022.05.09-05.15
1.完善GNN实验;
2.开始AAAI论文写作;
3.保持刷题学习;
4.看论文;
5.自己实现GNN模型;(完全自己实现)
6.尝试自己实现FCAN的内容矩阵的求解;
7.leetcode前hot50道题写完;
8.PPI数据集;
05.09
1.检查回复,查漏补缺,完善和修改细节;
(1)时间复杂度与k有关没;
(2)创新点重新规划;
2.整理工作,规划之后的学习内容;
05.10
1.启发式算法;
2.整理论文;
3.开始实验;
4.日常刷题;
5.将每两层之间的信息差进行计算;
05.11
1.继续进行实验,将attention机制加入到实验中;
2.日常刷题;
3.看相关生信文章;
05.12
1.tensorflow实现attention;
2.实验中,把每层recloss加入;
05.13
1.重新设计recloss的计算方式;(考虑不用decoding)
(1)度量两个矩阵的相似性;
2022.05.16-05.23
本周完成工作
2022.05.16-05.22
1.定下模型代码;
2.处理social networks数据集;
3.开始写AAAI论文;
4.日常刷题学习;
5.多看论文(找几篇AAAI的论文看);
6.PPI网络聚类;
7.代码能力;
2022.05.16
1.开始写AAAI论文;
2.继续完善实验;
3.日常刷题;
05.17
1.完善实验;
2.继续写论文;
3.日常刷题学习;
4.graph_pooling的意义;
05.18
1.完善论文的Intro部分;
2.继续改进实验;
3.日常刷题;
4.搜集AAAI相关论文参考;
05.19
1.开始写论文Pre部分;
2.重点改进实验;
3.日常刷题;
4.graph pooling;
5.开始评审文章;
05.20
1.继续改进实验;
2.日常刷题;
3.继续评审文章;
2022.05.23-05.29
本周完成工作
2022.05.23-05.29
1.确定模型,简化代码;
2.处理数据集;
3.学习pickle和networkx模块;
4.定评估指标;
5.复现deepwalk(GNN);
05.23
1.整理TFS的response和paper的revision版本,并将最终完整的文件发给老师;
05.24
1.日常刷题;
2.更改GCN代码;(简化原来的代码)
3.继续写论文;
4.看论文;
05.27
1.继续修改代码,查明问题;
(1)加入MLP;
(2)数据集;
(3)loss计算方式;
2.详解Graph-Embedding之DeepWalk、Line、Struct2vec:
https://blog.csdn.net/weixin_40539952/article/details/109781168
3.小工具——寻找节点的一二三阶邻居:
https://blog.csdn.net/qq_37730871/article/details/111562527?
4.zotero文献管理工具:
https://blog.csdn.net/qq_27386899/article/details/122203858?
5.cora_2数据集完整,且实验结果准确;
6.tensorflow基本定义与运算操作:
https://blog.csdn.net/qq_19672707/article/details/105233828
05.29
1.确定模型代码;
2.acc代码的确定;
3.论文中的GNN介绍;
4.聚类指标ARI和Jaccard讲解以及python实现;
(1)https://blog.csdn.net/qq_38563206/article/details/120254567
(2)https://www.freesion.com/article/7748456768/
2022.05.30-06.05
本周完成工作
2022.05.30-06.05
1.处理social数据集;
2.开始对每个数据集进行调优;
3.找对比算法(尽量开源,因为后期要对每个算法在social网络上进行实验);
4.刷题学习;
5.投递简历;
6.学习服务器知识;
7.GNN 16种模型以及9中池化方法;(微信文章)
8.复习一遍机器学习;
05.30.
1.将代码中的结果评估模块和画图模块单独写成函数;
2.clustering accuracy的自定义以及python内置实现:
https://blog.csdn.net/qq_42887760/article/details/105720735
3.把代码中的pooling操作去掉,进行实验;
4.latex给字母的头上加符号:
https://blog.csdn.net/dlaicxf/article/details/52680666
5.dmon的邻接矩阵没有加入self-loop?(加入了。)
05.31
1.配环境;
2.多进程;
3.写论文;
4.刷题学习;
5.facebook数据集处理;
6.确保citeseer数据集的正确处理;
06.01
1.citeseer处理:
https://blog.csdn.net/weixin_41650348/article/details/109406992
2.将social数据集处理好;
3.继续调参优化;
4.刷题学习;
5.学习服务器相关知识;
6.检查数据集;
7.注意:social数据集中邻接矩阵的处理;
8.跑facebook数据集;
06.02
1.跑实验,继续进行参数优化;
2.服务器相关知识学习;
3.写论文;
4.刷题学习;
5.!!注意注意:解码过程中的邻接矩阵;
2022.06.06-06.12
本周完成工作
2022.06.06-06.12
1.将论文初稿基本写完(包括实验);
2.读AAAI论文,看其风格;
3.学习服务器相关知识!!!
5.学习牛客的数据挖掘项目;
6.牛客中算法面经汇总;
06.06
1.将论文第三部分写完;
2.调参优化(重点);
3.投递海尔简历;
4.decoder中的邻接矩阵设置;
06.07
1.调参优化;
2.继续写论文;
3.投递中兴简历;
4.除了邻接矩阵,网络参数?;
06.08
1.完成昨天未完成任务;
2.开始找对比算法;
06.09
1.测试一下网络中的变量有没有变化;
2.tf中初始化参数的方法;
(1)https://blog.csdn.net/FrankieHello/article/details/79781422
(2)https://blog.csdn.net/xiaotian127/article/details/100691042
(3)https://blog.csdn.net/weixin_37479258/article/details/100767897
(4)https://blog.csdn.net/UESTC_C2_403/article/details/72327321(简单易懂)
(5)tf.get_variable()和tf.Variable()的区别(最清晰的解释)
https://tefuirnever.blog.csdn.net/article/details/89577480?
3.试一下一层GCN的效果;
4.把所有数据集的结果跑出来;
5.尝试用GAT代替GCN;
06.10
1.加入attention机制;
2.将网络层重新改写;(可以自动控制层数)
3.loss中的学习参数;
4.加入early_stopping;
2022.06.13-06.19
本周完成工作
2022.06.13-06.19
1.复现目前的三篇论文,将自己复现的结果进行整理;
2.跑完自己的模型(不管结果的好坏);
3.继续找寻优化的方法;
06.13
1.优化实验;
2.将所有参数提出来,统一配置文件;
3.考虑二阶相似性;
06.14
1.复现GMM-VGAE;
2.看GAE论文;
06.15
1.复现VGAE,并尝试将其与自己的模型结合;
2.从loss构造上出发,看能不能将其改进;(例如:考虑loss的值能不能约束到-1~1之间)
06.16.
808
1.继续优化模型;
2.搜寻相关论文;
3.阅读相关论文,并初步看其代码;
4.cora较好的随机种子:808,4553(最好)
06.17
1.LINE模型中的二阶近似与邻接矩阵的平方的联系与区别???
2.对原本的FCAN-loss进行实验;
3.看MGCCN论文;
4.认真详细地把MAGCN再看一遍,尝试将FCAN和Student's t分布结合起来;
2022.06.20-06.26
本周完成工作
2022.06.20-06.26
1.迁移代码:将MAGCN中student's t分布的代码迁移到自己的代码中,并进行实验;
2.重新进行实验,调参优化;
3.确定对比算法(最好都是能自己跑一遍的);
4.重新修改论文结构框架;
(1)将student's t分布加入;
(2)将崩溃正则化加入;
(3)着重放在修改motivation;
5.将SOTA算法整理写进论文中的相关工作中;
06.20
1.按照MAGCN的方法,重新实现重构损失;
2.MAGCN中没有activation的原因???
3.tf.session.run()的理解;
06.21
1.更改loss的计算:
(1)让未归一化的邻接矩阵参与计算;
(2)添加内容矩阵;
(3)尝试高阶计算;
06.22
1.着重搞清楚了tensorflow中静态图的概念以及tf.Session.run()的用法;
2.将代码重新按照自己的风格进行改写;
3.小小休闲一下...
06.23
1.调参优化;
2.跑一下其他的数据集;
3.改写论文;
4.去掉attention机制;
5.加入激活函数;
2022.06.27-07.03
本周完成工作
2022.06.27-07.03
1.继续对模型进行调参优化,确定每一个数据集的最优结果;
2.将有代码的对比算法进行相应的实验;
3.继续完善论文中对应部分;
4.
06.27
1.将对比算法写入论文中related-work中;
2.F-score的理解以及求解方式;
3.将算法中所有的参数提取出来到config中;
4.FCAN_loss没有发挥出作用???(已解决。)
06.28
1.将self-supervised部分加入论文中;
2.尝试换一种attention机制的写法;
3.尝试将每层之间的重构损失都进行计算;
4.多跑数据集,找出我们的结果优于其他模型的数据集;
(1)寻找数据集;
(2)处理数据集;
5.看自己找的新论文;
6.解决了实验重复不出来的问题;
7.还是应该将FCAN的loss反馈到网络优化中;
(1)使用MLP得到的U去逼近Q;
06.29
1.继续优化模型;
2.对其他的数据集进行实验;
3.将attention机制写入论文中;
(1)尝试attention机制的计算换一种方式???
(2)GCN中加入偏置项;
(3)GCN中加入残差分析;
06.30
1.优化模型;
(1)完成6.29中的(3);
2.tensorflow2.0和1.0的区别;
(1)着重代码写法上的区别;
3.对其他数据集进行实验;
4.特征预处理?(导致效果更差!)
07.01
1.ACM数据集还需处理,搞明白其形式;
1.跑DBLP数据集;
2.跑wiki数据集;
2.跑social数据集;