李沐精读GNN论文摘要

提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档

文章目录

  • 前言
  • 一、内容摘要
  • 二、参考


前言

李沐精读GNN论文“A Gentle Introduction to Graph Neural Networks”,读后摘要。


一、内容摘要

图三大层面的问题:
1、图级别
2、节点级别
3、边级别

图的节点、边、全局信息、连接性四种类型的信息来做预测。

GNN:对图上所有属性(图的节点、边、全局信息)进行的一个可以优化的变换,这个变换可以保证图的对称信息。
message passing neural network 是一种GNNs框架,当然GNN也可以用别的方式构建。
GNN的输入和输出都是图,它会对节点、边的信息进行变换,但图连接性是不变的。

稀疏矩阵
矩阵中,数值为0的元素数目远远多于非0元素的数目,并且非0元素分布没有规律时,则称该矩阵为稀疏矩阵,否则为稠密矩阵。其存储格式:COO(Coordinate Format,每个元素用一个三元组表示)、CSR(Compressed Sparese Row)。

MLP?
神经网络的变种目前有很多,如误差反向传播(Back Propagation,BP)神经网路、概率神经网络、卷积神经网络(Convolutional Neural Network ,CNN-适用于图像识别)、时间递归神经网络(Long short-term Memory Network ,LSTM-适用于语音识别)等。但最简单且原汁原味的神经网络则是多层感知器(Multi-Layer Perception ,MLP),只有理解经典的原版,才能更好的去理解功能更加强大的现代变种。
最典型的MLP包括三层:输入层、隐层、输出层,MLP神经网路不同层之间是全连接的(全连接:上一层的任何一个神经元与下一层的所有神经元都有连接)。
https://zhuanlan.zhihu.com/p/63184325
神经网路主要有三个基本要素:权重、偏置和激活函数。

end-to-end prediction task?
端到端指的是输入是原始数据,输出是最后的结果,原来输入端不是直接的原始数据,而是在原始数据中提取的特征。

二、参考

https://www.bilibili.com/video/BV1iT4y1d7zP?from=search&seid=17425771631747736862&spm_id_from=333.337.0.0

https://zhuanlan.zhihu.com/p/434132221

https://distill.pub/2021/gnn-intro/

https://blog.csdn.net/yhb1047818384/article/details/78996906

你可能感兴趣的:(深度学习,cnn,人工智能,神经网络)