深度学习:特征图的PCA、attention、patch、CFA、灰度共生矩阵

1.PCA(Principal Component Analysis):主成分分析。用于降维分析。
降维的目的:减少预测变量的个数;确保变量相互独立;提供框架来解释结果
降维后的特征向量减少了冗余,反应特征的本质,具有低相关性性质,做分类预测时不容易导致过拟合。

https://blog.csdn.net/lifeng_math/article/details/50014073

2.attention

深度学习之注意力机制的那些事(Attention mechanism) - 知乎 (zhihu.com)

深度学习中的Attention总结 (baidu.com)

(41条消息) 深度学习attention原理 - CSDN

3.patch

在CNN学习训练过程中,不是一次来处理一整张图片,而是先将图片划分为多个小的块,内核kernel (或过滤器或特征检测器)每次只查看图像的一个块,这一个小块就称为patch,然后过滤器移动到图像的另一个p

你可能感兴趣的:(深度学习,人工智能)