以下内容是读这篇博客后的小结,学习了一下关于特征值特征向量与SVD奇异值分解相关知识。
https://blog.csdn.net/xiaocong1990/article/details/54909126
https://blog.csdn.net/zhyh1435589631/article/details/62218421
特征值和特征向量是线性代数中十分重要的概念。在线性代数中,矩阵表示的是一种线性变换,特征值表示矩阵的主要信息,特征向量表示变换的主要方向。但是特征值与特征向量仅用于方阵中,对于一般的矩阵并不适用,因此引入SVD奇异值分解。
主要作用就是:用部分主要的的奇异值以及对应的奇异值向量来表示整个矩阵信息,这对于减小运算量与内存来说十分有用。其他具体内容上面的博客讲的非常清楚了,就不在重复。主要应用于:
1、在ORB-SLAM的单目初始化过程中,大量的使用到了SVD奇异值分解。可以求解基本矩阵F,单应性矩阵H,以及初始化的三维点。
2、PCA主成成分分析。
贴上一个讲特征值与特征向量的视频,形象生动,有兴趣的可以看看:
https://www.bilibili.com/video/av6540378?from=search&seid=1910776378530218193