线性代数中的特征值和特征向量
对于一个方阵 A,如果存在一个非零向量 v 和一个标量 λ,使得 Av=λv,那么 λ 就是 A 的特征值(Eigenvalues),v 是对应的特征向量(Eigenvectors)。 但特征值和特征向量的意义和价值不止如此。 在几何意义上,矩阵乘以一个向量,可以看作矩阵对向量所在空间的变换(旋转、拉伸等操作)。而矩阵的特征向量和特征值则直接描述了线性变换的性质。特征向量指明了特定变换下的方向,特征值体现伸缩程度。 特征分解(Eigendecomposition)是将矩阵表示为其特征向量和特征值的组合,即 A=PΛP−1,其中 P 是特征向量组成的矩阵,Λ 是特征值组成的对角矩阵。特征分解不仅能简化计算,比如在复杂运算中可降低难度,而且在主成分分析(PCA)里有着关键应用。