【特征值怎么求 特征向量怎么求】1.特征值
从线性变换入手,把一个矩阵当作一个线性变换在某一组基下的矩阵,而最简单的线性变换就是数乘变换 。
特征值的意义就是:目的就是看看一个线性变换对一些非零向量的作用是否能够相当于一个数乘变换,特征值就是这个数乘变换的变换比 。
特征值得简单理解就是:输入x到系统A中,输出得到的是输出x的landa倍 。
2.特征向量
公式当中的x就是特征向量 。
我们更关心的是把原先的线性空间(如A)分解成一些和特征向量相关的子空间的直和 。
这样我们的研究就可以分别限定在这些子空间上来进行,这和物理中在研究运动的时候将运动分解成水平方向和垂直方向的做法是一个道理!
特征值是针对方阵而言的 。
3.特征值和特征向量在图像处理的含义
我们知道,一个变换可由一个矩阵乘法表示,那么一个空间坐标系也可视作一个矩阵,而这个坐标系就可由这个矩阵的所有特征向量表示,用图来表示的话,可以想象就是一个空间张开的各个坐标角度,这一组向量可以完全表示一个矩阵表示的空间的“特征”,而他们的特征值就表示了各个角度上的能量(可以想象成从各个角度上伸出的长短,越长的轴就越可以代表这个空间,它的“特征”就越强,或者说显性,而短轴自然就成了隐性特征),因此,通过特征向量/值可以完全描述某一几何空间这一特点,使得特征向量与特征值在几何(特别是空间几何)及其应用中得以发挥 。
4.矩阵论之图像处理
矩阵论在图像中的应用比如有PCA( Principal Component Analysis)主成分析方法,选取特征值最高的k个特征向量来表示一个矩阵,从而达到降维分析 特征显示的方法 。一般而言,这一方法的目的是寻找任意统计分布的数据集合之主要分量的子集 。相应的基向量组满足正交性且由它定义的子空间最优地考虑了数据的相关性 。将原始数据集合变换到主分量空间使单一数据样本的互相关性降低到最低点 。
5.PCA例子说明
对于一个k维的feature来说,相当于它的每一维feature与其他维都是正交的(相当于在多维坐标系中,坐标轴都是垂直的),那么我们可以变化这些维的坐标系,从而使这个feature在某些维上方差大,而在某些维上方差很小 。例如,一个45度倾斜的椭圆,在第一坐标系,如果按照x,y坐标来投影,这些点的x和y的属性很难用于区分他们,因为他们在x,y轴上坐标变化的方差都差不多,我们无法根据这个点的某个x属性来判断这个点是哪个,而如果将坐标轴旋转,以椭圆长轴为x轴,则椭圆在长轴上的分布比较长,方差大,而在短轴上的分布短,方差小,所以可以考虑只保留这些点的长轴属性,来区分椭圆上的点,这样,区分性比x,y轴的方法要好!
所以我们的做法就是求得一个k维特征的投影矩阵,这个投影矩阵可以将feature从高维降到低维 。投影矩阵也可以叫做变换矩阵 。新的低维特征必须每个维都正交,特征向量都是正交的 。通过求样本矩阵的协方差矩阵,然后求出协方差矩阵的特征向量,这些特征向量就可以构成这个投影矩阵了 。特征向量的选择取决于协方差矩阵的特征值的大小 。
举一个例子:
对于一个训练集,100个sample,特征是10维,那么它可以建立一个100*10的矩阵,作为样本 。求这个样本的协方差矩阵,得到一个10*10的协方差矩阵(解释在第6),然后求出这个协方差矩阵的特征值和特征向量,应该有10个特征值和特征向量,我们根据特征值的大小,取前四个特征值所对应的特征向量,构成一个10*4的矩阵,这个矩阵就是我们要求的特征矩阵,100*10的样本矩阵乘以这个10*4的特征矩阵,就得到了一个100*4的新的降维之后的样本矩阵,每个sample的维数下降了 。
推荐阅读
- 买回来的小巴西龟不吃东西怎么办 巴西龟不吃东西怎么办
- 跆拳道腰带图片 跆拳道腰带怎么系
- 失眠最快入睡的方法 怎么快速睡着
- 聪明妻子都是这么做的 老公有小三,聪明的妻子怎么做
- 老公精神出轨怎么办 老公精神出轨怎么挽救
- 不离婚也不跟小三断绝联系 老公跟小三有感情了又不愿意离婚怎么办
- 老公出轨成了过不去的坎 老公出轨我心里过不去这个坎怎么办
- 家里马桶堵了怎么办,不用干着急按照下面步骤做
- 明知道老公出轨怎么办 假如老公出轨了我该怎么办
- 闹钟怎么设置闹铃