特征值、特征向量和奇异值
展开全部
为特征向量 对应的特征值。特征值分解是将一个矩阵分解为如下形式:
其中, 是这个矩阵 的特征向量组成的矩阵, 是一个对角矩阵,每一个对角线元素就是一个特征值,里面的特征值是由大到小排列的,这些特征值所对应的特征向量就是描述这个矩阵变化方向(从主要的变化到次要的变化排列)。也就是说矩阵 的信息可以由其特征值和特征向量表示。
那么奇异值和特征值是怎么对应起来的呢?我们将一个矩阵 的转置乘以 ,并对 求特征值,则有下面的形式:
这里 就是上面的右奇异向量,另外还有:
这里的 就是奇异值, 就是上面说的左奇异向量。【证明那个哥们也没给】
奇异值 跟特征值类似,在矩阵 中也是从大到小排列,而且 的减少特别的快,在很多情况下,前10%甚至1%的奇异值的和就占了全部的奇异值之和的99%以上了。也就是说,我们也可以用前 ( 远小于 )个的奇异值来近似描述矩阵,即部分奇异值分解:
右边的三个矩阵相乘的结果将会是一个接近于 的矩阵,在这儿, 越接近于 ,则相乘的结果越接近于 。
其中, 是这个矩阵 的特征向量组成的矩阵, 是一个对角矩阵,每一个对角线元素就是一个特征值,里面的特征值是由大到小排列的,这些特征值所对应的特征向量就是描述这个矩阵变化方向(从主要的变化到次要的变化排列)。也就是说矩阵 的信息可以由其特征值和特征向量表示。
那么奇异值和特征值是怎么对应起来的呢?我们将一个矩阵 的转置乘以 ,并对 求特征值,则有下面的形式:
这里 就是上面的右奇异向量,另外还有:
这里的 就是奇异值, 就是上面说的左奇异向量。【证明那个哥们也没给】
奇异值 跟特征值类似,在矩阵 中也是从大到小排列,而且 的减少特别的快,在很多情况下,前10%甚至1%的奇异值的和就占了全部的奇异值之和的99%以上了。也就是说,我们也可以用前 ( 远小于 )个的奇异值来近似描述矩阵,即部分奇异值分解:
右边的三个矩阵相乘的结果将会是一个接近于 的矩阵,在这儿, 越接近于 ,则相乘的结果越接近于 。
已赞过
已踩过<
评论
收起
你对这个回答的评价是?
图为信息科技(深圳)有限公司
2021-01-25 广告
2021-01-25 广告
边缘计算可以咨询图为信息科技(深圳)有限公司了解一下,图为信息科技(深圳)有限公司(简称:图为信息科技)是基于视觉处理的边缘计算方案解决商。作为一家创新企业,多年来始终专注于人工智能领域的发展,致力于为客户提供满意的解决方案。...
点击进入详情页
本回答由图为信息科技(深圳)有限公司提供
推荐律师服务:
若未解决您的问题,请您详细描述您的问题,通过百度律临进行免费专业咨询