什么是特征向量?
展开全部
问题一:什么是特征向量?特征值? 25分 特征值就是使得λE-A的行列式为0的λ值,而特征向量是对应某一特征值来说满足值,(λE-A)a=0的解向量
来自UC浏览器
问题二:特征值和特征向量的几何意义是什么? 特征向量的几何意义
特征向量确实有很明确的几何意义,矩阵(既然讨论特征向量的问题,当然是方阵,这里不讨论广义特征向量的概念,就是一般的特征向量)乘以一个向量的结果仍 是同维数的一个向量,因此,矩阵乘法对应了一个变换,把一个向量变成同维数的另一个向量,那么变换的效果是什么呢?这当然与方阵的构造有密切关系,比如可 以取适当的二维方阵,使得这个变换的效果就是将平面上的二维向量逆时针旋转30度,这时我们可以问一个问题,有没有向量在这个变换下不改变方向呢?可以想 一下,除了零向量,没有其他向量可以在平面上旋转30度而不改变方向的,所以这个变换对应的矩阵(或者说这个变换自身)没有特征向量(注意:特征向量不能 是零向量),所以一个变换的特征向量是这样一种向量,它经过这种特定的变换后保持方向不变,只是进行长度上的伸缩而已(再想想特征向量的原始定义Ax= cx,你就恍然大悟了,看到了吗?cx是方阵A对向量x进行变换后的结果,但显然cx和x的方向相同),而且x是特征向量的话,ax也是特征向量(a是标 量且不为零),所以所谓的特征向量不是一个向量而是一个向量族, 另外,特征值只不过反映了特征向量在变换时的伸缩倍数而已,对一个变换而言,特征向量指明的方向才是很重要的,特征值不是那么重要,虽然我们求这两个量时 先求出特征值,但特征向量才是更本质的东西!
比如平面上的一个变换,把一个向量关于横轴做镜像对称变换,即保持一个向量的横坐标不变,但纵坐标取相反数,把这个变换表示为矩阵就是[1 0;0 -1],其中分号表示换行,显然[1 0;0 -1]*[a b]'=[a -b]',其中上标'表示取转置,这正是我们想要的效果,那么现在可以猜一下了,这个矩阵的特征向量是什么?想想什么向量在这个变换下保持方向不变,显 然,横轴上的向量在这个变换下保持方向不变(记住这个变换是镜像对称变换,那镜子表面上(横轴上)的向量当然不会变化),所以可以直接猜测其特征向量是 [a 0]'(a不为0),还有其他的吗?有,那就是纵轴上的向量,这时经过变换后,其方向反向,但仍在同一条轴上,所以也被认为是方向没有变化,所以[0 b]'(b不为0)也是其特征向量,去求求矩阵[1 0;0 -1]的特征向量就知道对不对了!
zz quentan blog
问题三:什么是左右特征向量 5分 A=[2 4 6;8 10 12;16 20 10]
A =
2 4 6
8 10 12
16 20 10
>> [x,y]=eig(A)
%x为右特征向量,s为左特征向量,v为规格化的左特征向量
x =
-0.25057066610473 -0.75728611172496 -0.37026452747123
-0.57316596105677 0.64832528567130 -0.41252239696521
-0.78018915807239 -0.07868970039160 0.83230370160091
y =
29.83166481964299 0 0
0 -0.80100599693287 0
阀 0 0 -7.03065882271013
>> [s,t]=eig(A')
s =
-0.50784386176239 -0.84327293428122 -0.55495915239562
-0.66034030426232 0.52505980762843 -0.57529769964573
-0.55321360669909 -0.11490411969091 0.60087677268694
t =
29.83166481964298 0 0
0 -0.80100599693287 0
0 0 -7.03065882271013
>> v=inv(x)'
v =
-0.54178875996860 -0.85347174923880 -0.58855577812648
-0.70447824920440 0.53141005035764 -0.61012559898821
-0.59019107355381 -0.11629380718941 0.63725320139379
>> v(:,1)'*x(:,1)
ans =
1
问题四:什么是左右特征向量? 对于矩阵A,若AX = rX存在特征向量R,则称R为右特征向量;YA=rY存在特征向量L,则称L为左特征向量。
[211;020;0-11]
设A的特征值为λ
则|A-λE|=
2-λ 1 1
0 2-λ 0
0 -1 1-λ
=(2-λ)(2-λ)(1-λ)=0
所以λ=1或2
当λ=1
A-E=
1 1 1
0 1 0
0 -1 0 第1行减去第2行,第3行加上第2行
~
1 0 1
0 1 0
0 0 0
得到特征向量为(1,0,-1)^T
当λ=2
A-2E=
0 1 1
0 0 0
0 -1 -1 第3行加上第1行
~
0 1 1
0 0 0
0 0 0
得到特征向量为(0,1,-1)^T和(1,0,0)^T
问题五:向量,特征向量,特征值是什么关系 特征向量是一个线性变换或方阵某个特征值对应的特征向量,其满足的条件是AX=λX
问题六:模式识别中的特征向量和矩阵的特征向量有什么关系 昨天就看到这个问题,到现在竟然没有人回答,那我就稍微解答一下,具体深入理解请自行分析;
特征向量是个什么东西?学过矩阵论的人都知道,一个可逆的矩阵可以分解为特征值和特征向量的乘积,即AV=lambaV,其中V是特征向量矩阵;这个的好处是可以把一个矩阵换基;即将一个矩阵基底转换为以另一组以特征向量为基的矩阵;好处呢,显而易见,可以抛弃太小的特征值对应的基,他没意义嘛,从而起到降维的效果,这就是PCA降维,可以百度一下;
那么模式识别讲的特征向量是什么呢,这个是一个截然不同的概念,模式识别重在分类,分类用什么数据呢,当然是特征向量,这个特征指的是,你分类物体的特征,如人脸,指纹,那你就可以从这些图片上面提取;那提取的这些数据就构成了你物体的一个特征,这就是特征向量;当然,可能你提取的特征向量太多维,那么这个时候,为了计算简便,你就需要降维,就可以通过上面所讲的PCA算法;通过降维后的数据进行计算。
所以,这是两种截然不同的概念
来自UC浏览器
问题二:特征值和特征向量的几何意义是什么? 特征向量的几何意义
特征向量确实有很明确的几何意义,矩阵(既然讨论特征向量的问题,当然是方阵,这里不讨论广义特征向量的概念,就是一般的特征向量)乘以一个向量的结果仍 是同维数的一个向量,因此,矩阵乘法对应了一个变换,把一个向量变成同维数的另一个向量,那么变换的效果是什么呢?这当然与方阵的构造有密切关系,比如可 以取适当的二维方阵,使得这个变换的效果就是将平面上的二维向量逆时针旋转30度,这时我们可以问一个问题,有没有向量在这个变换下不改变方向呢?可以想 一下,除了零向量,没有其他向量可以在平面上旋转30度而不改变方向的,所以这个变换对应的矩阵(或者说这个变换自身)没有特征向量(注意:特征向量不能 是零向量),所以一个变换的特征向量是这样一种向量,它经过这种特定的变换后保持方向不变,只是进行长度上的伸缩而已(再想想特征向量的原始定义Ax= cx,你就恍然大悟了,看到了吗?cx是方阵A对向量x进行变换后的结果,但显然cx和x的方向相同),而且x是特征向量的话,ax也是特征向量(a是标 量且不为零),所以所谓的特征向量不是一个向量而是一个向量族, 另外,特征值只不过反映了特征向量在变换时的伸缩倍数而已,对一个变换而言,特征向量指明的方向才是很重要的,特征值不是那么重要,虽然我们求这两个量时 先求出特征值,但特征向量才是更本质的东西!
比如平面上的一个变换,把一个向量关于横轴做镜像对称变换,即保持一个向量的横坐标不变,但纵坐标取相反数,把这个变换表示为矩阵就是[1 0;0 -1],其中分号表示换行,显然[1 0;0 -1]*[a b]'=[a -b]',其中上标'表示取转置,这正是我们想要的效果,那么现在可以猜一下了,这个矩阵的特征向量是什么?想想什么向量在这个变换下保持方向不变,显 然,横轴上的向量在这个变换下保持方向不变(记住这个变换是镜像对称变换,那镜子表面上(横轴上)的向量当然不会变化),所以可以直接猜测其特征向量是 [a 0]'(a不为0),还有其他的吗?有,那就是纵轴上的向量,这时经过变换后,其方向反向,但仍在同一条轴上,所以也被认为是方向没有变化,所以[0 b]'(b不为0)也是其特征向量,去求求矩阵[1 0;0 -1]的特征向量就知道对不对了!
zz quentan blog
问题三:什么是左右特征向量 5分 A=[2 4 6;8 10 12;16 20 10]
A =
2 4 6
8 10 12
16 20 10
>> [x,y]=eig(A)
%x为右特征向量,s为左特征向量,v为规格化的左特征向量
x =
-0.25057066610473 -0.75728611172496 -0.37026452747123
-0.57316596105677 0.64832528567130 -0.41252239696521
-0.78018915807239 -0.07868970039160 0.83230370160091
y =
29.83166481964299 0 0
0 -0.80100599693287 0
阀 0 0 -7.03065882271013
>> [s,t]=eig(A')
s =
-0.50784386176239 -0.84327293428122 -0.55495915239562
-0.66034030426232 0.52505980762843 -0.57529769964573
-0.55321360669909 -0.11490411969091 0.60087677268694
t =
29.83166481964298 0 0
0 -0.80100599693287 0
0 0 -7.03065882271013
>> v=inv(x)'
v =
-0.54178875996860 -0.85347174923880 -0.58855577812648
-0.70447824920440 0.53141005035764 -0.61012559898821
-0.59019107355381 -0.11629380718941 0.63725320139379
>> v(:,1)'*x(:,1)
ans =
1
问题四:什么是左右特征向量? 对于矩阵A,若AX = rX存在特征向量R,则称R为右特征向量;YA=rY存在特征向量L,则称L为左特征向量。
[211;020;0-11]
设A的特征值为λ
则|A-λE|=
2-λ 1 1
0 2-λ 0
0 -1 1-λ
=(2-λ)(2-λ)(1-λ)=0
所以λ=1或2
当λ=1
A-E=
1 1 1
0 1 0
0 -1 0 第1行减去第2行,第3行加上第2行
~
1 0 1
0 1 0
0 0 0
得到特征向量为(1,0,-1)^T
当λ=2
A-2E=
0 1 1
0 0 0
0 -1 -1 第3行加上第1行
~
0 1 1
0 0 0
0 0 0
得到特征向量为(0,1,-1)^T和(1,0,0)^T
问题五:向量,特征向量,特征值是什么关系 特征向量是一个线性变换或方阵某个特征值对应的特征向量,其满足的条件是AX=λX
问题六:模式识别中的特征向量和矩阵的特征向量有什么关系 昨天就看到这个问题,到现在竟然没有人回答,那我就稍微解答一下,具体深入理解请自行分析;
特征向量是个什么东西?学过矩阵论的人都知道,一个可逆的矩阵可以分解为特征值和特征向量的乘积,即AV=lambaV,其中V是特征向量矩阵;这个的好处是可以把一个矩阵换基;即将一个矩阵基底转换为以另一组以特征向量为基的矩阵;好处呢,显而易见,可以抛弃太小的特征值对应的基,他没意义嘛,从而起到降维的效果,这就是PCA降维,可以百度一下;
那么模式识别讲的特征向量是什么呢,这个是一个截然不同的概念,模式识别重在分类,分类用什么数据呢,当然是特征向量,这个特征指的是,你分类物体的特征,如人脸,指纹,那你就可以从这些图片上面提取;那提取的这些数据就构成了你物体的一个特征,这就是特征向量;当然,可能你提取的特征向量太多维,那么这个时候,为了计算简便,你就需要降维,就可以通过上面所讲的PCA算法;通过降维后的数据进行计算。
所以,这是两种截然不同的概念
已赞过
已踩过<
评论
收起
你对这个回答的评价是?
上海华然企业咨询
2024-10-28 广告
2024-10-28 广告
上海华然企业咨询有限公司深耕行业咨询领域,我们构建的大模型语料库,汇聚了海量、多元、高质量的数据资源。该语料库覆盖行业动态、市场趋势、政策法规、企业案例等多个维度,旨在通过深度学习与自然语言处理技术,为客户提供精准、前瞻性的洞察与分析。我们...
点击进入详情页
本回答由上海华然企业咨询提供
推荐律师服务:
若未解决您的问题,请您详细描述您的问题,通过百度律临进行免费专业咨询