卫星遥感图像的成像原理和普通图像有哪些差异呢?
普通相机基本是采用三色图,也就是RGB,红绿蓝,有个很典型的东西叫做Bayer Filter(图片来自wiki)。就是有的pixel专门接受绿色光,有的专门接受红色,有的专门接受蓝色。一个小tip:因为人眼的关系,红色filter:绿色filter:蓝色filter=1:2:1,这样的图片对于我们人眼来说很容易辨识的。通过这样的filter,相机再把图片处理成最终我们在digital camera上看的彩色图。至于说遥感图片,这个是需要区分波段的,VNIR(可见光到近红外),SWIR(短波红外),MIR(中波红外),LIR(长波红外),为什么要这样区分,因为在不同波段下,光的性质会有不同,材料对光的反应也会不一样,因此sensor的材料要相应进行改变,比如VNIR的sensor用的是silicon,SWIR的sensor用的是HgCdTe。那么为什么遥感需要不同波段的信息呢,一个最主要的原因,茫茫世界光靠可见光的颜色我们人是分不出来不同物质的。同样是绿色,气球和森林,光凭肉眼如何区分,再加上从万里高空看下来,甚至连气球都看不见了。于是我们需要借助不同波段下,物质对光的反应来区别它们。因此遥感的图片是一个三维的data,既两维的空间和一维的波段。而且这些图片基本都是采用灰度图片,只告诉你数值,关于颜色和灰度图请参考我的这个回答如何让正常的人眼看到更宽广的色域范围。相机成像原理都是一样,就是传感器接受到外界光子,要么形成电压信号,要么形成电流信号,然后转换成我们所熟悉的pixel。