科普:为什么手机明明像素很高,拍出来的照片感觉还是不如相机?
相信许多朋友都有一个困惑,最近几年手机的像素越来越高,从4800万到5000万到6400万像素甚至1亿像素,明明像素这么高,但是拍出来的照片,为何还是感觉不如2000万像素、甚至1200万像素的微单相机拍出来的照片清晰呢?
要回答这个问题,首先我们要搞清楚照片的画质和清晰度,与“像素”的关系。
像素越高越清晰、像素越高画质越好——这个说法已经成为了许多朋友脑海里面的固有印象。而实际上,像素这一名词,指代的只是画面尺寸,例如4000 x 6000的分辨率,就是典型的2400万像素。
我们可以用画框来比喻,4000 x 6000是这个画框的尺寸,但是这幅画清不清晰,还要看你用的颜料,你在这幅画上用了多少的色彩、墨水,相当于照片中的进光量,这个就和 传感器底面积 相关了。
传感器底面积越大,进光量越大,画面自然就更清晰了。小尺寸的传感器,为了获得和大尺寸传感器同样的进光量,有一种途径,就是拉长快门时间,虽然我传感器小,但是你曝光1秒,我曝光2秒,那咱们的进光量是不是就差不多呢?
在传感器画幅相差不大的情况下,这钟方法是可行的。例如M43画幅的相机,传感器比全画幅小,但是通过变态的防抖,可以手持拉更长的快门时间,来获得媲美全画幅的进光量。
但是放到手机上,大家知道手机的传感器底面积,和相机全画幅的差距有多大嘛?
手机上现在最大的传感器也就1英寸,上面还有M43、APS-C才到全画幅。1英寸传感器是手机上的天花板,但是相机上的下限。
这种情况下,手机可能要拉10秒的快门,进光量才能和全画幅的1/50秒快门下相媲美。
手机手持10秒快门,自然是不切实际的。
这也导致手机的进光量明显不如相机,当然,手机厂商自然也有解决方法。
那就是“计算摄影”,硬件比不过,我用算法来弥补嘛!多帧合成,多帧降噪一用,手机也能拍出很纯净的夜景照片。
但是计算摄影,也使得拍出来的照片“数码味儿”很浓——就是摄影圈常说的一看就是手机拍的。
例如iPhone13饱受诟病的锐化问题,就是过度计算摄影的影响,用户想关闭都关不了。
小底的天生硬件限制,加上过度的计算摄影,让手机拍出来的照片清晰度和画质不如相机。
玩过摄影的都知道,一套顶级的相机系统,是由顶级的机身+顶级的大三元镜头组成,某种意义上镜头甚至比机身还重要。
好的镜头有复杂的镜组,镜片都有十多组,还有复杂的镀膜工艺,来消除炫光、紫边等等影响。镜头的通光量也直接影响画质、锐度等等。
但是手机的塑料镜片可顾不了这么多,7P塑料镜片都算最好的了。进光量、炫光的控制,和相机上的镜头,一个天上一个地下。
虽然现在手机上已经有了1英寸的传感器,但是与之匹配的镜头却没跟上,大家可以看看索尼1英寸传感器的黑卡7,镜头模组有多大。再看看手机上的镜组有多小?
通过以上科普,相信大家已经有了答案——照片的清晰度不止和像素相关,更多的是和传感器底面积、镜头素质挂钩。
如果传感器底面积不提升,镜组不提升,手机就算玩到2亿像素、10亿像素,画质也比不过1200万像素的全画幅微单。
2024-12-03 广告