手机像素唯一能决定的是用它拍出来的照片分辨率,而分辨率越高,只能决定照片的尺寸,而并不是说像素越高就越清晰!因此,我觉得手机像素可能会越来越高,但是实在太高可能意义不是太大!
现在手机行业的热点有点向双面屏幕过渡的趋势,但不可否认的是拍照质量一直是企业间竞争的核心。作为光-电转换的系统,显然不可能清晰度无限提升,否则单反都可以扔了,现在问题来了:手机摄像头拍照清晰度的理论极限在哪里?我们是否已经达到/超越了?
iPhone的摄像头像素提升的很慢:从祖传800万提升到了祖传1200万
一个物理学概念
当我们把照片放大,放大到最后一定是像素马赛克的点阵。如果每个像素都能表达信息,那么就可以说是清晰度的极限了。但事实上是做不到的,首先要从镜头说起。
如同星点汇聚成银河,水滴汇聚成云朵
我们拍照,相当于画面就是由无数个发光或是反射光的点集合而成,或者数学上就是积分的概念。那么单个点光源的成像极限就是光学系统的分辨能力极限。单个点光源其实很容易获得,夜空中的亮星都是理想的点光源。
艾里斑是单个光点在焦点周围的衍射出的同心圆,它定义了光学的极限
点光源穿过理想透镜的时候,会发生一个光学现象,称之为衍射。在1835年的时候,英国皇家天文学会的乔治·比德尔·艾里发现了一个现象,那就是在焦点处会出现一圈一圈的衍射同心环条纹,这个称之为艾里斑,我们拍摄任何照片,最后的成像都可以理解为艾里斑的积分,通俗的理解就是无数艾里斑在一起,构成了照片。
艾里斑与光圈的关系:光圈越大艾里斑越小,所以手机镜头的光圈值F都很大
艾里还给出了艾里斑大小的公式:θ1≈1.22λ/D 。如果一个镜头不能把两个艾里斑解析开,让它们重合了一部分,那就是镜头的解析力的极限。说了半天,艾里斑有多大呢?上门那个表就是理想状况下艾里斑直径的数值,我们会发现,光圈越大、艾里斑直径越小。但是这不是与我们照相机系统F8左右成像好,光圈全开画质劣化相矛盾了?错!我们用的镜头都不是理想透镜,要妥协不同光圈的成像画质,这才是光圈全开劣化画质的根源。
02/像素:超越艾里斑
上门的数据表格是针对绿光的,那么一个大约1/2.5英寸、1200像素的iPhoneXS感光器单个像素有多大?苹果在发布的时候给出了答案:1.4微米。这就说明单个像素已经要和艾里斑的大小差不多了。
要知道iPhone Xs只有1200万像素,而主流的国产拍照手机摄像头,都早已超越了这个数字,这也就是说单个像素已经小于艾里斑,那么也就超越了理论的分辨极限:两个或是多个像素来表现一个艾里斑并不能提高分辨率。
更大的像素是单反画质更好的原因之一
有什么办法吗?有的。要么镜头更大、感光器的面积更大,这也是为何单反的画质一直要比手机好的原因所在,同样像素数量,单反的像素要大得多了,捕获的信息更多。但是手机受到尺寸的制约,没办法使用更大的镜头和感光器,这就是人们开始尝试多摄像头的原因,关于多摄像头,我还会有另外一篇文章分析。
信噪比更好的感光元器件也可以提升分辨率
并且,由于手机的镜头其实也距离理想透镜想去甚远,因此从物理角度看,分辨率到今天已经达到了极限。那么可以改进的地方在哪里呢?首先是感光器本身。影像传感器不论是CCD还是CMOS,都有个信噪比的问题,当曝光时间变长的时候噪声会变得非常强,噪点增多,所以使用优质供应商的高信噪比摄像头很关键。
03/优化的核心是什么?
摄像头捕获的原始信息还要经过压缩才能转换成我们手机里的JPG照片,这其中涉及到压缩和图像优化。JPG使用的离散余弦变换压缩方式决定了画质变差是整体的,所以要文件尽量的大才能尽可能多的保留信息,而事实上今天手机的照片也是动辄原图有好几MB大小。
AI优化是核心,谷歌的AI超强
另外一方面则来自图像分析程序的进步。突出的就是Google Pixel3的手机,Night Sight可以在夜间排出近乎白天的效果。这就是AI的功劳。同过机器学习的人工智能训练好了之后手机的计算能力处理已经绰绰有余,同过AI,可以分析当前得到的相片和训练模型进行比对,进而增强、优化,让照片“看起来”更清楚。
更讨好我们视觉的就是好照片,现在比拼的要点也是如此
正如文中所说的,我们现在的手机拍照,其实早已经超越了镜头光学的分辨极限,只要手机镜头和CCD还是这么大,物理的极限就在这里,突破不了,提升的是算法,更讨好的是我们的眼睛,让照片“看起来”更清楚。