从今年开始手机厂商推出了很多搭载万像素摄像头的手机,有的甚至售价不足千元,让大量用户表示真香。
虽然都说自己是万像素摄像头,但这万像素是怎么来的?市场上的万像素还有直出和插值之分你知道吗,它们二者怎么区分呢?
万像素照片如何实现
现在市面上流行的万像素手机一般都会选择索尼和三星的传感器,所谓的万像素,其实简单理解,你可以把它想象成在手机内部的一块矩形传感器(CMOS)上,排列着总共万个微小的光电二极管。
它们每一个都可以感知外部的环境光线,这万个光电二极管获得的光线汇集在一起,便生成了一张分辨率为万像素的照片,但是它只对光线的明暗敏感,无法感知颜色。如果我们直接用它来成像,照片看起来就像是一团黑影。
怎么能让它拍出五颜六色的照片呢,这个时候就引出了RGB的概念了,RGB颜色模型是一种加色模型,将红、绿、蓝三原色的色光以不同的比例相加,以产生多种多样的色光。
让这三原色通过微小的滤色镜有序的排列在万个光电二极管上,相邻的二极管相互融合颜色,就能拍出不同颜色的照片。极果君举个简单的例子,小时候家里的黑白电视前面加块玻璃或贴张膜,瞬间变成彩色的画面,运用的就是这样一个原理。
当然了,排列方式十分复杂,这么多密集的二极管排列在一起,如果让它们都用滤镜去感知色彩,就需要给每一个二极管加上一个色彩滤镜。这样做传感器面积又会增大,并且需要捕捉的色彩过于复杂,拍出的照片就会出现很多杂色。
所以现在最常用的排列方式称为拜耳式,它是一种2×2的排列方式,4个点为一组,分别使用R(红)G(绿)B(蓝)G(绿)颜色排列,这样拍出来的照片就是一张完整的万像素图像,也就是我们常见的单反相机上拍出来的照片。
那么,既然都是使用了拜耳式排列,为什么手机和相机的差距还是能肉眼所见呢?说白了,还是传感器的原因。CMOS图像传感器的尺寸越大,捕获的光子越多,感光性能越好。。但是手机CMOS的面积很小,单位内像素密度过高,,导致图像细节不够清晰,并且容易产生更多的噪点。
而且手机的整个镜头模块都压缩在一个很小的尺寸之内,各种元器件挤压、发热,使得手机的成像素质又受到了影响。
再加上考虑到成本和功耗,手机自然不会去选择单反所用的大号的传感器。
手机万直出什么意思
这个时候,伟大的索尼出现了,它想了一个妙招,你不是面积大吗?那我将传统的2×2拜耳式排列给它裁剪/放大一下,变成4×4的,不就行了?
16个二极管为一组,每4个用一个颜色,不就灵活运用了吗?于是这种排列方式被成为QuadBayer,也就是我们常说的“四倍拜耳”排列。
这样说可能不太清楚,再举个板栗,在原来的排列方式下,单个二极管只需和它旁边的靠紧,通过滤镜去混合出其他两种颜色,而现在想要搭配出不同的颜色就需要去更远的滤镜下寻找。
这样做虽然实现起来毕竟容易,但也有缺点,就是相比起传统的排列方式来说,这样做拍出的照片对颜色的判断精度要稍微差一些,想想也对,你都让我跑这么远了,还不允许我跑偏?
但以现有的技术条件来说,手机要想实现万像素照片直出,这也是最好也是唯一的办法。
虽然比相机来说色彩还原要差一些,但因为它每个二极管都是独立输出色彩信息,也就是直出万像素。
万or万
说完了直出,再来谈谈插值,虽然市面上部分厂商在使用索尼四倍拜耳式排列的摄像头,但受限于成本和上游供应链的影响,还是有很多厂商去选择三星的解决方案。
三星自身实力也很强大,但和索尼不同的是,它虽然也使用了四倍拜耳的排列方式,但它的传感器不能像索尼那样,每个二极管都能输出颜色信息,只能将使用同一颜色滤镜的4根二极管作为一个整体。
这四个二极管去和相邻的四个二极管一起去交换颜色信息,以此来拍出照片,也就是说,三星万像素拍出来的照片,其实只有万个二极管在输出颜色信息,得到的也就只是一张万像素的照片,相比起索尼,直接缩水了4倍。
看到这儿,有朋友就要问了,那剩下的万像素去哪儿了?其实那万像素,是厂商通过AI软件算法插值,自己模拟出来的,也就是某些厂商所谓的“AI超清输出”,也就是说,它们所谓硬件输出的照片其实跟万传感器输出的照片没有本质区别。这一点我们可以在三星的
转载请注明:http://www.0431gb208.com/sjslczl/5872.html