小米发布了一款有1亿像素的概念型手机,没错,是“概念型”。当然,这不是重点,重点是小米都1亿像素了,而今年的新款iPhone摄像头最高像素还是只有1200万,对比不可谓不强烈。
很多人说,“敢用iPhone拍脸的人,都是对自己颜值非常自信的人。”换句话说,就是在各大手机厂商叫嚣着自家手机拍照性能可以比肩单反的当下,iPhone毫无竞争力,毕竟它已经在1200万像素关口停滞数年不前了。
但iPhone拍照真的有那么差吗?像素又真的是决定拍照性能的唯一因素吗?弄清楚这些问题之前,我们先来聊聊像素对于拍照的重要性。
有关像素的那些事
· 什么是像素?
某百科中对“像素”的描述是这样的:
“像素是指由图像的小方格组成的,这些小方块都有一个明确的位置和被分配的色彩数值,小方格颜色和位置就决定该图像所呈现出来的样子。”
这么说可能有些晦涩难懂,我们可以看看下面这张图:
以一个方格为单位,很明显,左边图像的像素点比右边要少很多,反映到最终成像上,右边图像的清晰度更高,连花瓣上的露水都清晰可见。简而言之,理想状态下,像素越高成像越精细,这也是各大手机厂商争相追逐高像素的主要原因。
但提升像素并不是一件简单的事情,这第一道关卡,便是要让图像传感器有足够的图像解析能力。而这方面的关键技术,常年被三星和索尼,或者说索尼一家垄断着。
· 索尼与三星之争,从CCD到CMOS
作为拍照设备的基础硬件,现今图像传感器中最常见的便是CMOS,而我们通常所说的XXXX万像素像头中的“XXXX万”指的就是CMOS上的光电感应元件的数量。
但其实一开始,拍照还仅存于相机领域时,CCD的应用更为广泛,而索尼就是这方面绝对的龙头老大。早在1969年,在贝尔实验室发明出CCD时,索尼便快速入局了。
无论是独创正孔蓄积层推出HAD感测器并应用到可变速电子快门产品中,还是为了创新性的在每个感光二极管前装上微小镜片,又或是推出SUPERHAD CCD技术奠定了CCD基本技术基础,凭借超大规模集成电路工艺技术的应用,索尼相关产品的像素集成度、成本控制等在业内均位居前列,在市场上也是一骑绝尘。直到2007年前后,手机对图像传感器需求大增之后,局面才有了变化。
一直以来,三星都很努力的想在拍照领域大展拳脚,但始终都不具备大规模生产CCD的能力。而随着智能手机的普及以及市场对拍照需求的提升,能输出数字信号、工艺简单、功耗和成本更低的CMOS便成为了首选之项。
相较于CCD,虽然CMOS在感光和图像分析处理上稍弱,但手机毕竟不是专业相机,要求没那么高,三星也正是看中了这一点,快速补足此前落下的工艺及产能问题,大规模生产CMOS,加之自家智能手机在市场上表现良好,二者加成竟让它有了后来者居上的架势。
当然,索尼也不是后知后觉者,早在2007年便发布了旗下首款Exmor传感器,不仅内置ADC(模数转换器),还是在小尺寸传感器下实现的,顺利拿下了CMOS市场的“准入证书”。2008年,该公司又推出了采用BSI(背照式)技术的Exmor R传感器,成功打入手机市场,拿到了iPhone 4s的订单。
而三星虽然基础弱、入局时间晚,但凭借着自己在半导体产业的优势, 赶在2017年CMOS市场彻底爆发之前,推出了ISOCELL图像传感器直指索尼Exmor;2018年还推出了1600万像素ISOCELL Slim 3P9,不仅即插即用式,且支持四像素合一;今年又首发了6400万像素传感器GW1,以及推出1.08亿像素数图像传感器,最新的4370万像素传感器ISOCELL Slim GH1的单位像素更是只有0.7μm。
如此看来,在技术上三星似乎已经先于索尼了。但产品好不好,用了才知道。
像素飞涨的背后,是手机厂商急功近利了吗?
可以看到,在拍照性能越来越受重视的当下,高像素已经成为了消费者购买手机的重要择选标准,几乎所有的手机厂商都在这方面卯足了全力。但其实早在2010年,乔布斯就曾表示,“许多手机厂商利用广大消费者对照片成像原理知识漏洞,在手机拍照上主打高像素,但手机拍照性能高低,像素只是影响要素之一而已。”
这里有个对比:
2011年小米发布旗下第一款手机时,后置的是800万像素摄像头,而它今年年初发布的小米9,后置主摄已经提升至4800万像素;
同样在2011年苹果发的iPhone 4s后置的也是800万像素摄像头,但它刚刚发布的新机iPhone 11后置像素却只有1200万。而且从2015年iPhone 6s采用1200万像素摄像头至今,iPhone在这方面已经5年没有升级了。
同样是8年时间,小米将像素提升了6倍,而iPhone只翻了一番,难道苹果不如小米?其实并不完全是这样。
摄像领域有句行话说,“底大一级压死人”,通俗解释就是“在像素相同的情况下,更大尺寸的传感器每个像素接收到的光线就越多,拍照效果则更好”。反映到手机摄像头上,就是CMOS面积越大,拍照性能越好。而iPhone摄像头像素5年没有变化,拍照性能却越来越好,就是因为在CMOS面积上做了多次升级。反应到摄像头外部特征上,最直观的便是光圈越来越大。
以前几代的iPhone为例,iPhone4/5使用的均是索尼IMX145,CMOS面积为1/3.2,单位像素为1.4μm;到iPhone 6s,使用的则是索尼为其全新定制的IMX315,CMOS面积为1/3,单个像素面积提升到了1.22μm,光圈为f/2.2;iPhone X的CMOS则最小为1/2.6,其中广角镜头光圈有?/1.8。
也就是说,苹果一直在致力于提升单个像素质量,例如每个像素光线的摄入量以及色彩深度的协调性等。而小米方面,从小米8到小米9,摄像头像素数直接从1200万翻成了4800万,但有知乎网友称,实际拍照效果却是小米9的涂抹感严重,锐度也不如小米8,在最新的DxOMark排名中,也仅为全球第七。
而今天发布的MIX Alpha所搭载的1.08亿像素级CMOS,尺寸虽然高达1/1.33,大像素却只有1.6μm,也就是说,单个像素质量实际上并没有达到1亿像素该有的水准。
实际上,即便是全画幅相机,CMOS尺寸都至少是手机的10倍以上,更不用提包括富士、哈苏的等也都曾推出过像素仅有5000万的产品,手机摄像头一下子上亿级像素,确实有些匪夷所思。
当然,和像素一样,CMOS面积也仅是影响拍照效果的重要因素之一,提升拍照性能还有很多其他途径可走,比如一直卡在“4000万关口”的华为,就是在滤镜上下了很大的功夫。
像素之外,我们还能做些什么?
今年3月,华为高调发布了一款号称可以“随手一拍,九天揽月”的P30手机,后置“4000万像素主摄+1600万超广角摄像头+800万长焦摄像头”,最大的亮点便是首创全新RYYB传感器设计,以黄色像素替换三原色中的绿色像素,进光量提升达40%,保证了暗光环境中的成像质量。而刚刚发布的Mate 30 Pro,也沿用了这一设计。
RYYB厉害在哪里呢,这里就先要说说拜耳阵列了。拜耳阵列是现代彩色数码摄影的重要传感器设计防水,是实现CCD或CMOS传感器拍摄彩色图像的主要技术之一。简单来说,它是一个4×4阵列,由8个绿色、4个蓝色和4个红色像素组成,也就是我们通常所说的“RGGB”。
但随着市场对摄像头拍照性能要求的提升,越来越多的人发现,在超高清或高清拍摄下,RGGB灰度解析能力不足的情况就被放大了出来,主要原因就是RGB三原色是加色法,对光的吸收较为局限。例如在拍摄高清纺织物时,因纤维之间的颜色差距较小,容易出现串色的情况。
而华为推出的RYYB滤镜,则是对红、绿、蓝三原色进行了重塑,用黄色替代绿色,即通过牺牲绿色进光量,提高黄色进光量,变相的增加了红色的进光量(黄色光是红色光和绿色光混合而成的),从而来提升摄像头弱光环境表现能力。反应到实际效果上,就是RYYB的进光量较RGGB提升了40%,P30在夜晚可以清楚的拍摄月亮就得益于此。
不过,一切创新性设计都需要强有力的解析技术支撑,这就涉及到处理器性能了。目前,高端移动SoC主要有三类:
高通骁龙800系列,目前已迭代至855 Plus,较855提升有限,大核提速到2.96GHz,被认为是5G过渡芯片;苹果A系列,目前已迭代至A13,采用第二代7nm制程工艺,单枚芯片拥有85亿颗晶体管,每秒运行次数达1万亿次,CPU采用的是“2个高性能核心+4个高效能核心”的组合,GPU为4核,功耗则降低了40%,NPU为8核;
华为麒麟900系列,最新推出的为麒麟990,集成了103亿个晶体管,采用台积电7nm+EUV工艺,并魔改架构为“双大核+双中核+四小核”。
仅就当前来看,后两者的关注度比较高,反应到手机上,以解析难度较大的视频拍摄为例,iPhone 11Pro可以4K / 60fps,以及多个摄像头同时拍摄;而Mate 30则可实现4K HDR和4K延时拍摄,视频ISO达51200帧,支持7680 fps超高速视频拍摄。而拍照方面,防抖、AI虚化、景深、暗夜、微距、长焦、广角等均可实现。
此外,华为在ISP上也做了硬件升级,如最新发布的麒麟990中就采用了ISP 5.0,可实现实时多实例分割,在人脸检测场景下,微核能效提升达40%,且支持手机端BM3D单反级图像降噪技术和双域联合视频降噪技术。
当然,技术手段之外,直接叠加摄像头也是主要途径之一,不过如今手机后置最高已经提升至5摄了,就连当年坚持只做单摄的iPhone也推出了后置三摄,但如果以后手机会变成这个样子,“密恐患者”可能真的很难接受。