旗舰|安卓旗舰拍照集体翻车?!为什么拍照照片会糊掉?( 二 )


 旗舰|安卓旗舰拍照集体翻车?!为什么拍照照片会糊掉?
文章图片

由于现实环境中的光线都是由不同波长的光组成的,而镜片对不同波长的光的折射率不一样,会不可避免地使物体成像的时候产生像差(慧差也属于像差里的一种)。
 旗舰|安卓旗舰拍照集体翻车?!为什么拍照照片会糊掉?
文章图片

镜组的另一个重要作用就是修正物体成像时的像差,当光线透过第一片镜片时产生的误差可以通过后面的镜片再次折射矫正。理论上镜组镜片数量越多,矫正效果就越好。因此可以通过增加镜组镜片数量来抑制慧差。
或者在设计镜组时就把慧差考虑进去,优化镜组结构,采用复合透镜,通过改变各个面的曲率半径来减少慧差。
不过优化镜组的成本可不低,镜组升级属于光学技术,与数字化技术不同,在原理上相对简单易实现。但是它难在对制造工艺和精度的要求极高,高精密产品的价格我们都懂,经常会高到让人觉得离谱,这个玩相机的朋友应该会感同身受。
 旗舰|安卓旗舰拍照集体翻车?!为什么拍照照片会糊掉?
文章图片

这也是为什么最近几年手机厂商在相机硬件上而很少提及镜组的原因。第一是贵,第二是花了钱还不一定能做出效果。
但只要消费者开始重视起镜组,再贵厂商们也愿意尝试在镜组上发力。今年小米、华为、等厂商也都在自家的旗舰机上用上了8P镜片组(1P代表一层镜片),之前大部分手机用的都是6P或者7P镜组。
相信随着时间的推移,手机镜组素质会逐步赶上,与更大尺寸的CMOS形成更和谐完善的拍摄系统。
除此优化镜组之外的话就只能通过手机算法后期来改善这一问题了。毕竟处理器的运算能力才是手机拍摄的核心竞争力。
2020年,手机升级大底传感器和高像素是好是坏,我们应该辩证地来看待这个问题。摄像模组是一个复杂的光学电子系统,除了传感器,镜头素质和算法对画质同样影响非常大通过牺牲光学性能来提升传感器素质这种做法是否真的值得呢?
我个人认为是不值得的,手机拍摄追求的是更高的画质和更好的拍摄体验,而不是用了几个摄像头、多少像素、多大的传感器。
拿这次安卓机皇集体翻车来说,我相信不管是学习还是工作近距离拍摄文档一定会用的到,任你夜景有多厉害、中心画质解析力有多强,拍出来四周是一片糊又有何意义?
就好像一个水桶,一旦其中一项成了短板,其他木板筑得再高再醒目也无法提升桶内的水位。
 旗舰|安卓旗舰拍照集体翻车?!为什么拍照照片会糊掉?
文章图片

我们需要技术上的探索和突破,但最好是建立在日常拍照体验不受影响的前提下。
就这一点来说,苹果就做得比较好虽然也出现过硬镜片镀膜问题产生的“鬼影门”,但翻车次数较安卓还是少。
iPhone11系列到现在还没用上大底传感器,像素也是祖传的1200万,但是不管是拍照还是视频它能通过智能HDR、deep fusion、夜景、视频高动态 等算法优化带来优秀、均衡、完善的体验,充分压榨硬件的每一丝潜能。
但并不是安卓厂商不想像苹果一样等新技术体验完善后再下放产品,我相信他们的工程师肯定在手机上市前的测试中就发现了大底慧差问题,只是时间不等人,市场环境决定了安卓厂商们必须在手机拍摄上保持激进。
因为iOS系统苹果独占,你想用苹果生态就必须买苹果产品,市场竞争压力就小很多,这让它可以在2020年任性地用着三年前几乎一样的外观设计。
 旗舰|安卓旗舰拍照集体翻车?!为什么拍照照片会糊掉?
文章图片

这你放安卓厂商上它敢吗?可能没到3年,公司就没了。毕竟安卓系统的选择余地太多了,厮杀激烈。
所以苹果可以求稳做体验,安卓必须谋变搞创新,不管到底有没有用、体验如何,至少要先带给消费者新鲜感,再后续全面优化完善。
我所担心的事情是现在苹果可以依靠算法在摄像硬件不占优势的情况下和一众国产安卓旗舰在拍摄上打的有来有回,各有胜负。
在将来苹果对更好的拍摄硬件调教完毕应用到产品上,抹平硬件差距后,对国产安卓旗舰机算不算一种降维打击?那能怎么办呢?
【 旗舰|安卓旗舰拍照集体翻车?!为什么拍照照片会糊掉?】I参考材料wiki百科:
https://zh.wikipedia.org/wiki/%E5%83%8F%E5%B7%AE
https://www.soomal.com/doc/10100008922


推荐阅读