手機像素高了底更大了,為什麼拍照反而更糊了?

人民攻攝 發佈 2020-05-13T11:46:13+00:00

發現小米10、華為P40 pro、一加8、OPPO find x2這些2020年發布的安卓旗艦機無一倖免,在近距離拍攝照片時畫面四周邊緣都出現了不同程度的模糊。


就在前幾天,小助理我在公眾號後台看到這樣一條留言:為什麼用新買的小米10拍照四周總是很模糊



這讓我想起了之前我一個朋友也跟我抱怨過他買的小米10 Pro拍照總覺得糊,當時我完全沒有放在心上。


因為小米10 Pro作為小米數字系列衝擊高端的第一步,在拍攝上面也是下足功夫,曾經一度登頂dxo mark拍照排行榜。1/1.33寸的大底傳感器帶來更大的單位像素麵積,高像素讓照片的解析力變得更好,正常環境下拍攝應該不至於說模糊。



而且作為年輕的「後浪」,每天不停地奔涌壓力也挺大的,年紀輕輕得個花眼什麼的也見怪不怪。



但如果是我們的攝友遇到這樣的問題,那就必須要重視了。況且能關注人民攻攝,眼睛肯定是雪亮的。



我立馬就拿攻攝裡面的小米10隨手拍攝幾張照片觀察情況。發現真的存在糊掉的情況。


可以看到照片中間畫面的畫質沒有什麼問題,清晰可見。但是四周邊緣的文字出現了很明顯的拖影。而且似乎離中心越遠,拖影現象越嚴重。


我在網上查了一下,發現很多網友都出現這個問題,不僅僅是小米10,華為的P40系列、三星S20U也都出現了這種情況。



查完之後我又把目前攻攝裡面閒置的手機全部翻出來挨個試了一遍。發現小米10、華為P40 pro、一加8、OPPO find x2這些2020年發布的安卓旗艦機無一倖免在近距離拍攝照片時畫面四周邊緣都出現了不同程度的模糊。






在中遠距離拍攝場景下情況會好很多。



而iPhone 11、OPPO reno3、三星note10等老款機型不管是近距離還是中遠距離拍攝均沒有出現四周邊緣模糊的情況。


咋回事兒?歷史退步?2020年的旗艦機這次拍照要集體翻車了嗎?


網上有人解釋說這種邊緣模糊是因為大底大光圈所產生的景深虛化效果。但我覺得不對啊,從樣張上看這已經不是虛不虛的問題了,這都產生拖影了,應該不是因為簡單的淺景深虛化,肯定還有別的原因。


在請教了攝影大佬並仔細查閱資料後,終於被我找到了答案。


這種四周邊緣部分畫面模糊、有拖影的現象叫做慧差。這是一種常見的光學現象,當明亮區域或者高亮點時,明亮區域指向鏡頭邊緣的方向會形成由細變寬的光斑或光暈,看起來像彗星的尾巴,所以叫彗星像差。



產生慧差的主要原因是由位於主軸外的某一軸外物點,向光學系統發出的單色圓錐形光束,經光學系統折射後,在理想平面處不能結成清晰點,而是結成了拖著明亮尾巴的彗星形光斑。


素材來自油管@Vebruce Vebruce



可是為什麼2020年的旗艦手機拍照均產生了慧差現象,而2020以前發布的手機卻沒有呢?


這個要先從影響慧差這種誤差的因素說起。


慧差的計算公式為:誤差=3θ/16F²。其中分母θ是被拍攝物體到鏡頭連線與鏡頭主軸的角度。角度越大,慧差越明顯,這就解釋了為什麼中心區域的畫質清晰而四周模糊,且離中心越遠越模糊。


而F為焦比(焦距/口徑),在相機上基本等同於光圈。根據公式可得光圈越大,邊緣的慧差會更明顯,而今年的旗艦機普遍都用上了大光圈。


不過這不是一眾機皇集體翻車的主要原因,頂多算推波助瀾一下,主犯其實是今年大家都在跟進的大底傳感器



我們知道在手機拍攝上最大的物理限制就是空間,即使現在的手機已經越做越厚了,但對於複雜的光學電子成像系統來說還是捉襟見肘。



大尺寸的傳感器進一步壓縮了攝像模組的內部空間,讓模組內的後焦距變得更短。鏡頭和感光器是不可能完全緊貼的,後焦距就是鏡頭後組到感光器表面的距離。



較小的後焦距直接造成光線入射角度變大,對光學系統有非常不利的影響,導致畫面四周邊緣的畫質受損嚴重。


除此之外,傳感器四周的感光效率也會因此大打折扣。


圖中傳感器紅色區域的感光效率受損


也就是說在保持後焦距相同的情況下,大底傳感器四周的感光效率受到的影響比小底傳感器更大,在良好光線下拍攝的畫面邊緣的成像質量可能會更差。



其實廠商們也起初大底的缺點,會用一些"小操作"適當的減小彗差現象。


大家普遍採用的方法是,在近距離拍攝時,將拍攝的鏡頭切換為超廣角鏡頭,相較於主攝的大底,超廣角鏡頭的底就要小不少,如此一來就能避免彗差現象。



而華為則更進一步,P40系列的主攝焦段為23mm,但是在默認情況下,主攝的焦段卻為27mm,系統直接裁掉了邊緣模糊部分,以此來保證整體畫質。


不過這些只是治標不治本的方法,那麼有沒有辦法從根本上讓「魚和熊掌兼得」呢?



還是有的,最好的辦法是把手機做得再厚一點採用更高素質的鏡頭鏡組。


攝像頭鏡組在手機成像的因素中經常被忽略,但其實它跟傳感器的解析度和單位像素大小一樣,對畫面的解析力有重要影響。鏡組素質越高,畫質就越好越清晰



由於現實環境中的光線都是由不同波長的光組成的,而鏡片對不同波長的光的折射率不一樣,會不可避免地使物體成像的時候產生像差(慧差也屬於像差的一種)。



鏡組的另一個重要作用就是修正物體成像時的像差,當光線透過第一片鏡片時產生的誤差可以通過後面的鏡片再次折射矯正。理論上鏡組鏡片數量越多,矯正效果就越好。


因此可以通過增加鏡組鏡片數量來抑制慧差。或者在設計鏡組時就把慧差考慮進去,優化鏡組結構,採用複合透鏡,通過改變各個面的曲率半徑來減少慧差。


不過優化鏡組的成本可不低,鏡組升級屬於光學技術,與數字化技術不同,在原理上相對簡單易實現。但是它難在對製造工藝和精度的要求極高,高精密產品的價格我們都懂,經常會高到讓人覺得離譜,這個玩相機的朋友應該會感同身受。



這也是為什麼最近幾年手機廠商在相機硬體上而很少提及鏡組的原因。第一是貴,第二是花了錢還不一定能做出效果。


但只要消費者開始重視起鏡組,再貴廠商們也願意嘗試在鏡組上發力。今年小米、華為、等廠商也都在自家的旗艦機上用上了8P鏡片組(8層鏡片),之前大部分手機用的都是6P或者7P鏡組。


相信隨著時間的推移,手機鏡組素質會逐步趕上,與更大尺寸的CMOS形成更和諧完善的拍攝系統。


除此優化鏡組之外的話就只能通過手機算法後期來改善這一問題了。畢竟處理器的運算能力才是手機拍攝的核心競爭力。



2020年,手機升級大底傳感器和高像素是好是壞,我們應該辯證地來看待這個問題。攝像模組是一個複雜的光學電子系統,除了傳感器,鏡頭素質和算法對畫質同樣影響巨大


通過犧牲光學性能來提升傳感器素質這種做法是否真的值得呢?


我認為是不值得的,手機拍攝追求的是更高的畫質和更好的拍攝體驗,而不是用了幾個攝像頭、多少像素、多大的傳感器。


拿這次安卓機皇集體翻車來說,我相信不管是學習還是工作近距離拍攝文檔一定會用的到,任你夜景有多厲害、中心畫質解析力有多強,拍出來四周是一片糊又有何意義?


就好像一個水桶,一旦其中一項成了短板,其他木板築得再高再醒目也無法提升桶內的水位。



我們需要技術上的探索和突破,但最好是建立在日常拍照體驗不受影響的前提下。


就這一點來說,蘋果就做得比較好雖然也出現過硬鏡片鍍膜問題產生的「鬼影門」,但翻車次數較安卓還是少。


iPhone11系列到現在還沒用上大底傳感器,像素也是祖傳的1200萬,但是不管是拍照還是視頻它能通過智能HDR、deep fusion、夜景、視頻高動態 等算法優化帶來優秀、均衡、完善的體驗,充分壓榨硬體的每一絲潛能。



但並不是安卓廠商不想像蘋果一樣等新技術體驗完善後再下放產品,我相信他們的工程師肯定在手機上市前的測試中就發現了大底慧差問題,只是時間不等人,市場環境決定了安卓廠商們必須在手機拍攝上保持激進



因為iOS系統蘋果獨占,你想用蘋果生態就必須買蘋果產品,市場競爭壓力就小很多,這讓它可以在2020年任性地用著三年前幾乎一樣的外觀設計。



這你放安卓廠商上它敢嗎?可能沒到3年,公司就沒了。畢竟安卓系統的選擇餘地太多了,廝殺激烈。



所以蘋果可以求穩做體驗,安卓必須謀變搞創新,不管到底有沒有用、體驗如何,至少要先帶給消費者新鮮感,再後續全面優化完善。


我所擔心的事情是現在蘋果可以依靠算法在攝像硬體不占優勢的情況下和一眾國產安卓旗艦在拍攝上打的有來有回,各有勝負。


在將來蘋果對更好的拍攝硬體調教完畢應用到產品上,抹平硬體差距後,對國產安卓旗艦機算不算一種降維打擊?


那能怎麼辦呢?作為一名攝影、數碼愛好者只能希望手機廠商們在營銷與體驗、創新與完善中找到合適的平衡點,少一些戾氣、多一點交流,在合作與廝殺中走向更好的計算攝影時代。


奔涌吧,「安浪」。



I 參考材料

wiki百科:

https://zh.wikipedia.org/wiki/%E5%83%8F%E5%B7%AE

《為什麼現在某些手機攝像頭的慧差現象如此明顯》 作者:夏崑岡

https://www.soomal.com/doc/10100008922

I 文中部分圖片來自網絡



聊一聊

你對這次大底翻車的看法


點讚關注評論,給社裡加雞腿

關鍵字: