蘋果iPhone到底是怎樣做好拍照功能的?

導讀 一款好的拍照手機 應當具備哪些特征?是超多的攝像頭、超高的像素等級、還是強有力的ISP以及先進的算法 亦或是出色的防抖結構和用料靠

一款好的拍照手機 應當具備哪些特征?

是超多的攝像頭、超高的像素等級、還是強有力的ISP以及先進的算法 亦或是出色的防抖結構和用料靠譜的光學鏡頭?

平心而論 大多數消費者在看到這個問題的時候 首先可能會回答“多攝像頭”與“高像素” 因為這是最容易從手機的外觀和配置表上就能感受到的“高端細節”。而縱觀整個手機市場 那些既有超高像素主攝 又有超多攝像頭(大于等于四個)的機型 也的確大都具備著一線的實際成像品質。

然而同樣是在當前的手機行業中 有那么一家科技 至今依舊堅持2-3攝像頭的后置攝像頭模組設計 甚至從未使用過超過1200萬像素的攝像頭。但與此同時 他們的產品卻每年都能名列DXOMARK拍照榜單的前幾名 同時全球銷量更是令同價位的競爭對手望塵莫及。

沒錯 我們說的正是蘋果以及他們家的iPhone。那么問題就來了 不堆攝像頭數量、不追求高像素 iPhone到底又是怎樣做好拍照功能的呢?

首先 其實蘋果很舍得硬件“堆料”

不可否認 iPhone從來沒使用過“超多攝”方案 更沒有配備過超高像素的CMOS 但是這絕不意味著蘋果在iPhone的相機硬件上就有所吝嗇。事實上其從前幾年開始 就一直很舍得給iPhone的相機“堆料” 只不過許多朋友可能并沒有注意到罷了。

比如說論CMOS規格 蘋果在iPhone 12 Pro Max上使用了一顆1/1.7英寸超大底的定制1200萬像素傳感器。這是什么概念呢?大家要知道 當前業界流行的6400萬超高像素方案 傳感器尺寸也是1/1.7英寸。但它的像素值比iPhone所用的高了五倍還多 換句話說 就是iPhone 12 Pro Max的主攝 單個像素的感光面積就是這類機型的5倍。

比如說 論對焦技術 蘋果從iPhone X開始就一直堅持在主攝上配備全像素雙核對焦結構。這種對焦結構的最大優點 在于它讓CMOS上所有的像素點都可以作為對焦點使用 因此手機可以在整個取景面積內對任意一點進行超快速的對焦 甚至還能對運動中的物體進行自動追焦。

而相比之下 即便是當前最新一代的1.08億像素主攝 也僅有傳感器上的一部分面積可以用于對焦(相位對焦點對焦)。這就意味著 那些超高像素機型反而做不到iPhone那么快的對焦速度 更做不到僅用主攝進行超近距離的微距特寫攝影。而這實際上也解釋了 為什么這些機型要配備額外的獨立微距鏡頭的原因。

除此之外 在圖像防抖結構方面 蘋果也有自己的想法。要知道 當前高端智能手機大多配備的都是鏡頭式光學防抖 也就是在鏡片組里設置一塊可以浮動的“防抖鏡片” 用于抵消外部振動的影響。但是鏡頭防抖本身有著會造成光路偏斜 會帶來照片邊緣畫質下降的明顯缺點。而蘋果則是業界最早一批意識到這個缺點的廠商之一 為此他們在iPhone 12 Pro Max上首次運用了新的“CMOS防抖”設計。通過將主動防抖的部件從鏡片改為傳感器本身 使得整個拍攝過程中 鏡組內部的光路可以始終保持筆直 這樣一來不僅可以實現更大的防抖范圍 同時畫質也自然得以更進一步。

當然 說到iPhone在相機方面的“堆料” 其實還不止上面這些。諸如現在的iPhon 12 Pro全系都有配備 可以在全黑環境下輔助對焦和人像虛化的Lidar激光雷達 諸如蘋果已經用了很長很長時間的全系藍寶石玻璃鏡片 其實無論是從設備成本 還是從技術難度上來說 這些“堆料”實際上都遠比其他廠商多采購幾枚攝像頭模組要高精尖得多。

其次 iPhone的算法既多 而且也很復雜

2017年9月12日 伴隨著iPhone X的發布 蘋果正式推出了自家的新一代A11仿生芯片。而它之所以被叫做“仿生(Bionic)” 是因為在這款芯片內部 蘋果首次集成了自研的Neural Engine神經網絡加速器模塊 在它與新型ISP的合力作用下 iPhone X率先在業界實現了光照環境偵測等先進拍照算法。當時間來到2020年 盡管蘋果并沒有大為宣揚 但從各類相關技術材料來看 如今iPhone 12系列在拍照算法上的先進與復雜程度 更是早已今非昔比。

舉例而言 當光線條件極佳或是大逆光環境時 iPhone 12系列會自動選擇新的智能HDR3算法進行成像。不同于其他機型HDR算法僅僅是單純的“多幀合成” 智能HDR3算法會先對整個場景的光線條件進行識別 按照不同的亮度、不同的被攝物類型進行分割。然后再針對不同分割元素 進行級別不同的HDR多幀合成處理 最后再將它們重新組合為一張圖片。

如此一來 iPhone 12系列就可以針對性地對畫面中過亮或過暗的部分疊加更多的合成幀數 而針對本來就亮度適中且細節清晰的畫面元素則減少處理。最終的結果不僅可以大幅提高畫面動態范圍 同時也讓細節畫質得到了更多的保留。

而當光照條件中等的時候 iPhone 12系列則會使用蘋果招牌的“深度合成”圖像算法。它的原理是在使用者按下快門前 手機就已經預先拍攝數張曝光程度不同的圖像 然后對它們進行像素級別的合成、修補 最終得到細節更多、解析力更強的照片。在此前的iPhone 11系列上 由于受到CMOS感光能力與芯片AI算力的制約 深度合成算法不能作用于全部的攝像頭 但這一點在iPhone 12系列上已經成為過去時。如今 全部的攝像頭均可使用深度合成算法 并得到更好的細節畫質。

當然 如果光照條件變得更差 此時就輪到新的夜間模式出場了。與其他機型相比 iPhone 12系列這次一方面大幅強化了夜景模式的效果 并同樣具備自動偵測腳架的機能 而另一方面 iPhone 12 Pro系列內置的激光雷達 在夜景模式下也扮演了關鍵的形狀偵測和對象測距機能。有了它們的助力 iPhone 12 Pro系列不僅可以在夜間對焦更快更準 更重要的是它甚至可以主動識別出夜間被攝對象的立體臉型數據 從而實現效果驚人的夜景+人像虛化拍攝效果 也使得其在夜間拍攝上樹立了一個新的標桿。

當然 蘋果還更懂得“拍照手機該怎么用”

眾所周知 消費者都很喜歡“拍照好”的手機 但真正要說到在手機上拍攝了照片之后用來做什么 可能其實絕大多數朋友都是沒有想過的。

這意味著什么?簡單來說 就是很多消費者其實并不能看出自己的手機拍照是不是真的好 他們可能喜歡濃艷的色彩 卻無法分辨這到底是因為手機的拍攝邏輯本就如此 還是單純因為手機屏幕太差 而導致回放的時候出現了偏色。他們也可能追求超長的變焦能力 卻沒有想過它到底有多高的實用性 在日常影像創作中是否真的具備堪用的畫面素質。

但是 蘋果很顯然是有思考過這個問題的。因為他們賣的不只是iPhone 還有與之配套的MacBook、iPad、Apple Watch 他們知道很多攝影師會喜歡iPhone的照片色彩風格 因為它不偏不倚 沒有刻意的美化 而是能夠準確地還原當時拍攝的環境。他們也知道一些專業導演、職業vloger會使用iPhone作為自己的創作工具 所以iPhone不僅要屏幕色彩準確 而且也要提供足夠專業的圖片和視頻存儲選項。

比如說 iPhone 12 Pro系列可以拍攝比其他手機色彩數據多4096倍 比當前的頂級Android機型還多64倍的12bit Apple ProRAW格式無損圖像 為專業影像工作者提供了非常大的后期處理空間。又比如說 iPhone 12 Pro系列也是業界首個實現杜比視界HDR視頻拍攝能力的智能手機產品。相比常見的HDR10與HDR10+ 杜比視界視頻的色彩更豐富、亮度更高、動態范圍更大 同時是目前最為專業的HDR視頻錄制規格之一。

不僅如此 正如我們前文中所講到的那樣 蘋果還為專業的創作者提供了強大的、兼容性極佳的產品生態。當你把某些Android機型拍攝的照片拷貝到電腦上觀看時 它可能會因為設備之間的色彩管理存在差異 從而導致照片的顏色變得奇怪。但無論你是使用iPad Pro、MacBook Air還是Mac Pro編輯iPhone中的照片或者視頻 它們的色彩都會保持與iPhone屏幕上看起來的效果一致。

這意味著什么?這代表著近年來的iPhone 在影像領域其實從不缺少高精尖的硬件配置 也從不缺少先進且持續進步的成像算法。只不過這種嚴肅及專業級的設計 使得它更多地受到了那些真正熱愛攝影、甚至是專業創作者的理解和喜愛。而對于習慣了其他手機廠商“鏡頭多才是好、像素高才是棒”這樣宣傳攻勢的普通消費者來說 不能第一時間發現iPhone在影像設計上的用心 或是還不太能體會到它種種影像功能特性所帶來的好處 自然也就并不令人感到奇怪了。 責任編輯:tzh

免責聲明:本文由用戶上傳,如有侵權請聯系刪除!