蘋果最近發表的iPhone 11 中的deep fusion, 我認為其實它的最基礎的目的就是利用高等補償能力來去最佳化影像. 在LCD 面板業其實已經用類似的方式來去補妝不夠均勻的製程很多年了.
至於補妝功力的好壞取決於相機性能是否夠, 能 "畫素對畫素" 抓到嗎?
補妝的照片有幾張? 比如是在25%亮度, 50%亮度, 75%亮度都拍一張來進行內差的運算嗎?
我來大概跟各位介紹一下LCD 面板的應用方式為何
在LCD 面板的製程中, 一塊面板要做到各層膜厚與各各區域電性上差異不大其實是不容易. 越大尺寸越高解析度困難度也越高. 當沒有做到很小的差異時, 在LCD 顯示器上使用者容易看到帶狀的不均. 有時候是垂直有時候是水平, 要看當時設計與機台的曝光機行為.
例如這樣, 可以看到一個垂直帶:
以上這個範例, 我們為什麼會看到帶狀原因是因為有局部的區域的膜厚或線寬不同而導致它所呈現的亮度不同. 如果我們用100% 亮度 = 255 灰階, 帶狀趨於為240灰階(94.1%亮度), 而正常區域為180灰階(70.6%)
當製程沒辦法處理時, 只能靠後天的運算能力去補足:
也就是說可以透過後天的面板處理器將局部區域的資料改成相對它180灰階(70.6%亮度). 等於是說增加一個補償值.
在面板出產前, 需要用CCD相機去針對面板進行拍照, 拍照出來後抓出不均於區域並且運算出正確補償值. 在將這個補償值燒入面板中的記憶體. 這樣面板在開機時就會抓取最佳補妝設定.
將面容瑕疵處進行補妝來優化面容!
至於補妝功力的好壞取決於相機性能是否夠, 能 "畫素對畫素" 抓到嗎?
補妝的照片有幾張? 比如是在25%亮度, 50%亮度, 75%亮度都拍一張來進行內差的運算嗎?
其實iPhone 11 所談的Deep Fusion, 我認為也是類似的概念.
Deep Fusion 是讓iPhone 抓取4張短曝光照片, 4張次要曝光照片與1張長曝光照片. 這些都是在按下快門前會完成的動作. 最後A13 處理器用1秒時間從9張照片挑出各張最好的部分進行整合. Deep Fusion 會使用 "畫素對畫素" 精確疊合成一張2400萬個像素的照片. 這張照片會是高解析 + 低雜訊影像. 我認為其實這就是類似LCD 產業運用的demura 功能.
Deep Fusion 是讓iPhone 抓取4張短曝光照片, 4張次要曝光照片與1張長曝光照片. 這些都是在按下快門前會完成的動作. 最後A13 處理器用1秒時間從9張照片挑出各張最好的部分進行整合. Deep Fusion 會使用 "畫素對畫素" 精確疊合成一張2400萬個像素的照片. 這張照片會是高解析 + 低雜訊影像. 我認為其實這就是類似LCD 產業運用的demura 功能.