主要是看到這次採用最新7奈米製程處理器的新iPhone
居然還是用"單鏡頭"+"軟體判斷景深"
原本前代限定雙鏡頭才有,以為有利用望遠鏡頭輔助判斷前後景
但新款Xr也有完全等同Xs的後製景深,證明是單鏡頭+純軟體判斷景深
這種"軟體分析前後景"說實在就是破綻多多,如下圖人物邊緣還是有差距
我還以為前代的Face ID技術用到"原深感測相機"會有助於技術突破
(測繪點投射器+紅外線鏡頭+泛光照射器)
但還是沒有用到後面的主鏡頭上
這東西一直以來就有廠商嘗試,像早期紅外線鏡頭or模組協助判斷景深?
XBOX那個體感也是有前後代改良能更好判斷景深?
(印象中新款很強,但多強不確定,因為好像體感還是GG了,而且非可攜帶設備)
現在手機大多是雙鏡頭判斷景深,有的是多一顆黑白鏡頭
但好像都不是真正深度感測,幾乎都像是軟體判斷導致破綻很多
完全不知道手機廠這塊再搞什麼?如果只是"單鏡頭"靠"軟體"
那演算法只要被公開或模仿,以後用PC就能隨意對每一張照片作後製
效果還可以更好(反正PC運算力強,也可以算久一點又沒差)
好比這次新iPhone可以事後調整景深F1.4~F22,這東西明明就只是軟體再跑
但故意不給舊iPhone,明明事後調整又不需要即時處理
慢一點的CPU多花點時間也能得到一樣效果
要是Android的話肯定會被破解流出,然後就可以裝到舊款手機上
像我的U11+ DXO評分現在已經輸很多家就是因為少了景深後製功能
但裝上Google camera之後,就能有跟Google Pixel手機一樣的景深後製功能
代表景深後製這項的分數可以直接挪Google Pixel的成績來套用
截圖來源
https://youtu.be/BoDQEuP8Igo