瀏覽單個文章
aya0091
*停權中*
 
aya0091的大頭照
 

加入日期: Apr 2017
文章: 2,836
好奇為何直到現在手機還是無法深度感測?

主要是看到這次採用最新7奈米製程處理器的新iPhone

居然還是用"單鏡頭"+"軟體判斷景深"

原本前代限定雙鏡頭才有,以為有利用望遠鏡頭輔助判斷前後景

但新款Xr也有完全等同Xs的後製景深,證明是單鏡頭+純軟體判斷景深

這種"軟體分析前後景"說實在就是破綻多多,如下圖人物邊緣還是有差距





我還以為前代的Face ID技術用到"原深感測相機"會有助於技術突破
(測繪點投射器+紅外線鏡頭+泛光照射器)

但還是沒有用到後面的主鏡頭上

這東西一直以來就有廠商嘗試,像早期紅外線鏡頭or模組協助判斷景深?

XBOX那個體感也是有前後代改良能更好判斷景深?
(印象中新款很強,但多強不確定,因為好像體感還是GG了,而且非可攜帶設備)

現在手機大多是雙鏡頭判斷景深,有的是多一顆黑白鏡頭

但好像都不是真正深度感測,幾乎都像是軟體判斷導致破綻很多

完全不知道手機廠這塊再搞什麼?如果只是"單鏡頭"靠"軟體"

那演算法只要被公開或模仿,以後用PC就能隨意對每一張照片作後製

效果還可以更好(反正PC運算力強,也可以算久一點又沒差)

好比這次新iPhone可以事後調整景深F1.4~F22,這東西明明就只是軟體再跑

但故意不給舊iPhone,明明事後調整又不需要即時處理

慢一點的CPU多花點時間也能得到一樣效果

要是Android的話肯定會被破解流出,然後就可以裝到舊款手機上

像我的U11+ DXO評分現在已經輸很多家就是因為少了景深後製功能

但裝上Google camera之後,就能有跟Google Pixel手機一樣的景深後製功能

代表景深後製這項的分數可以直接挪Google Pixel的成績來套用


截圖來源 https://youtu.be/BoDQEuP8Igo
     
      
舊 2018-09-19, 10:19 PM #1
回應時引用此文章
aya0091離線中