PCDVD數位科技討論區

PCDVD數位科技討論區 (https://www.pcdvd.com.tw/index.php)
-   七嘴八舌異言堂 (https://www.pcdvd.com.tw/forumdisplay.php?f=12)
-   -   讓手機變成「相機」,小米推出採M4/3規格感光元件、對應1億畫素解像力的概念鏡頭模組 (https://www.pcdvd.com.tw/showthread.php?t=1212881)

lifaung 2025-03-07 10:29 AM

引用:
作者cmwang
這點有兩個方面,早期運算力和ADC貧弱,所以RGB只有8bit的解析度(動態範圍),一般人最常見的JPEG也是根據這個基準設計的,拍動態範圍極高的場景時不是亮部過曝,就是暗部欠曝,各廠在玩的可以說是在不對既存架構做重大變動而改善這類狀況的表現吧,現在運算力/ADC跟JPEG誕生的年代相比已經有重大進步了,要提高動態範圍難度也下降了(例如HEIF有10bit,某些相機的RAW檔更是14bit),但考慮到一般人接受度最高的還是JPEG(Windows連看個10bit的HEIF都還得大費周章:stupefy: ),或許要等主流平台(包括OS+AP和H/W)改善8bit以上支援才能普及吧:o....



底片本質上算類比的,動態範圍幾乎可以視為無限大(至少比image sensor+ADC的組合高n倍),只是處理/保存比較吃虧吧:ase:ase....


1. 您可能對於sensor有些誤解. ADC只能代表他可以分幾階, Dynamic Range代表的是它可以有多廣的分布(取決於井的大小), 多重擷取後重新計算亮度分布, 計算出綜合的影像 (通常是16bit計算), 然後做亮度remapping到目標(10bit/ 8bit); 目前的手機拍攝一張可能是串10-16張(小米之前發過paper揭露他家怎麼做的)給ISP進行影像合成處理大致上就是這樣的流程(有些細節有興趣可以來討論)
2. 檔案格式通常不是問題, 因為各位螢幕大多都被降階到了6bit FRC.... 8bit還要挑一下才有, 檔案格式最大的問題是相容性, 這也是JPG不死的最主要原因, 8bit dithering用起來各位也看不出來(8x3已經是24bit per pixel了)

lifaung 2025-03-07 10:31 AM

引用:
作者skap0091
雜牌小廠手機都能用上的東西

別跟我說SONY、CANON、NIKON這些巨頭做不到

尤其SONY本身就有做手機,你覺得還有什麼問題拿不到晶片?


SONY有做手機, 但是相機要另外談
除非今天手機部門出相機, 另外還得考慮到ISP相容性, SONY要把ISP搬出來到FPGA嗎? 還是繼續license低階的CPU來自己嵌入自家設計的ISP?

拿到晶片, 還得要有BSP的修改能力才有機會, 出台手機可不一定需要改到這麼底層

skap0091 2025-03-07 10:45 AM

引用:
作者lifaung
SONY有做手機, 但是相機要另外談
除非今天手機部門出相機, 另外還得考慮到ISP相容性, SONY要把ISP搬出來到FPGA嗎? 還是繼續license低階的CPU來自己嵌入自家設計的ISP?

拿到晶片, 還得要有BSP的修改能力才有機會, 出台手機可不一定需要改到這麼底層

真搞不定,那就直接把手機現有那套搬上相機就行

簡單說就是安卓相機,直接用手機的相機APP

反正SONY自己寫過好多套了

只不過就是換個相機機身+鏡頭罷了

lifaung 2025-03-07 11:10 AM

引用:
作者skap0091
真搞不定,那就直接把手機現有那套搬上相機就行

簡單說就是安卓相機,直接用手機的相機APP

反正SONY自己寫過好多套了

只不過就是換個相機機身+鏡頭罷了


我和SONY合作也多個產品了
1. SONY內部也是山頭林立, 另外FPGA會寫的人也越來越少了, 我感覺都是泡沫經濟時代老面孔, 新同學(1990後出生)至少在出差或是他們出出來的時候我沒看過
2. 對SONY來說確實是想做與不想做的問題, 但是大概只有可能是手機部門出相機才有機會(SONY手機的fusion做的也不好, 但是比起相機部門應該還是強一大截), 但是高通的態度也是問題, 願意開放ISP自訂修改? (業界被開放的公司大多在對岸) 還是SONY需要一個跳過ISP的接口, 中間掛自己的FPGA或是ASIC?

cmwang 2025-03-07 12:27 PM

1個附加檔案
引用:
作者lifaung
1. 您可能對於sensor有些誤解. ADC只能代表他可以分幾階, Dynamic Range代表的是它可以有多廣的分布(取決於井的大小), 多重擷取後重新計算亮度分布, 計算出綜合的影像 (通常是16bit計算), 然後做亮度remapping到目標(10bit/ 8bit); 目前的手機拍攝一張可能是串10-16張(小米之前發過paper揭露他家怎麼做的)給ISP進行影像合成處理大致上就是這樣的流程(有些細節有興趣可以來討論)
snipped....


sensor段可以說是類比元件,動態範圍應該遠高於ADC,但要進digital domain前勢必得先過ADC才有得玩,您說的是為了讓解析度/動態範圍有限的ADC能用比較合理的成本處理sensor提供的類比信號,所以會有companding law(鵝比較熟悉的是早期Telecomm的A law或u law:o),只是面對動態範圍趨近於無限高的真實環境,就算已經先套過companding law,JPEG的RGB各8bit很明顯還是力有未逮的,像鵝過年期間在老婆娘家隨便拍的逆光照就是了:o:o....

lifaung 2025-03-07 12:32 PM

引用:
作者cmwang
sensor段可以說是類比元件,動態範圍應該遠高於ADC,但要進digital domain前勢必得先過ADC才有得玩,您說的是為了讓解析度/動態範圍有限的ADC能用比較合理的成本處理sensor提供的類比信號,所以會有companding law(鵝比較熟悉的是早期Telecomm的A law或u law:o),只是面對動態範圍趨近於無限高的真實環境,就算已經先套過companding law,JPEG的RGB各8bit很明顯還是力有未逮的,像鵝過年期間在老婆娘家隨便拍的逆光照就是了:o:o....


我說錯了, 您不是對於他有誤解而是完全弄錯方向

只看一個cell來說的話, cell裡面可以放100個光電子, 這是井的深度, ADC是水位計, 但是水位計很爛只有2的8次方或是16次方刻度; ADC的擷取範圍可以靠類比放大器來處理, 你可以把這100個光電子電壓放大100倍來獲得高熱雜訊但是對黑的區域比較敏感的值, 或是增益1倍獲得原始值

sensor 動態範圍和ADC的感測切割能力是兩碼子事

你的相片代表的是當初設定的ADC analog gain就已經有帶了這個值, 至於可以拉亮, 還可以靠digital gain

多重影像fusion, 實際上可以做的事情是擷取到真實的光電子(多張影像), 導致cell雖然只能放100個光電子, 我可以拉長曝光時間來擷取暗區, 簡短曝光時間得到亮區, 把這些分布重新拉起來, 可以等效於這個井可以裝1000個光電子, 而且ADC也可以避免使用高增益導致熱雜訊的概念

如果原生16bit sensor, 這樣搞可能可以獲得32 bit有效data, 到時候的問題就變成我們是否具有足夠的算力處理這些數值


所有的時間均為GMT +8。 現在的時間是05:30 AM.

vBulletin Version 3.0.1
powered_by_vbulletin 2025。