引用:
Originally posted by 3D King
其實GFFX5900用的32bit浮點運算精準度是跟ATI用的24bit在畫面質素上是有分別的,至於分別是否很大就得隨着各人的觀感了,GFFX5900可以降到16bit而ATI可以降到12bit,這也是它們原先設計硬體時所規定的,當GFFX5900降到16bit時,畫質比ATI所用的24bit時較暗,而ATI降到12bit時,畫面基本上太暗到不能接受的地步了,所以結論如下:
1)ATI用的12bit浮點運算精準度:畫質完全不能接受(當然是跟24bit/32比較!)
2)GFFX5900用的16bit浮點運算精準度: 畫質上基本上可以接受,事實上DX8的 game也只是要求16bit,但微軟的DX9的要求是24bit以上,用16bit會比24bit畫面亮度較暗!
3) ATI R9800所用的24bit剛好滿足微軟對DX9最低24bit的要求,畫質基本上滿意的。
4) GFFX5900所用的32bit畫面質素最高,不論亮度和畫質精準度也超越了微軟在DX9最低的24bit的要求,可借用32bit對硬件要求極高,也可能拖垮硬件的效能,幸好擁有135百萬電精體的GFFX5900的能力也沒有白費,只要從新編寫適合DX9的complier,也可以在32bit的高質之下,也不會令效能下降太多!
(因此大家也可能明白為什麽ATI cheat得比較小的原因,因為如果ATI要cheat就必須降下12bit,但是這畫質真是連色盲的人也可看到,因此ATI只會在較快或轉角位的場景下才用12bit來瞞騙用家的眼睛,至於GFFX5900在cheat的時用16bit,基本上很多用家也不太感覺出來,因此比ATI cheat多一點,但現在各綱站也會capture再放大圖片去比較畫質,也逼使Nvidia在新driver包括所有benchmark轉用回32bit了)
|
我真的也很好奇 Ati 的 12bit 哪裡來的?
精準度跟明暗是沒有關係的 , nV 的 16bit ,Carmack 說可以在不損失多少畫質下達到接近 24bit 的效能(因為 nV3x 用 32bit 真的太慢了 )
至於32bit 會慢是我覺得用硬體要求極高的說法好像不太好,只能說 nv3x 在 register 負載很重的情況下效能會不好 .. 反正現階段大家並不會專注在 32bit 之爭
要把 ps 2.0/vs2.0 的 16bit 24 bit 跑好就已經要好好努力了 =.=