引用:
Originally posted by 3D King
其實GFFX5900用的32bit浮點運算精準度是跟ATI用的24bit在畫面質素上是有分別的,至於分別是否很大就得隨着各人的觀感了,GFFX5900可以降到16bit而ATI可以降到12bit,這也是它們原先設計硬體時所規定的,當GFFX5900降到16bit時,畫質比ATI所用的24bit時較暗,而ATI降到12bit時,畫面基本上太暗到不能接受的地步了,所以結論如下:
1)ATI用的12bit浮點運算精準度:畫質完全不能接受(當然是跟24bit/32比較!)
2)GFFX5900用的16bit浮點運算精準度: 畫質上基本上可以接受,事實上DX8的 game也只是要求16bit,但微軟的DX9的要求是24bit以上,用16bit會比24bit畫面亮度較暗!
3) ATI R9800所用的24bit剛好滿足微軟對DX9最低24bit的要求,畫質基本上滿意的。
4) GFFX5900所用的32bit畫面質素最高,不論亮度和畫質精準度也超越了微軟在DX9最低的24bit的要求,可借用32bit對硬件要求極高,也可能拖垮硬件的效能,幸好擁有135百萬電精體的GFFX5900的能力也沒有白費,只要從新編寫適合DX9的complier,也可以在32bit的高質之下,也不會令效能下降太多!
(因此大家也可能明白為什麽ATI cheat得比較小的原因,因為如果ATI要cheat就必須降下12bit,但是這畫質真是連色盲的人也可看到,因此ATI只會在較快或轉角位的場景下才用12bit來瞞騙用家的眼睛,至於GFFX5900在cheat的時用16bit,基本上很多用家也不太感覺出來,因此比ATI cheat多一點,但現在各綱站也會capture再放大圖片去比較畫質,也逼使Nvidia在新driver包括所有benchmark轉用回32bit了)
|
真是獨創一格的看法呀
--
精度和明暗有關係?
Detonator/ForceWare支援FP RTF了?
