引用:
|
作者Artx1
很可惜的是,只有自己準備的運算能量,才能替自己保密。
所以對核爆模擬之類有機密的運算用途而言,全太陽系的總運算量等於0。
派不上用場的空氣砲總是打得特別響。
至於CELL和GPU到底哪個比較有效率,推論起來是很有趣啦。
上面提到的Folding @ Home的client底下,同樣的演算法CELL和GT200大約是接近1:5的效率,但是這兩個晶片的規模也差不多是1:5的關係,所以其實效率很接近。
實際上CELL每個SPE有256KB的LS、從G80~GT200的CUDA都是16KB的Local Storage,所以必然有適合與不適合的工作,越特化的架構越容易出現用途狹隘的狀況,所以要先找能夠對等比較的環境。
當然如果只是要嘴砲的話,其實也做沒什麼對等比較的理由了。
|
老兄~ 不依你的比較方式就是嘴砲.... 這會不會太狹隘 ?
上文只是單純對標題 著墨在 每秒有多少次運算的數據(flops).
n社的CUDA GPU銷售已經累積超過7000 petaflops的運算力也是有數據可查的.
0.5%x7000 peteflop = 35petaflops 沒有> Roadrunner 的 1peta嗎?
先不看能做什麼用, 個人認為能達到很高的運算次數,本身就可以是一種工藝技術.
G80單一core就有345G+flops的運算力, Roadrunner 回除12k個core, 並不覺得GPU有比cell落後.
至於實際運算輸出的結果, 當然會跟 測試情境有關. 我不否認Cell有強項,但也未必是無敵.
由於適合A去跑的任務, B下去跑也可能變半殘, 特性不同的晶片沒有什麼絕對的好與壞,
端看如何適才適性的去應用, 以任一情境或框架下去比都未必是公平.
那麼單純看每秒運算次數就不能是一種方式?
至於跑什麼東西最專長, 能做什麼用...etc 在下認為就是另一個層次的議題了. ~參考~