![]() |
PCDVD數位科技討論區
(https://www.pcdvd.com.tw/index.php)
- 系統組件
(https://www.pcdvd.com.tw/forumdisplay.php?f=19)
- - 每秒運算逾1026千兆次 美軍超級電腦刷新紀錄
(https://www.pcdvd.com.tw/showthread.php?t=798711)
|
|---|
引用:
多謝指正~ :) 後面我只是想指出,個人認為分散式的可擴充性較大, 當然機密資訊不能公開對外是沒錯 但是可以自建網格,不見得要用外界社群, "走鵑"就算贏過四十萬部電腦....恐怕也不夠一個Google用.(25 sites, 450k PCs grid) 不管是單點失誤, 超高單次建置費用與長期高維護費用 等考量, 買個超級電腦也未必是唯一的選擇. |
引用:
很可惜的是,只有自己準備的運算能量,才能替自己保密。 所以對核爆模擬之類有機密的運算用途而言,全太陽系的總運算量等於0。 派不上用場的空氣砲總是打得特別響。 至於CELL和GPU到底哪個比較有效率,推論起來是很有趣啦。 上面提到的Folding @ Home的client底下,同樣的演算法CELL和GT200大約是接近1:5的效率,但是這兩個晶片的規模也差不多是1:5的關係,所以其實效率很接近。 實際上CELL每個SPE有256KB的LS、從G80~GT200的CUDA都是16KB的Local Storage,所以必然有適合與不適合的工作,越特化的架構越容易出現用途狹隘的狀況,所以要先找能夠對等比較的環境。 當然如果只是要嘴砲的話,其實也做沒什麼對等比較的理由了。 |
引用:
IBM在幾十年來都在這些最高階的市場上實驗運算結構,其實仔細看就看得到,影響都非常深遠。 PC在最大的市場當然是最容易透過市場效應得到進步,但是論觀念的話大多是跟隨者。 Google能夠高速更新節點的主要原因是因為他們花了很多時間建置一個"能夠快速更新"的軟體環境,這部分的成本很容易被忽略。 也就是說你要"玩得非常大"才能搭上Google的玩法,而且用途也是有限的。 如果把耗電之類運作成本也考慮進去的話,那麼Google可能在效率上的排名就往後跌得多了。 |
引用:
老兄~ 不依你的比較方式就是嘴砲.... 這會不會太狹隘 ? :think: 上文只是單純對標題 著墨在 每秒有多少次運算的數據(flops). n社的CUDA GPU銷售已經累積超過7000 petaflops的運算力也是有數據可查的. 0.5%x7000 peteflop = 35petaflops 沒有> Roadrunner 的 1peta嗎? :unbelief: 先不看能做什麼用, 個人認為能達到很高的運算次數,本身就可以是一種工藝技術. :cool: G80單一core就有345G+flops的運算力, Roadrunner 回除12k個core, 並不覺得GPU有比cell落後. 至於實際運算輸出的結果, 當然會跟 測試情境有關. 我不否認Cell有強項,但也未必是無敵. 由於適合A去跑的任務, B下去跑也可能變半殘, 特性不同的晶片沒有什麼絕對的好與壞, 端看如何適才適性的去應用, 以任一情境或框架下去比都未必是公平. 那麼單純看每秒運算次數就不能是一種方式? :flash: 至於跑什麼東西最專長, 能做什麼用...etc 在下認為就是另一個層次的議題了. ~參考~ |
比浮點運算, 顯卡GPU比頂級CPU多 10倍 , 也就是一萬張GF 8800 就能打平這台超級電腦.
文中也說"「走鵑」便是以包含一萬二千九百六十顆IBM「Cell」改良型晶片" 這樣就合理了, 一個CELL(PS3改) 性能和一顆G92相當 , 沒甚麼好奇怪的. |
引用:
講成"我的比較方式"就不對了,架構性質和專用性本來就都是看工作性質來比較的,NVIDIA以前說過G71本身有總和1.8TFLOPS的運算能力,你會把這個數字拿來張飛打岳飛嗎? 我覺得你的比較方式有問題,但是你把我講的話扯成"只要不照我講的就是不對",那剩下的都不必講了,因為我講多少都聽不進去。 ---- 剩下的就說給想聽的人聽: 我們都知道G80在single-issue底下有345GFLOPS、dual-issue底下有518GFLOPS。 CELL的8個SPE大約是204GFLOPS單精度、eDP CELL有倍精度102.4GFLOPS的能力,帳面上PPE的VMX比較快,但是實際上因為register資源不足所以快不起來。 但是實際上G8x的TMU和ROP極為強大,強大到在die area上也是TMU和ROP的規模大過shader很多。 G80有681M電晶體(已經扣掉NVIO)、但是只有不到1/3是shader;CELL的235M電晶體,eDP CELL只增加到約250M不到。 所以以架構效率來說的話,GPU目前和multi-core CPU是有落差的。 假定今天製程相同的話,那麼對用途比較廣泛的需求下,應該還是會做multi-core CPU。 畢竟GPU真的是對繪圖特化的東西,只是為了公司本身的商業利益,GPU廠商希望不要永遠只依存在遊戲市場上(工業用的專業繪圖毛利高但是產值並不高),所以希望能利用GPU的性能,而GPU在通用運算上真正強大的部分是記憶體頻寬,而不是運算能量本身。 但是當GPU本身有專職其實還有很大進步空間的時候,你就不太可能在兼職上投資多少資源。 積少成多當然是毫無疑問,Folding@Home目前總和大概接近2Peta FLOPS,有1.5Peta是PS3貢獻的,大約是五萬台。(實際執行過的大約53萬,然後全球的PS3大約一千三百萬) 如果這世界上真的有那麼多有CUDA GPU(全球每年PC市場大約25%、其中的0.5~1%)的client願意來跑看看FAH for CUDA的話,那就有很大的機會翻盤。 |
|
引用:
Cell真和G92相當的話 那Sony也沒必要急急忙忙找nVIDIA做出一張半殘的RSX 效能也不會被Xbox360巴過去 :ase |
還是分散式運算比較有潛力, 全世界最強的超級電腦不斷地被SETI@Home超越, 所以只好再研發新的超級電腦
雖然現在最新的Roadnunner有1026 teraflop的能力, 花費40億, 比現在的SETI@Home 528 teraflop還要強, 但預料SETI@Home只須再1年5個月就會再趕上來的 目前台灣有四千多人參加SETI@Home, 提供了約 7 teraflop的運算能力 |
引用:
的確, 以"成長中"追過任何的固定數值, 這都只是時間早晚的問題. :cool: 不分專案來看,目前BOINC所有專案, 總計平均提供1155.708 TeraFLOPS的強大運算力 加上Folding@Home的2peta, 無疑的社群力量才是地表最悍的資源. :flash: 雖然超級電腦也是可以升級再變強, 但是原本社群的成長, 加上CPU多核心的普及與GPU 運算力被更高度開發(n社終於加入), 預計分散式運算社群提出的總運算力將會有更大的突破. 這些力量都時時刻刻在處理與你我有關係的科學/天文/醫療/生化/數理/氣候/能源....等議題. 還是打個****, 捐出你用不到的閒置運算力, 選擇你有興趣的主題, 加入 分散式 運算的行列吧~ :) |
| 所有的時間均為GMT +8。 現在的時間是02:35 AM. |
vBulletin Version 3.0.1
powered_by_vbulletin 2025。