![]() |
||
|
*停權中*
加入日期: Jan 2008
文章: 112
|
引用:
所以G92的下一代...也許一千顆就能打平這台超級電腦.. NV/ATI 公司應該有人在打GPU運算效能的主意了. ![]() 大概 BIOS+Driver 換一下就能支援 . |
||||||||
|
|
|
Power Member
![]() ![]() 加入日期: Oct 2004
文章: 594
|
分散式運算還是有一定的使用限制,頂多處理一些各工作執行間的相依性不高的程式。
要解決資料與程式相依性高的問題還是需要超級電腦。 處理器與處理器之間的溝通也是很重要的,像K10就靠著hypertransport在2P電暴C2Q,用網路來交換資料應該會比intel的破FSB還要糟糕把 http://it.anandtech.com/IT/showdoc.aspx?i=3091 |
||
|
|
|
Golden Member
![]() ![]() ![]() ![]() 加入日期: Feb 2004 您的住址: 從來處來
文章: 2,765
|
超級電腦在設計上不會只是把處理器數目增加而已,大多會在架構上也會有些改變,例如 cache 的大小,因此常常會看到超級電腦的運算能力 1+1 > 2 的情況出現。
還有平行運算的限制可以參考一下 Amdahl's law, 不想看那麼多字和那些算式的,可以看一下右上的圖表。一個問題的平行化增強程度是有上限的,因此要應付所有廣泛的問題,並不是核心愈多就愈好,超過一個程度,反而沒那麼多適用性。 因此我很懷疑 Intel 在泛用性 CPU 出到十二核心的意義,因為買回來可能大多數時候大多數核心都在睡覺而已。 |
|
|