瀏覽單個文章
klipschpromeida
Power Member
 

加入日期: Dec 2002
文章: 514
引用:
作者wbj
您說的沒錯,這裡指的"bit time"是指一個數位邏輯去latch一個狀態到可以去latch下一個狀態所需的時間,單位是時間,幾個bit的寬度都無所謂,當然也是指1個bit寬度的匯流排傳1個bit的時間.一個66Mhz的AGP1X的一個bit time是15ns,可以傳32bit的資料,一個66Mhz的AGP2X的一個bit time是7.5ns,可以傳32bit的資料......依此類推,我講的是整個匯流排,在這段時間內總共可以丟多少東西出去.

AGP在發request給北橋到北橋回第一筆資料給AGP的時間就是AGP卡在跑AGP cycle時的最主要的latency,一般DRAM controller沒有在做別事的話10個AGP clk內一定會把第一筆資料送回給AGP卡,卡夠力的話可以一直burst下去,DRAM也沒事一直回資料給卡,那頻寬就很接近理論值了!但是沒有這樣的AP會叫卡去幹這種事(除非是卡本身的測試程式有可能會這樣惡搞),所以您的想法就是我要表達的,就是一個效率的問題,現在的卡與現在的AP在操A...


"這裡指的"bit time"是指一個數位邏輯去latch一個狀態到可以去latch下一個狀態所需的時間" 其實您講的這一點小弟目前是並不同意的,latch up間格的資料所佔的時間不是bit time,甚至我覺得latch up的間隔可以根本不與bit time有關係,而不扯上latch的bit time定義,一樣是相當明確的。不過我就假設這也是我們中文釋義的誤差好了。例如您說的agp是15ns或7.5ns,他們其實都可以不用跟latch扯上什麼關係啊,因為不管15ns或7.5ns,他們都還不是完整的latch,也許是我對這些bus的認識還太粗淺,沒法體會到他們的真義,等我再多讀一點書,希望看法會跟您比較一致....

頻寬的這一點其實大家的看法也都差不多了,在頻寬不是瓶頸時,他本來就是在瞬間的意義會比平均要大,至於真正的效率,一直不是標示頻寬會去考慮的問題,因為他也沒法精確的估算。我相信Intel標示的3.5倍,也就是那種簡單的算法推導的結果罷了,不用想太多。

顯示卡的記憶體latency較高,這是考慮到工作類型與gpu設計的關係,gpu的讀取遠比cpu來得連續,較大的頻寬可以彌補較大latency的效能損失,所以顯示卡廠商都願意用高的latency換取高的時脈,因為這樣兩者取捨之下,效率仍然會更好。

標示的記憶體輸出頻寬,當然都是在burst的讀取來估計吧,這不管是顯示卡或者是主機板用的記憶體,事實上本來的dram顆粒的標示,標示頻寬的速度規範,也都當然是指burst,我不清楚您為何需要特別提到顯示卡的"記憶體"是在burst的標示,況且非burst下的狀況就跟非理想狀況一樣,根本沒法精確估計頻寬。老實說,burst或不burst這種狀況,實在不太關記憶體本身的事,就好像抱怨法拉力這麼遜,在士林夜市裡,根本開不到廠商宣稱的250mile/h一樣,只有2.5mile/h,事實上他可以開那麼快,只是當他是台灣的代步車的話,會遇到的狀況常離理想很遠,這也就是各種bus標示的頻寬會遇到的狀況相似,我們不可能要法拉力車廠,依據各國道路狀況跟駕駛人習慣,去標示他的車款的速度。所以我們也不可能要求廠商去估算他們的bus或protocoal,實際的工作效率會有多少。

頻寬的定義其實是很明確的,他當然可以變成一種****詞,而且他常常變成****詞,但是這並不影響到事情的本質。
     
      
舊 2004-09-20, 08:00 PM #131
回應時引用此文章
klipschpromeida離線中