PCDVD數位科技討論區
PCDVD數位科技討論區   註冊 常見問題 標記討論區為已讀

回到   PCDVD數位科技討論區 > 電腦硬體討論群組 > 儲存媒體討論區
帳戶
密碼
 

  回應
 
主題工具
thunderlight
*停權中*
 

加入日期: Mar 2012
文章: 220
引用:
作者Rainwen
因為SandForce被LSI併購,而LSI跟Intel又是合作伙伴.......


這種不穩定的速度可以算是一個大缺點
很難想像強調server品質的LSI會用SF的晶片...
     
      
舊 2012-05-30, 05:49 PM #11
回應時引用此文章
thunderlight離線中  
linczs2000
Master Member
 
linczs2000的大頭照
 

加入日期: Mar 2002
您的住址: 屏東<===>台北
文章: 1,578
引用:
作者moninca09
不太覺得是小容量的關係....因為測試只用大概一半的容量
不看那台Agility3,直接看那台Intel SSD520,用的是同步顆粒
讀取值應該可以破500MB,結果真的填入資料的部分都停留在250-300MB
我相信那是晶片本身來不及處理的問題


我的想法是這樣,60GB的一半跟120GB的一半哪個能有更大的空間讓控制晶片私下使用,60GB連OP1+OP2都一樣小一倍啊

下面這段就講得更清楚了
In theory, read speeds shouldn't be significantly impacted by the drive's free space. But there is a noticeable drop-off on the lower-capacity SF-22xx-based SSDs. Compression is one reason for this. Compressed data has to be decompressed, which requires sufficient free space. SandForce's garbage collection mechanism is a second explanation. Because most of its clean-up happens in the foreground, decompression requires a rotation of scratch space so that the NAND wears out evenly. This is known as wear leveling.


Both factors penalize the 60 GB drives we're rounding up more than the larger models as a result of limited NAND bandwidth, a side-effect of leaning on fewer NAND dies. We're using HD Tune to illustrate.
 

此文章於 2012-05-30 05:57 PM 被 linczs2000 編輯.
舊 2012-05-30, 05:52 PM #12
回應時引用此文章
linczs2000離線中  
linczs2000
Master Member
 
linczs2000的大頭照
 

加入日期: Mar 2002
您的住址: 屏東<===>台北
文章: 1,578
引用:
作者thunderlight
這種不穩定的速度可以算是一個大缺點
很難想像強調server品質的LSI會用SF的晶片...


SERVER通常都會操到不能有時間跑GC

這時候SANDFORCE的價值就出來了
舊 2012-05-30, 05:54 PM #13
回應時引用此文章
linczs2000離線中  
moninca09
Junior Member
 

加入日期: Oct 2004
文章: 890
引用:
作者linczs2000
我的想法是這樣,60GB的一半跟120GB的一半哪個能有更大的空間讓控制晶片私下使用,60GB連OP1+OP2都一樣小一倍啊


私下使用指的是什麼呢?這只是很單純的讀取測試啊......
難不成每次讀取需要預先解壓縮到其他空白區域?
這樣寫入放大率會變得多恐怖?每次讀取都需要寫入資料嗎?
Flash的壽命會減損很大吧

而且60GB算小容量?120GB算小容量?這個所謂大小如何評估呢?
多大對SF算夠大?剩多少空間給他用他才滿意?這似乎沒有標準
這個測試只用了這台SSD不到一半的容量而已啊
舊 2012-05-30, 06:00 PM #14
回應時引用此文章
moninca09離線中  
linczs2000
Master Member
 
linczs2000的大頭照
 

加入日期: Mar 2002
您的住址: 屏東<===>台北
文章: 1,578
引用:
作者moninca09
私下使用指的是什麼呢?這只是很單純的讀取測試啊......
難不成每次讀取需要預先解壓縮到其他空白區域?
這樣寫入放大率會變得多恐怖?每次讀取都需要寫入資料嗎?
Flash的壽命會減損很大吧

而且60GB算小容量?120GB算小容量?這個所謂大小如何評估呢?
多大對SF算夠大?剩多少空間給他用他才滿意?這似乎沒有標準
這個測試只用了這台SSD不到一半的容量而已啊


THG文章本身就這麼寫,我也相信是這樣,信不信就看人囉
In theory, read speeds shouldn't be significantly impacted by the drive's free space. But there is a noticeable drop-off on the lower-capacity SF-22xx-based SSDs. Compression is one reason for this. Compressed data has to be decompressed, which requires sufficient free space. SandForce's garbage collection mechanism is a second explanation. Because most of its clean-up happens in the foreground, decompression requires a rotation of scratch space so that the NAND wears out evenly. This is known as wear leveling.


Both factors penalize the 60 GB drives we're rounding up more than the larger models as a result of limited NAND bandwidth, a side-effect of leaning on fewer NAND dies. We're using HD Tune to illustrate.
舊 2012-05-30, 06:03 PM #15
回應時引用此文章
linczs2000離線中  
moninca09
Junior Member
 

加入日期: Oct 2004
文章: 890
引用:
作者linczs2000
我的想法是這樣,60GB的一半跟120GB的一半哪個能有更大的空間讓控制晶片私下使用,60GB連OP1+OP2都一樣小一倍啊

下面這段就講得更清楚了
In theory, read speeds shouldn't be significantly impacted by the drive's free space. But there is a noticeable drop-off on the lower-capacity SF-22xx-based SSDs. Compression is one reason for this. Compressed data has to be decompressed, which requires sufficient free space. SandForce's garbage collection mechanism is a second explanation. Because most of its clean-up happens in the foreground, decompression requires a rotation of scratch space so that the NAND wears out evenly. This is known as wear leveling.


Both factors penalize the 60 GB drives we're rounding up more than the larger models as a result ...


這段的意思蠻奇怪的....SF光做讀取都需要額外的空間解壓縮?
這實在太傷Flash的壽命了吧

我們說一個2M壓縮成1M的檔案,SF雖然只寫入1M
但系統看到暫去的空間還是2M,只是有1M的Flash是空著的
假如他在讀取時,還需要一個另外2M的空間把他解壓縮出來放著再讀出來
這樣SF的SSD光做讀取就不斷的在耗損Flash的壽命了
舊 2012-05-30, 06:04 PM #16
回應時引用此文章
moninca09離線中  
linczs2000
Master Member
 
linczs2000的大頭照
 

加入日期: Mar 2002
您的住址: 屏東<===>台北
文章: 1,578
引用:
作者moninca09
這段的意思蠻奇怪的....SF光做讀取都需要額外的空間解壓縮?
這實在太傷Flash的壽命了吧

我們說一個2M壓縮成1M的檔案,SF雖然只寫入1M
但系統看到暫去的空間還是2M,只是有1M的Flash是空著的
假如他在讀取時,還需要一個另外2M的空間把他解壓縮出來放著再讀出來
這樣SF的SSD光做讀取就不斷的在耗損Flash的壽命了


反正寫進去的資料,我想各家控制晶片都會做某種程度上的挪移,不然某些部分被用到爆,某些部分被當成唯獨,很像也說不過去

在大陸的PCEVA有看過一篇文,當SSD讀取某些資料超過一定次數時,SSD要是沒幫資料換位置,資料的正確性可能會出錯(當然對壽命的影響沒寫入重)
舊 2012-05-30, 06:14 PM #17
回應時引用此文章
linczs2000離線中  
moninca09
Junior Member
 

加入日期: Oct 2004
文章: 890
引用:
作者linczs2000
反正寫進去的資料,我想各家控制晶片都會做某種程度上的挪移,不然某些部分被用到爆,某些部分被當成唯獨,很像也說不過去

在大陸的PCEVA有看過一篇文,當SSD讀取某些資料超過一定次數時,SSD要是沒幫資料換位置,資料的正確性可能會出錯(當然對壽命的影響沒寫入重)


那是為了要平均抹寫,會有挪動很合理
避免長期被某筆寫入一次資料只做讀取的區塊幾乎沒重複使用

可是就算需解壓再讀這一點為真,我們也不考慮Flash寫入耗損的問題好了
測試中的Intel 520SSD,顆粒的連續讀取應該可以到達450MB/s沒問題
測試中留了超過一半的空間給SF做任何他想要做的事情,足超過30GB
這樣的狀態SF的方案都無法滿足Flash顆粒本身的輸出流量?
那我買一顆SF 480GB的SSD要留多少空間做他想做的事情?300GB?
舊 2012-05-30, 06:19 PM #18
回應時引用此文章
moninca09離線中  
oScARSh
*停權中*
 
oScARSh的大頭照
 

加入日期: Mar 2006
文章: 4,081
現在只好請手上有SF晶片的朋友出來跑一下hdTune現身說法了
舊 2012-05-30, 06:24 PM #19
回應時引用此文章
oScARSh離線中  
linczs2000
Master Member
 
linczs2000的大頭照
 

加入日期: Mar 2002
您的住址: 屏東<===>台北
文章: 1,578


240GB的系統碟,還是有掉一些些

此文章於 2012-05-30 07:23 PM 被 linczs2000 編輯.
舊 2012-05-30, 07:22 PM #20
回應時引用此文章
linczs2000離線中  


    回應


POPIN
主題工具

發表文章規則
不可以發起新主題
不可以回應主題
不可以上傳附加檔案
不可以編輯您的文章

vB 代碼打開
[IMG]代碼打開
HTML代碼關閉



所有的時間均為GMT +8。 現在的時間是03:22 AM.


vBulletin Version 3.0.1
powered_by_vbulletin 2025。