數字網站那篇就別看了,裡面一堆戰文...明明沒有新技術的情況下製程越小越先進
本來抹寫的次數就會降低...
舉個實際例子,在下公司先前有兩顆Intel G1 SSD兩顆G2,都跑同樣的平行運算
加解密測試,每天資料流量固定超過300GB,G1的兩顆撐到四個多月掛點,G2新
買的兩顆只有三個多月就送修,最後只能請公司花大錢買RAM DISK回來測.
雖然說在下公司這種使用方式完全是極端,但是50nm轉32nm就已經這樣,未來
2xnm情況只會更糟糕,現在是有廠商考慮用多層MLC取代SLC(等於80GB當
40GB用這樣)來做為給企業Server用SSD,不過還沒有任何實際產品出現就是...