PCDVD數位科技討論區

PCDVD數位科技討論區 (https://www.pcdvd.com.tw/index.php)
-   儲存媒體討論區 (https://www.pcdvd.com.tw/forumdisplay.php?f=20)
-   -   [轉載]24BAY x 1TB = 22TB RAID 0影片 with RPC-4224 4U Rackmount Case (https://www.pcdvd.com.tw/showthread.php?t=922287)

BBCT 2011-03-09 01:39 PM

引用:
作者小壞蛋
用WD一般版的硬碟玩RAID=悲劇 :jolin: :jolin:


是速度上的悲劇?還是耐用性的悲劇?

耐用性的話,那改用Seagate的SAS硬碟好了!

anderson1127 2011-03-09 01:49 PM

我記得...

Windows好像也有support NFS 的軟體....

可惜沒有太多時間,不然我也真想來組一台Linux NFS Server
Linux NFS Server用4 port gigabit ethernet 來擴充頻寬跑802.3ad
Linux Server上面再加跑SoftRAID,看是要跑RAID 5 or RIAD 0都好

然後Windows 當做NFS Client再掛載Linux NFS Disk ,當然Windows
也同步跑802.3ad , 看看測出來的效能是不是會輸給Hardward RAID
非常多 , 如果測出來能夠有Hardware RAID的8成效能,那也很不錯了!! :D:D:D

有空再來搞.... :laugh:

thx 2011-03-09 01:57 PM


用的是10 G網卡

只是用CIFS 網芳時 以下Z為 NAS DISK
再拷到二顆硬碟上總頻寬200 MB/sec  

應該可以到600MB /sec


確實用NFS 效能會更不錯 並且也可給Vsphere 用
只是要留意件事. NFS 會比較吃CPU Resources..

chaotommy 2011-03-09 02:04 PM

引用:
作者BBCT
是速度上的悲劇?還是耐用性的悲劇?

耐用性的話,那改用Seagate的SAS硬碟好了!

Key word: TLER

anderson1127 2011-03-09 03:04 PM

引用:
作者thx
[恕刪]
確實用NFS 效能會更不錯 並且也可給Vsphere 用
只是要留意件事. NFS 會比較吃CPU Resources..


感謝thx大的資料,做了這麼大的一個Lab實驗室,心力投注了不少..
辛苦您了!!

只是10G interface 也花了不少錢吧? 我能夠想到的大概也就只是用
DUAL Port gigabit來硬兜出來頻寬 , 您只要一張10G interface
就打死好幾張的gigabit interface , 不過這也間接證明,網卡效能不會
造成資料傳輸的瓶頸所在 !!

因為要跑SoftRAID是為了解決相容性問題,免得一天到晚被Hardware RAID
廠商給綁得死死的,要效能不給效能,讓人看不下去 , 乾脆用一台獨立的
NFS Server再加跑SoftRAID(雙核心我想夠用了吧? ) , 我剛剛才去
找過資料,因為Linux的核心參數可以調整的地方很多,加上64bit OS
+ TCP/IP Performance tunning + 802.3ad 整合
我相信這樣的做法應該不會大輸給高階Hardware RAID Card ...

希望能夠有8成左右的效能... 希望啦.... :D

Kyocera 2011-03-09 06:05 PM

linux software raid效能上不會是問題,而且是非常好。
問題是出在rebuild時對出現錯誤的處理方式
以下是七八年前我親身的案例,代價是好幾百G的資料炸掉,從此把linux software raid丟掉,乖乖花錢買lsi, 3ware和raidcore的卡

在跑RAID 5 rebuild時,出現另外一個hdd有壞軌或是突然offline再online
大多數的hardware raid卡處理方式是繼續rebulid,這樣頂多是那一個區塊的資料有問題,但是至少大多數撈出的資料還是可用。
對於offline再online的hdd處理也沒有問題。
linux software raid是直接把該hdd標記成fail,停掉rebiuld,整個raid也直接offline,沒有補救方式。全部資料再見 :tu:
炸了第一次後我還不信邪再玩一次,第二次炸掉後就直接買hardware raid卡來供

anderson1127 2011-03-09 08:44 PM

引用:
作者Kyocera
[恕刪]
在跑RAID 5 rebuild時,出現另外一個hdd有壞軌或是突然offline再online
大多數的hardware raid卡處理方式是繼續rebulid,這樣頂多是那一個區塊的資料有問題,但是至少大多數撈出的資料還是可用。
對於offline再online的hdd處理也沒有問題。


嚇了一跳...
hdd會突然off line 再 on line ? 是那棵硬碟快掛了吧?

我印像中實習過SoftRAID的configure , 當初也是跑RAID 5
只是當初是用2.5吋USB 2.0外接盒來做的,後來因為電源問題才掛的!!
救資料時,只用兩棵HD來試著救看看,因為有一棵HD因為電源問題
跑不起來而off line

資料救回來時,只有部份還可以,不過好在有備份,沒有大損失!!

後來就不跑了,因為用USB 2.0若不用外接電力,實在很不穩定....
這事情快4年前的事了...

我相信,如果都用內接式的HD應該不至於發生突然off line的事,除非
PSU因為負載了太多棵HD而造成這狀況我認為是有可能的...

所以日後如果組這種伺服器,就必須把PSU給納入考量,至少可能要
買高等級的PSU來給FileServer使用!!

Kyocera 2011-03-09 10:20 PM

引用:
作者anderson1127
嚇了一跳...
hdd會突然off line 再 on line ? 是那棵硬碟快掛了吧?

不見得喔
關電拆機換下損壞的硬碟時,不小心碰掉排線沒注意到,再開機進os就說再見了
但在h/w raid卡上,把offline的硬碟接回去再把損壞的硬碟換新
還是可以順利的rebulid

jnho 2011-03-09 11:31 PM

我看到有人叫我,我只能說,software raid 請不要考慮,我有類似的經驗,硬體的卡其實轉移性比軟體好很多,硬碟在出現那種要死不死的問題時,會處理的比較好,其實現在的HD容量很大,連3T的都有了,我不建議超過12 PCS做RAID 5,我覺得以現在硬碟的品質來說,會遇到很大的問題,熱量與電源所消耗的成本會大於硬碟的價差

thx 2011-03-09 11:41 PM

software 比較沒有標準的raid message ,所以再mount 有時不易(ZFS 例外 會有Message)

software raid 掛時還要看一下FS 有沒有炸掉


多顆硬碟 想要用 software raid
可以 SAS Expander +LSI 3081 沒有相容性問題
再加上nexenta core os +nappit 套件.


大家想到的企業級storage 功能全部都有
fc ,iscsi target server :
CDP,thin provisioning,snapshot, SSD加速,Data De-duplication等.

一般用Web GUI設定可 ,部份需要指令


所有的時間均為GMT +8。 現在的時間是04:24 AM.

vBulletin Version 3.0.1
powered_by_vbulletin 2025。