![]() |
||
Major Member
![]() 加入日期: Feb 2002
文章: 204
|
Properties :
========== ---------------------------------------------------------------------------- EID State Slots PD PS Fans TSs Alms SIM Port# ProdID VendorSpecific ---------------------------------------------------------------------------- 58 OK 36 8 0 0 0 0 0 Port 0 - 3 RES2CV360 x36-254.13.0.0 ---------------------------------------------------------------------------- EID-Enclosure Device ID |PD-Physical drive count |PS-Power Supply count| TSs-Temperature sensor count |Alms-Alarm count |SIM-SIM Count 很久前 已更新到最ph13 R5的 Port 0 - 3:1:28會出現這,SEQUENCE NUMBER = 59140 TIME = 17-04-2013 19:12:40 LOCALIZED MESSAGE = Controller ID: 0 Unexpected sense: PD = Port 0 - 3:1:28Power on, reset, or bus device reset occurred, CDB = 0x2a 0x00 0x00 0x1f 0x33 0x90 0x00 0x00 0x08 0x00 , Sense = 0x70 0x00 0x06 0x00 0x00 0x00 0x00 0x0a 0x00 0x00 0x00 0x00 0x29 0x00 0x00 0x00 0x00 0x00 ID = 268 SEQUENCE NUMBER = 59139 TIME = 17-04-2013 19:12:39 LOCALIZED MESSAGE = Controller ID: 0 PD Reset: PD = Port 0 - 3:1:28, Critical = 3, Path = 0x5001E6734F531FE2 我知道這顆快掛了 hdsentinel說壞軐 53 。反正這是BT碟。但LSI 的MEDIA FAIL 都是0 想說還不會離線就 不換了。 |
|||||||
![]() |
![]() |
Senior Member
![]() ![]() ![]() 加入日期: Jun 2001 您的住址: 中壢
文章: 1,025
|
目前用群暉的NAS..
請問NAS 也有你們說的Consistency Check? 還是有其他檢查方式可以設排程定時檢查? 謝謝 ![]()
__________________
需要光世代推薦碼請私訊我 |
||
![]() |
![]() |
Elite Member
![]() ![]() ![]() ![]() ![]() 加入日期: Mar 2003 您的住址: Vancouver, Canada
文章: 15,006
|
引用:
有 CC 可以設定 可以定時跑 |
|
![]() |
![]() |
Senior Member
![]() ![]() ![]() 加入日期: Jun 2001 您的住址: 中壢
文章: 1,025
|
引用:
剛去官網知識庫沒看到有講相關的 請問是不是這個?
__________________
需要光世代推薦碼請私訊我 |
|
![]() |
![]() |
Major Member
![]() 加入日期: Aug 2001 您的住址: UO - Formosa - Britain
文章: 258
|
引用:
有,Synology NAS有這功能,也可下指令自己排程做~ 我是在 crontab 設定每個月做一次。
__________________
![]() |
|
![]() |
![]() |
Major Member
![]() 加入日期: Mar 2002 您的住址: 高雄
文章: 128
|
引用:
不好意思有一些問題想請教一下 RAID5的部分針對長時間不間斷儲存跟刪除的環境譬如說像監控系統 在其中一顆硬碟故障後也是持續的儲存跟刪除 在這情況下我如果發現故障做重建的間隔越久代表它這段時間儲存的資料會缺越多? 例如系統在1月時故障我在2月時發現後重建,重建後1~2月之間的資料其實是不完全的 是這樣解釋? |
|
![]() |
![]() |
Amateur Member
![]() 加入日期: Sep 2004
文章: 37
|
有二種狀況,不太一樣。
一、1月故障後原來陣列不變,若只錯一顆硬碟並不抽出,繼續使用到2月,抽換後並使用新硬碟,還有機會完整重建。 二、1月故障後,在缺抽一顆硬碟下持續寫入刪除,此時陣列已無容錯功能,2月時又打算將1月所抽硬碟回插予以重建,此時資料縱使救回,也不完全。 因為raid5本將資料依規則寫入各碟碟,設計上可以容錯一顆,XOR仍可計算出聯集,所以閉路保全影帶縱使故障時間再長,大部分仍可救回。但是raid5若故障二顆硬碟,那就沒辦法,有的故障還是人為,比如說拔錯硬碟(把正常硬碟抽離),或是在缺硬碟下繼續,此時若再出錯,形同二顆硬碟出錯。 |
![]() |
![]() |
Major Member
![]() 加入日期: Mar 2002 您的住址: 高雄
文章: 128
|
引用:
這樣來說的話 像單純的硬碟壞軌之類的問題只要不抽掉的話間隔久一點還是可以完整重建 但是像硬碟直接升天連抓的抓不到的這種是否就判定為第二種情況? 間隔越久資料完整重建機率越低,期間再壞一顆RAID5就崩潰? |
|
![]() |
![]() |
Amateur Member
![]() 加入日期: Sep 2004
文章: 37
|
那是因為Raid5只容許一顆硬碟損壞,其他像raid卡有問題、sata線材傳輸錯誤及硬碟無法順利讀取等都不在救援範圍。Raid以容錯保護,而非備份功能,若要容納二顆錯誤,則可選擇Raid6。如果運氣好的話,硬碟升天與資料有錯都在同一顆硬碟,還在Raid5容許範圍內,仍有機會重建。
組Raid5的唯一功能,就是利用一顆新硬碟救回資料,功能在於取代那顆壞硬碟。 其實這已經很不錯了,其他像ssd若組raid,任何有誤則直接掛機,沒有救援的機會,只有機械式硬碟才有機會救回。當然raid0也沒機會救回,不過那是另一件事。至於機率上有間隔越久愈亦有誤,不管是平均五十萬分之一或是計算同時壞二顆的機率等。 |
![]() |
![]() |
Master Member
![]() ![]() ![]() ![]() 加入日期: Feb 2004 您的住址: 台灣國台北市
文章: 1,739
|
引用:
是這樣嗎? 應該組了RAID5/6 的SSD也可以依照XOR計算救回資料不是嗎? 不然難道那些使用LSI / DELL 陣列卡+SSD的USER只是為了使用RAID 0衝傳輸量?
__________________
類亞希子登場...可是沒有空間可放縮圖...好個爛雅虎奇摩... ![]() Orz..Orz..Orz..Orz..Orz..Orz..Orz..Orz.. ![]() タブブラウザ Sleipnir 公式ページ |
|
![]() |
![]() |