Uptech SR400 PCI 4Port SATA CARD x 1 (保固一年)
Uptech SR202 PCI-e 2Port SATA CARD x 3 (保固一年)
安裝 CentOS 6.0 x86_64
在開機時應該可以看到有偵測到四張 sata 卡
然後開完機使用 fdisk -l 可以看到一大串還沒有被使用的硬碟
從 /dev/sda ~ /dev/sdas
一共是 45 顆
先切出 Partition
# fdisk /dev/sda ### fdisk sda 這顆硬碟
# p ### 列出磁區清單,因為是全新的,所以是空的
# n ### 建立新的磁區
# p ### 選擇建立主要磁區
# 1 ### 建立第1個主要磁區
# 連續安二個 enter ### 因為是整個硬碟做一個主要磁區,所以使用內建值即可
# t ### 變更碟區型態
# fd ### fd Linux raid auto
# w ### 儲存並離開 fdisk
全部 45 顆都要做完
之後利用 mdadm 建立 raid
# mdadm --create --auto=yes /dev/md0 --level=6 --raid-devices=13 --spare-devices=2 /dev/sd{a,b,c,d,e,f,g,h,i,j,k,l,m,n,o}選項與參數:
--create :為建立 RAID 的選項;
--auto=yes :決定建立後面接的軟體磁碟陣列裝置,亦即 /dev/sda, /dev/sdb...
--raid-devices=N :使用幾個磁碟 (partition) 作為磁碟陣列的裝置
--spare-devices=N :使用幾個磁碟作為備用 (spare) 裝置
--level=[015] :設定這組磁碟陣列的等級。
--detail :後面所接的那個磁碟陣列裝置的詳細資訊
可以透過 {} 將重複的部份簡化
/dev/md0 第一座
/dev/md1 第二座
/dev/md2 第三座
上面的指令做三次之後
建立三座 raid 磁區
因為我們建立的磁區非常大
估計要花上一整天來初始化
在還沒完成之前
可以使用 cat /proc/mdstat 來查看目前的狀態
# cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4]
md2 : active raid6 sdas[14](S) sdar[13](S) sdaq[12] sdap[11] sdao[10] sdan[9] sdam[8] sdal[7] sdak[6] sdaj[5] sdai[4] sdah[3] sdag[2] sdaf[1] sdae[0]
21488642560 blocks super 1.2 level 6, 512k chunk, algorithm 2 [13/13] [UUUUUUUUUUUUU]
[>....................] resync = 0.0% (42496/1953512960) finish=3829.2min speed=8499K/sec
md1 : active raid6 sdad[14](S) sdac[13](S) sdab[12] sdaa[11] sdz[10] sdy[9] sdx[8] sdw[7] sdv[6] sdu[5] sdt[4] sds[3] sdr[2] sdq[1] sdp[0]
21488642560 blocks super 1.2 level 6, 512k chunk, algorithm 2 [13/13] [UUUUUUUUUUUUU]
[>....................] resync = 0.0% (966784/1953512960) finish=1787.6min speed=18204K/sec
md0 : active raid6 sdo[14](S) sdn[13](S) sdm[12] sdl[11] sdk[10] sdj[9] sdi[8] sdh[7] sdg[6] sdf[5] sde[4] sdd[3] sdc[2] sdb[1] sda[0]
21488642560 blocks super 1.2 level 6, 512k chunk, algorithm 2 [13/13] [UUUUUUUUUUUUU]
[>....................] resync = 0.0% (1817472/1953512960) finish=2131.5min speed=15260K/sec
unused devices: <none>
上面顯示的資料裡,我以 md0 做例子:
狀態是 active
使用 raid6
硬碟的組成是 sdo[14](S) sdn[13](S) sdm[12] sdl[11] sdk[10] sdj[9] sdi[8] sdh[7] sdg[6] sdf[5] sde[4] sdd[3] sdc[2] sdb[1] sda[0]
sdo[14](S) sdn[13](S) 是此 raid group 裡的 spare
[UUUUUUUUUUUUU] 表示有 13 顆硬碟,全部正常運作
參考資料:
第十五章、磁碟配額(Quota)與進階檔案系統管理
CentOS 4.4如何利用Mdadm建立Raid5存儲
沒有留言:
張貼留言