因為常遇到,筆記一下關閉 selinux 的方式
編輯設定檔 /etc/selinux/conf
如果不想重開機,可直接下指令:setenforce 0
2014-01-22
2012-10-06
WD 綠標硬碟關閉 idle
windows 可以參考這裡
Linux 可以參考這裡
由於我們是用在 CentOS 上面
所以我就先試了 idle3ctl
下載 idle3-tools-0.9.1.tgz
# tar xzvf idle3-tools-0.9.1.tgz
# cd idle3-tools-0.9.1
# make install
即安裝完畢
查看 idle 設定
# idle3ctl -g /dev/sdb
Idle3 timer set to 80 (0x50)
取消 idle 設定
# idle3ctl -d /dev/sdb
Idle3 timer disabled
Please power cycle your drive off and on for the new setting to be taken into account. A reboot will not be enough!
所以要重開機設定才能生效!
2012-06-23
CentOS 5.8 NIC Bonding configure
1. 編輯 /etc/modprobe.conf 設定檔
alias bond0 bonding
options bond0 miimon=80 mode=1
2. 新增 /etc/sysconfig/network-scripts/ifcfg-bond0 設定檔
DEVICE=bond0
IPADDR=<your.ip.address>
NETMASK=<255.255.255.x>
NETWORK=
BROADCAST=
GATEWAY=<gate.way.ip>
ONBOOT=yes
BOOTPROTO=none
USERCTL=no
3. 修改第一張網卡 /etc/sysconfig/network-scripts/ifcfg-eth0 設定檔
DEVICE=eth0
ONBOOT=yes
BOOTPROTO=none
USERCTL=no
MASTER=bond0
SLAVE=yes
4. 修改第二張網卡 /etc/sysconfig/network-scripts/ifcfg-eth1 設定檔
DEVICE=eth1
ONBOOT=yes
BOOTPROTO=none
USERCTL=no
MASTER=bond0
SLAVE=yes
(此步驟看你有幾張卡想要設定就做幾次)
5. 重新開機!
在設定 bonding mode 的時候要注意:
mode=1 active-backup 模式
一次只有一張網卡在工作
經過測試,二張網卡輪流斷線
基本上 ping 都不會斷!
其他參考資料:
41.5.2.1. bonding Module Directives
Network Card Bonding On CentOS
mode=1 active-backup 模式
一次只有一張網卡在工作
經過測試,二張網卡輪流斷線
基本上 ping 都不會斷!
其他參考資料:
41.5.2.1. bonding Module Directives
Network Card Bonding On CentOS
2011-11-14
如何在 linux 裡切出 2T 以上的 partition
上次做過一次,忘了筆記, 今天在使用 fdisk 的時候,才想起來 fdisk 沒辦法切超過 2T 的空間!找了好久,一看到 parted 這個關鍵字~我才想起來!就是它!
# parted /dev/md0
GNU Parted 2.1
Using /dev/md0
Welcome to GNU Parted! Type 'help' to view a list of commands.
(parted) mklabel
New disk label type? gpt
Warning: The existing disk label on /dev/md0 will be destroyed and all data on this disk will be lost. Do you want to continue?
Yes/No? y
(parted) mkpart
Partition name? []? primay
File system type? [ext2]? xfs
Start? 0
End? -1
Warning: The resulting partition is not properly aligned for best performance.
Ignore/Cancel? i
(parted) p
Model: Unknown (unknown)
Disk /dev/md0: 33.0TB
Sector size (logical/physical): 512B/512B
Partition Table: gpt
Number Start End Size File system Name Flags
1 17.4kB 33.0TB 33.0TB xfs primay
(parted) q
Information: You may need to update /etc/fstab.
2011-09-08
如何得知到底是哪一顆硬碟有問題?
剛剛找到一個辦法了!
先找出來是哪一顆硬碟壞掉
再用 smartctl 查出來這顆硬碟的序號
這樣我就可以順利找出來壞掉的硬碟是哪一顆了!
先找出來是哪一顆硬碟壞掉
# more /proc/mdstat從上面看出來是 sdk[10](F) 這顆壞掉
md0 : active raid6 sdl[11] sdn[13] sdk[10](F) sdo[14](S) sdm[12] sdh[7] sdf[5] sdc[2] sdj[9] sdg[6] sde[4] sda[0] sdd[3] sdb[1] sdi[8]
21488642560 blocks super 1.2 level 6, 512k chunk, algorithm 2 [13/12] [UUUUUUUUUU_UU]
[=>...................] recovery = 7.3% (143145472/1953512960) finish=1996.5min speed=15112K/sec
再用 smartctl 查出來這顆硬碟的序號
# smartctl --all /dev/sdk
smartctl 5.39.1 2010-01-28 r3054 [x86_64-unknown-linux-gnu] (local build)
Copyright (C) 2002-10 by Bruce Allen, http://smartmontools.sourceforge.net
=== START OF INFORMATION SECTION ===
Device Model: ST2000DL003-9VT166
Serial Number: 5YD4SGVK
這樣我就可以順利找出來壞掉的硬碟是哪一顆了!
2011-08-29
如何在 CentOS6 裡建立 ext4 的 file system
如何在 CentOS6 裡建立 ext4 的 file system
雖然最後發現目前的 ext4 還不支援大於 16TB 的 file system
還是先筆記一下,未來也許可以用到!
[root@localhost ~]# parted /dev/sdb # 使用parted来对GPT磁盘操作,进入交互式模式
GNU Parted 1.8.1 Using /dev/sdb Welcome to GNU Parted! Type ‘help’ to view a list of commands.
(parted) mklabel gpt # 将MBR磁盘格式化为GPT
(parted) print #打印当前分区
(parted) mkpart primary 0 4.5TB # 分一个4.5T的主分区
(parted) mkpart primary 4.5TB 12TB # 分一个7.5T的主分区
(parted) print #打印当前分区
(parted) quit 退出
Information: Don’t forget to update /etc/fstab, if necessary.
參考資料:
Ext4 Howto
伺服器安裝第一首選 CentOS 6帶來寧靜革命
Ext4系統格式介紹
雖然最後發現目前的 ext4 還不支援大於 16TB 的 file system
還是先筆記一下,未來也許可以用到!
[root@localhost ~]# parted /dev/sdb # 使用parted来对GPT磁盘操作,进入交互式模式
GNU Parted 1.8.1 Using /dev/sdb Welcome to GNU Parted! Type ‘help’ to view a list of commands.
(parted) mklabel gpt # 将MBR磁盘格式化为GPT
(parted) print #打印当前分区
(parted) mkpart primary 0 4.5TB # 分一个4.5T的主分区
(parted) mkpart primary 4.5TB 12TB # 分一个7.5T的主分区
(parted) print #打印当前分区
(parted) quit 退出
Information: Don’t forget to update /etc/fstab, if necessary.
| 代碼: |
| [root@eblaze00 home]# parted /dev/md1 GNU Parted 2.1 Using /dev/md1 Welcome to GNU Parted! Type 'help' to view a list of commands. (parted) mklabel New disk label type? y parted: invalid token: y New disk label type? gpt (parted) mkpart primary File system type? [ext2]? ext4 Start? 0 End? -1 Warning: The resulting partition is not properly aligned for best performance. Ignore/Cancel? i (parted) print Model: Unknown (unknown) Disk /dev/md1: 22.0TB Sector size (logical/physical): 512B/512B Partition Table: gpt Number Start End Size File system Name Flags 1 17.4kB 22.0TB 22.0TB primary (parted) quit Information: You may need to update /etc/fstab. |
參考資料:
Ext4 Howto
伺服器安裝第一首選 CentOS 6帶來寧靜革命
Ext4系統格式介紹
2011-08-25
CentOS 6.0 Soft RAID
主機板使用 ASUS P8H61-M Plus V2 (保固三年)
Uptech SR400 PCI 4Port SATA CARD x 1 (保固一年)
Uptech SR202 PCI-e 2Port SATA CARD x 3 (保固一年)
安裝 CentOS 6.0 x86_64
在開機時應該可以看到有偵測到四張 sata 卡
然後開完機使用 fdisk -l 可以看到一大串還沒有被使用的硬碟
從 /dev/sda ~ /dev/sdas
一共是 45 顆
先切出 Partition
# fdisk /dev/sda ### fdisk sda 這顆硬碟
# p ### 列出磁區清單,因為是全新的,所以是空的
# n ### 建立新的磁區
# p ### 選擇建立主要磁區
# 1 ### 建立第1個主要磁區
# 連續安二個 enter ### 因為是整個硬碟做一個主要磁區,所以使用內建值即可
# t ### 變更碟區型態
# fd ### fd Linux raid auto
# w ### 儲存並離開 fdisk
全部 45 顆都要做完
之後利用 mdadm 建立 raid
--create :為建立 RAID 的選項;
--auto=yes :決定建立後面接的軟體磁碟陣列裝置,亦即 /dev/sda, /dev/sdb...
--raid-devices=N :使用幾個磁碟 (partition) 作為磁碟陣列的裝置
--spare-devices=N :使用幾個磁碟作為備用 (spare) 裝置
--level=[015] :設定這組磁碟陣列的等級。
--detail :後面所接的那個磁碟陣列裝置的詳細資訊
可以透過 {} 將重複的部份簡化
/dev/md0 第一座
/dev/md1 第二座
/dev/md2 第三座
上面的指令做三次之後
建立三座 raid 磁區
因為我們建立的磁區非常大
估計要花上一整天來初始化
在還沒完成之前
可以使用 cat /proc/mdstat 來查看目前的狀態
上面顯示的資料裡,我以 md0 做例子:
狀態是 active
使用 raid6
硬碟的組成是 sdo[14](S) sdn[13](S) sdm[12] sdl[11] sdk[10] sdj[9] sdi[8] sdh[7] sdg[6] sdf[5] sde[4] sdd[3] sdc[2] sdb[1] sda[0]
sdo[14](S) sdn[13](S) 是此 raid group 裡的 spare
[UUUUUUUUUUUUU] 表示有 13 顆硬碟,全部正常運作
參考資料:
第十五章、磁碟配額(Quota)與進階檔案系統管理
CentOS 4.4如何利用Mdadm建立Raid5存儲
Uptech SR400 PCI 4Port SATA CARD x 1 (保固一年)
Uptech SR202 PCI-e 2Port SATA CARD x 3 (保固一年)
安裝 CentOS 6.0 x86_64
在開機時應該可以看到有偵測到四張 sata 卡
然後開完機使用 fdisk -l 可以看到一大串還沒有被使用的硬碟
從 /dev/sda ~ /dev/sdas
一共是 45 顆
先切出 Partition
# fdisk /dev/sda ### fdisk sda 這顆硬碟
# p ### 列出磁區清單,因為是全新的,所以是空的
# n ### 建立新的磁區
# p ### 選擇建立主要磁區
# 1 ### 建立第1個主要磁區
# 連續安二個 enter ### 因為是整個硬碟做一個主要磁區,所以使用內建值即可
# t ### 變更碟區型態
# fd ### fd Linux raid auto
# w ### 儲存並離開 fdisk
全部 45 顆都要做完
之後利用 mdadm 建立 raid
# mdadm --create --auto=yes /dev/md0 --level=6 --raid-devices=13 --spare-devices=2 /dev/sd{a,b,c,d,e,f,g,h,i,j,k,l,m,n,o}選項與參數:
--create :為建立 RAID 的選項;
--auto=yes :決定建立後面接的軟體磁碟陣列裝置,亦即 /dev/sda, /dev/sdb...
--raid-devices=N :使用幾個磁碟 (partition) 作為磁碟陣列的裝置
--spare-devices=N :使用幾個磁碟作為備用 (spare) 裝置
--level=[015] :設定這組磁碟陣列的等級。
--detail :後面所接的那個磁碟陣列裝置的詳細資訊
可以透過 {} 將重複的部份簡化
/dev/md0 第一座
/dev/md1 第二座
/dev/md2 第三座
上面的指令做三次之後
建立三座 raid 磁區
因為我們建立的磁區非常大
估計要花上一整天來初始化
在還沒完成之前
可以使用 cat /proc/mdstat 來查看目前的狀態
# cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4]
md2 : active raid6 sdas[14](S) sdar[13](S) sdaq[12] sdap[11] sdao[10] sdan[9] sdam[8] sdal[7] sdak[6] sdaj[5] sdai[4] sdah[3] sdag[2] sdaf[1] sdae[0]
21488642560 blocks super 1.2 level 6, 512k chunk, algorithm 2 [13/13] [UUUUUUUUUUUUU]
[>....................] resync = 0.0% (42496/1953512960) finish=3829.2min speed=8499K/sec
md1 : active raid6 sdad[14](S) sdac[13](S) sdab[12] sdaa[11] sdz[10] sdy[9] sdx[8] sdw[7] sdv[6] sdu[5] sdt[4] sds[3] sdr[2] sdq[1] sdp[0]
21488642560 blocks super 1.2 level 6, 512k chunk, algorithm 2 [13/13] [UUUUUUUUUUUUU]
[>....................] resync = 0.0% (966784/1953512960) finish=1787.6min speed=18204K/sec
md0 : active raid6 sdo[14](S) sdn[13](S) sdm[12] sdl[11] sdk[10] sdj[9] sdi[8] sdh[7] sdg[6] sdf[5] sde[4] sdd[3] sdc[2] sdb[1] sda[0]
21488642560 blocks super 1.2 level 6, 512k chunk, algorithm 2 [13/13] [UUUUUUUUUUUUU]
[>....................] resync = 0.0% (1817472/1953512960) finish=2131.5min speed=15260K/sec
unused devices: <none>
上面顯示的資料裡,我以 md0 做例子:
狀態是 active
使用 raid6
硬碟的組成是 sdo[14](S) sdn[13](S) sdm[12] sdl[11] sdk[10] sdj[9] sdi[8] sdh[7] sdg[6] sdf[5] sde[4] sdd[3] sdc[2] sdb[1] sda[0]
sdo[14](S) sdn[13](S) 是此 raid group 裡的 spare
[UUUUUUUUUUUUU] 表示有 13 顆硬碟,全部正常運作
參考資料:
第十五章、磁碟配額(Quota)與進階檔案系統管理
CentOS 4.4如何利用Mdadm建立Raid5存儲
訂閱:
文章 (Atom)