鸟哥的Linux私房菜(基础篇)- 第十五章、磁碟配额(Quota)与进阶文件系统管理
最近升級日期:2009/09/10
| 如果您的 Linux 服務器有多個用戶經常存取數據時,為了維護所有使用者在硬盤容量的公平使用,磁碟配額 (Quota) 就是一項非常有用的工具!另外,如果你的用戶常常抱怨磁碟容量不夠用,那么更進階的文件系統就得要學習學習。本章我們會介紹磁盤陣列 (RAID) 及邏輯卷軸文件系統 (LVM),這些工具都可以幫助你管理與維護使用者可用的磁碟容量喔! |
1. 磁碟配額 (Quota) 的應用與實作
1.1 什么是 Quota:一般用途, 限制, 規范 (inode/block, soft/hard, grace time)
1.2 一個 Quota 的實作范例
1.3 實作 Quota 流程-1:文件系統支持 (/etc/fstab, /etc/mtab)
1.4 實作 Quota 流程-2:創建 quota 記錄檔 (quotacheck)
1.5 實作 Quota 流程-3:啟動、關閉與限制值配置 (quotaon, quotaoff, edquota)
1.6 實作 Quota 流程-4:Quota 限制值的報表 (quota,repquota)
1.7 實作 Quota 流程-5:測試與管理 (測試,warnquota, setquota)
1.8 不更動既有系統的 Quota 實例
2. 軟件磁盤陣列 (Software RAID)
2.1 什么是 RAID: RAID-0, RAID-1,RAID0+1, RAID-5, Spare disk
2.2 software, hardware RAID
2.3 軟件磁盤陣列的配置: mdadm --create
2.4 模擬 RAID 錯誤的救援模式: mdadm --manage
2.5 啟動自動啟動 RAID 并自動掛載
2.6 關閉軟件 RAID(重要!)
3. 邏輯卷軸管理員 (Logical Volume Manager)
3.1 什么是 LVM: PV, PE, VG, LV 的意義
3.2 LVM 實作流程: PV 階段, VG 階段,LV 階段, 文件系統階段
3.3 放大 LV 容量: resize2fs
3.4 縮小 LV 容量
3.5 LVM 的系統快照: 創建, 還原,用於測試環境
3.6 LVM 相關命令匯整與 LVM 的關閉
4. 重點回顧
5. 本章習題
6. 參考數據與延伸閱讀
7. 針對本文的建議:http://phorum.vbird.org/viewtopic.php?t=23888
磁碟配額 (Quota) 的應用與實作
Quota 這個玩意兒就字面上的意思來看,就是有多少『限額』的意思啦!如果是用在零用錢上面,就是類似『有多少零用錢一個月』的意思之類的。如果是在計算機主機的磁碟使用量上呢?以Linux 來說,就是有多少容量限制的意思羅。我們可以使用 quota 來讓磁碟的容量使用較為公平,底下我們會介紹什么是 quota ,然后以一個完整的范例來介紹 quota 的實作喔!
什么是 Quota
在 Linux 系統中,由於是多人多工的環境,所以會有多人共同使用一個磁盤空間的情況發生,如果其中有少數幾個使用者大量的占掉了磁盤空間的話,那勢必壓縮其他使用者的使用權力!因此管理員應該適當的限制硬盤的容量給使用者,以妥善的分配系統資源!避免有人抗議呀!
舉例來說,我們使用者的默認家目錄都是在 /home 底下,如果 /home 是個獨立的 partition ,假設這個分割槽有 10G 好了,而 /home 底下共有 30 個帳號,也就是說,每個使用者平均應該會有 333MB 的空間才對。偏偏有個使用者在他的家目錄底下塞了好多只影片,占掉了 8GB 的空間,想想看,是否造成其他正常使用者的不便呢?如果想要讓磁碟的容量公平的分配,這個時候就得要靠 quota 的幫忙羅!
- Quota 的一般用途
quota 比較常使用的幾個情況是:
- 針對 WWW server ,例如:每個人的網頁空間的容量限制!
- 針對 mail server,例如:每個人的郵件空間限制。
- 針對 file server,例如:每個人最大的可用網絡磁盤空間 (教學環境中最常見!)
上頭講的是針對網絡服務的設計,如果是針對 Linux 系統主機上面的配置那么使用的方向有底下這一些:
- 限制某一群組所能使用的最大磁碟配額 (使用群組限制):
你可以將你的主機上的使用者分門別類,有點像是目前很流行的付費與免付費會員制的情況,你比較喜好的那一群的使用配額就可以給高一些!呵呵! ^_^...
- 限制某一使用者的最大磁碟配額 (使用使用者限制):
在限制了群組之后,你也可以再繼續針對個人來進行限制,使得同一群組之下還可以有更公平的分配!
- 以 Link 的方式,來使郵件可以作為限制的配額 (更改 /var/spool/mail 這個路徑):
如果是分為付費與免付費會員的『郵件主機系統』,是否需要重新再規劃一個硬盤呢?也不需要啦!直接使用 Link 的方式指向 /home (或者其他已經做好的 quota 磁碟) 就可以啦!這通常是用在原本磁盤分區的規劃不好,但是卻又不想要更動原有主機架構的情況中啊!
大概有這些實際的用途啦!
- Quota 的使用限制
雖然 quota 很好用,但是使用上還是有些限制要先了解的:
- 僅能針對整個 filesystem:
quota 實際在運行的時候,是針對『整個 filesystem』進行限制的,例如:如果你的 /dev/sda5 是掛載在 /home 底下,那么在 /home 底下的所有目錄都會受到限制!
- 核心必須支持 quota :
Linux 核心必須有支持 quota 這個功能才行:如果你是使用 CentOS 5.x 的默認核心,嘿嘿!那恭喜你了,你的系統已經默認有支持 quota 這個功能羅!如果你是自行編譯核心的,那么請特別留意你是否已經『真的』開啟了 quota 這個功能?否則底下的功夫將全部都視為『白工』。
- Quota 的記錄檔:
目前新版的 Linux distributions 使用的是 Kernel 2.6.xx 的核心版本,這個核心版本支持新的 quota 模塊,使用的默認文件 (aquota.user, aquota.group )將不同於舊版本的 quota.user, quota.group !(多了一個 a 呦!) 而由舊版本的 quota 可以藉由 convertquota 這個程序來轉換呢!
- 只對一般身份使用者有效:
這就有趣了!并不是所有在 Linux 上面的帳號都可以配置 quota 呢,例如 root 就不能配置 quota ,因為整個系統所有的數據幾乎都是他的啊! ^_^
所以羅,你不能針對『某個目錄』來進行 Quota 的設計,但你可以針對『某個文件系統 (filesystem) 』來配置。如果不明白目錄與掛載點還有文件系統的關系,請回到第八章去瞧瞧再回來!
- Quota 的規范配置項目:
quota 這玩意兒針對整個 filesystem 的限制項目主要分為底下幾個部分:
- 容量限制或文件數量限制 (block 或 inode):
我們在第八章談到文件系統中,說到文件系統主要規劃為存放屬性的 inode 與實際文件數據的 block 區塊,Quota 既然是管理文件系統,所以當然也可以管理 inode 或 block 羅!這兩個管理的功能為:
- 限制 inode 用量:可以管理使用者可以創建的『文件數量』;
- 限制 block 用量:管理使用者磁碟容量的限制,較常見為這種方式。
- 柔性勸導與硬性規定 (soft/hard):
既然是規范,當然就有限制值。不管是 inode/block ,限制值都有兩個,分別是 soft 與 hard。通常 hard 限制值要比 soft 還要高。舉例來說,若限制項目為 block ,可以限制 hard 為 500MBytes 而 soft為 400MBytes。這兩個限值的意義為:
- hard:表示使用者的用量絕對不會超過這個限制值,以上面的配置為例,使用者所能使用的磁碟容量絕對不會超過 500Mbytes ,若超過這個值則系統會鎖住該用戶的磁碟使用權;
- soft:表示使用者在低於 soft 限值時 (此例中為 400Mbytes),可以正常使用磁碟,但若超過 soft 且低於 hard 的限值 (介於 400~500Mbytes 之間時),每次使用者登陸系統時,系統會主動發出磁碟即將爆滿的警告信息,且會給予一個寬限時間 (grace time)。不過,若使用者在寬限時間倒數期間就將容量再次降低於 soft 限值之下,則寬限時間會停止。
- hard:表示使用者的用量絕對不會超過這個限制值,以上面的配置為例,使用者所能使用的磁碟容量絕對不會超過 500Mbytes ,若超過這個值則系統會鎖住該用戶的磁碟使用權;
- 會倒數計時的寬限時間 (grace time):
剛剛上面就談到寬限時間了!這個寬限時間只有在使用者的磁碟用量介於 soft 到 hard 之間時,才會出現且會倒數的一個咚咚!由於達到 hard 限值時,使用者的磁碟使用權可能會被鎖住。為了擔心使用者沒有注意到這個磁碟配額的問題,因此設計了 soft 。當你的磁碟用量即將到達 hard 且超過 soft 時,系統會給予警告,但也會給一段時間讓使用者自行管理磁碟。一般默認的寬限時間為七天,如果七天內你都不進行任何磁碟管理,那么 soft 限制值會即刻取代 hard 限值來作為 quota 的限制。
以上面配置的例子來說,假設你的容量高達 450MBytes 了,那七天的寬限時間就會開始倒數,若七天內你都不進行任何刪除文件的動作來替你的磁碟用量瘦身,那么七天后你的磁碟最大用量將變成 400MBytes (那個 soft 的限制值),此時你的磁碟使用權就會被鎖住而無法新增文件了。
整個 soft, hard, grace time 的相關性我們可以用底下的圖示來說明:
圖 1.1.1、soft, hard, grace time 的相關性
圖中的長條圖為使用者的磁碟容量,soft/hard 分別是限制值。只要小於 400M 就一切 OK ,若高於 soft 就出現 grace time 并倒數且等待使用者自行處理,若到達 hard 的限制值,那我們就搬張小板凳等著看好戲啦!嘿嘿!^_^!這樣圖示有清楚一點了嗎?
一個 Quota 實作范例
坐而言不如起而行啊,所以這里我們使用一個范例來設計一下如何處理 Quota 的配置流程。
- 目的與帳號:現在我想要讓我的專題生五個為一組,這五個人的帳號分別是 myquota1, myquota2, myquota3, myquota4, myquota5,這五個用戶的口令都是 password ,且這五個用戶所屬的初始群組都是 myquotagrp 。其他的帳號屬性則使用默認值。
- 帳號的磁碟容量限制值:我想讓這五個用戶都能夠取得 300MBytes 的磁碟使用量(hard),文件數量則不予限制。此外,只要容量使用率超過 250MBytes ,就予以警告 (soft)。
- 群組的限額:由於我的系統里面還有其他用戶存在,因此我僅承認 myquotagrp 這個群組最多僅能使用 1GBytes 的容量。這也就是說,如果 myquota1, myquota2, myquota3 都用了 280MBytes 的容量了,那么其他兩人最多只能使用(1000MB - 280x3 = 160MB) 的磁碟容量羅!這就是使用者與群組同時配置時會產生的后果。
- 寬限時間的限制:最后,我希望每個使用者在超過 soft 限制值之后,都還能夠有 14 天的寬限時間。
好了,那你怎么規范帳號以及相關的 Quota 配置呢?首先,在這個小節我們先來將帳號相關的屬性與參數搞定再說吧!
| # 制作帳號環境時,由於有五個帳號,因此鳥哥使用 script 來創建環境! [root@www ~]# vi addaccount.sh #!/bin/bash # 使用 script 來創建實驗 quota 所需的環境 groupadd myquotagrp for username in myquota1 myquota2 myquota3 myquota4 myquota5 douseradd -g myquotagrp $usernameecho "password" | passwd --stdin $username done[root@www ~]# sh addaccount.sh |
接下來,就讓我們來實作 Quota 的練習吧!
實作 Quota 流程-1:文件系統支持
前面我們就談到,要使用 Quota 必須要核心與文件系統支持才行!假設你已經使用了默認支持 Quota 的核心,那么接下來就是要啟動文件系統的支持啦!不過,由於 Quota 僅針對整個文件系統來進行規劃,所以我們得先查一下,/home 是否是個獨立的 filesystem 呢?
| [root@www ~]# df -h /home Filesystem Size Used Avail Use% Mounted on /dev/hda3 4.8G 740M 3.8G 17% /home <==鳥哥主機的 /home 確實是獨立的![root@www ~]# mount | grep home /dev/hda3 on /home type ext3 (rw) |
從上面的數據來看,鳥哥這部主機的 /home 確實是獨立的 filesystem,因此可以直接限制 /dev/hda3 。如果你的系統的 /home 并非獨立的文件系統,那么可能就得要針對根目錄 (/) 來規范了!不過,不太建議在根目錄配置 Quota。此外,由於 VFAT 文件系統并不支持 Linux Quota 功能,所以我們得要使用 mount 查詢一下 /home 的文件系統為何?看起來是 Linux 傳統的 ext2/ext3 ,這種文件系統肯定有支持 Quota 啦!沒問題!
如果只是想要在這次啟動中實驗 Quota ,那么可以使用如下的方式來手動加入 quota 的支持:
| [root@www ~]# mount -o remount,usrquota,grpquota /home [root@www ~]# mount | grep home /dev/hda3 on /home type ext3 (rw,usrquota,grpquota) # 重點就在於 usrquota, grpquota !注意寫法! |
事實上,當你重新掛載時,系統會同步升級 /etc/mtab 這個文件,所以你必須要確定 /etc/mtab 已經加入 usrquota, grpquota 的支持到你所想要配置的文件系統中。另外也要特別強調,使用者與群組的 quota 文件系統支持參數分別是:usrquota, grpquota!千萬不要寫錯了!這一點非常多初接觸 Quota 的朋友常常搞錯。
不過手動掛載的數據在下次重新掛載就會消失,因此最好寫入配置檔中啊!在鳥哥這部主機的案例中,我可以直接修改 /etc/fstab 成為底下這個樣子:
| [root@www ~]# vi /etc/fstab LABEL=/home /home ext3 defaults,usrquota,grpquota 1 2 # 其他項目鳥哥并沒有列出來!重點在於第四欄位!於 default 后面加上兩個參數![root@www ~]# umount /home [root@www ~]# mount -a [root@www ~]# mount | grep home /dev/hda3 on /home type ext3 (rw,usrquota,grpquota) |
還是要再次的強調,修改完 /etc/fstab 后,務必要測試一下!若有發生錯誤得要趕緊處理!因為這個文件如果修改錯誤,是會造成無法啟動完全的情況啊!切記切記!最好使用 vim 來修改啦!因為會有語法的檢驗,就不會讓你寫錯字了!啟動文件系統的支持后,接下來讓我們創建起 quota 的記錄檔吧!
實作 Quota 流程-2:創建 quota 記錄檔
其實 Quota 是透過分析整個文件系統中,每個使用者(群組)擁有的文件總數與總容量,再將這些數據記錄在該文件系統的最頂層目錄,然后在該記錄檔中再使用每個帳號(或群組)的限制值去規范磁碟使用量的。所以啦,建置這個 Quota 記錄檔就顯的非常的重要。掃瞄有支持 Quota 參數 (usrquota, grpquota) 的文件系統,就使用 quotacheck 這個命令!這個命令的語法如下:
- quotacheck :掃瞄文件系統并創建 Quota 的記錄檔
| [root@www ~]# quotacheck [-avugfM] [/mount_point] 選項與參數: -a :掃瞄所有在 /etc/mtab 內,含有 quota 支持的 filesystem,加上此參數后, /mount_point 可不必寫,因為掃瞄所有的 filesystem 了嘛! -u :針對使用者掃瞄文件與目錄的使用情況,會創建 aquota.user -g :針對群組掃瞄文件與目錄的使用情況,會創建 aquota.group -v :顯示掃瞄過程的資訊; -f :強制掃瞄文件系統,并寫入新的 quota 配置檔 (危險) -M :強制以讀寫的方式掃瞄文件系統,只有在特殊情況下才會使用。 |
quotacheck 的選項你只要記得『 -avug 』一起下達即可!那個 -f 與 -M 是在文件系統可能已經啟動 quota 了,但是你還想要重新掃瞄文件系統時,系統會要求你加入那兩個選項啦 (擔心有其他人已經使用 quota 中)!平時沒必要不要加上那兩個項目。好了,那就讓我們來處理我們的任務吧!
| # 針對整個系統含有 usrquota, grpquota 參數的文件系統進行 quotacheck 掃瞄 [root@www ~]# quotacheck -avug quotacheck: Scanning /dev/hda3 [/home] quotacheck: Cannot stat old user quota file: No such file or directory <==有找到文件系統,但尚未制作記錄檔! quotacheck: Cannot stat old group quota file: No such file or directory quotacheck: Cannot stat old user quota file: No such file or directory quotacheck: Cannot stat old group quota file: No such file or directory done <==上面三個錯誤只是說明記錄檔尚未創建而已,可以忽略不理! quotacheck: Checked 130 directories and 107 files <==實際搜尋結果 quotacheck: Old file not found. quotacheck: Old file not found. # 若運行這個命令卻出現如下的錯誤信息,表示你沒有任何文件系統有啟動 quota 支持! # quotacheck: Can't find filesystem to check or filesystem not mounted with # quota option.[root@www ~]# ll -d /home/a* -rw------- 1 root root 8192 Mar 6 11:58 /home/aquota.group -rw------- 1 root root 9216 Mar 6 11:58 /home/aquota.user # 在鳥哥的案例中,/home 獨立的文件系統,因此搜尋結果會將兩個記錄檔放在 # /home 底下。這兩個文件就是 Quota 最重要的資訊了! |
這個命令只要進行到這里就夠了,不要反覆的進行!因為等一下我們會啟動 quota 功能,若啟動后你還要進行 quotacheck ,系統會擔心破壞原有的記錄檔,所以會產生一些錯誤信息警告你。如果你確定沒有任何人在使用 quota 時,可以強制重新進行 quotacheck 的動作。強制運行的情況可以使用如下的選項功能:
| # 如果因為特殊需求需要強制掃瞄已掛載的文件系統時 [root@www ~]# quotacheck -avug -mf quotacheck: Scanning /dev/hda3 [/home] done quotacheck: Checked 130 directories and 109 files # 數據要簡潔很多!因為有記錄檔存在嘛!所以警告信息不會出現! |
這樣記錄檔就創建起來了!你不用手動去編輯那兩個文件~因為那兩個文件是 quota 自己的數據檔,并不是純文字檔啦!且該文件會一直變動,這是因為當你對 /home 這個文件系統進行操作時,你操作的結果會影響磁碟吧!所以當然會同步記載到那兩個文件中啦!所以要創建 aquota.user, aquota.group,記得使用的是 quotacheck 命令!不是手動編輯的喔!
實作 Quota 流程-3:Quota 啟動、關閉與限制值配置
制作好 Quota 配置檔之后,接下來就是要啟動 quota 了!啟動的方式很簡單!使用 quotaon ,至於關閉就用 quotaoff即可
- quotaon :啟動 quota 的服務
| [root@www ~]# quotaon [-avug] [root@www ~]# quotaon [-vug] [/mount_point] 選項與參數: -u :針對使用者啟動 quota (aquota.user) -g :針對群組啟動 quota (aquota.group) -v :顯示啟動過程的相關信息; -a :根據 /etc/mtab 內的 filesystem 配置啟動有關的 quota ,若不加 -a 的話,則后面就需要加上特定的那個 filesystem 喔!# 由於我們要啟動 user/group 的 quota ,所以使用底下的語法即可 [root@www ~]# quotaon -auvg /dev/hda3 [/home]: group quotas turned on /dev/hda3 [/home]: user quotas turned on# 特殊用法,假如你的啟動 /var 的 quota 支持,那么僅啟動 user quota 時 [root@www ~]# quotaon -uv /var |
這個『 quotaon -auvg 』的命令幾乎只在第一次啟動 quota 時才需要進行!因為下次等你重新啟動系統時,系統的 /etc/rc.d/rc.sysinit 這個初始化腳本就會自動的下達這個命令了!因此你只要在這次實例中進行一次即可,未來都不需要自行啟動 quota ,因為 CentOS 5.x 系統會自動幫你搞定他!
- quotaoff :關閉 quota 的服務
| [root@www ~]# quotaoff [-a] [root@www ~]# quotaoff [-ug] [/mount_point] 選項與參數: -a :全部的 filesystem 的 quota 都關閉 (根據 /etc/mtab) -u :僅針對后面接的那個 /mount_point 關閉 user quota -g :僅針對后面接的那個 /mount_point 關閉 group quota |
這個命令就是關閉了 quota 的支持!我們這里需要練習 quota 實作,所以這里請不要關閉他喔!接下來讓我們開始來配置使用者與群組的 quota 限額吧!
- edquota :編輯帳號/群組的限值與寬限時間
edquota 是 edit quota 的縮寫,所以就是用來編輯使用者或者是群組限額的命令羅。我們先來看看 edquota 的語法吧,看完后再來實際操作一下。
| [root@www ~]# edquota [-u username] [-g groupname] [root@www ~]# edquota -t <==修改寬限時間 [root@www ~]# edquota -p 范本帳號 -u 新帳號 選項與參數: -u :后面接帳號名稱。可以進入 quota 的編輯畫面 (vi) 去配置 username 的限制值; -g :后面接群組名稱??梢赃M入 quota 的編輯畫面 (vi) 去配置 groupname 的限制值; -t :可以修改寬限時間。 -p :復制范本。那個 范本帳號 為已經存在并且已配置好 quota 的使用者,意義為『將 范本帳號 這個人的 quota 限制值復制給 新帳號 』! |
好了,先讓我們來看看當進入 myquota1 的限額配置時,會出現什么畫面:
| 范例一:配置 dmtsai 這個使用者的 quota 限制值 [root@www ~]# edquota -u myquota1 Disk quotas for user myquota1 (uid 710):Filesystem blocks soft hard inodes soft hard/dev/hda3 80 0 0 10 0 0 |
上頭第一行在說明針對哪個帳號 (myquota1) 進行 quota 的限額配置,第二行則是標頭行,里面共分為七個欄位,七個欄位分別的意義為:
當 soft/hard 為 0 時,表示沒有限制的意思。好,依據我們的范例說明,我們需要配置的是 blocks 的 soft/hard ,至於 inode 則不要去更動他!因此上述的畫面我們將他改成如下的模樣:
| Tips: 在 edquota 的畫面中,每一行只要保持七個欄位就可以了,并不需要排列整齊的! |
| Disk quotas for user myquota1 (uid 710):Filesystem blocks soft hard inodes soft hard/dev/hda3 80 250000 300000 10 0 0 # 鳥哥使用 1000 去近似 1024 的倍數!比較好算啦!然后就可以儲存后離開羅! |
配置完成之后,我們還有其他 5 個用戶要配置,由於配置值都一樣,此時可以使用 quota 復制喔!
| # 將 myquota1 的限制值復制給其他四個帳號 [root@www ~]# edquota -p myquota1 -u myquota2 [root@www ~]# edquota -p myquota1 -u myquota3 [root@www ~]# edquota -p myquota1 -u myquota4 [root@www ~]# edquota -p myquota1 -u myquota5 |
這樣就方便多了!然后,趕緊更改一下群組的 quota 限額吧!
| [root@www ~]# edquota -g myquotagrp Disk quotas for group myquotagrp (gid 713):Filesystem blocks soft hard inodes soft hard/dev/hda3 400 900000 1000000 50 0 0 # 記得,單位為 KB 喔! |
最后,將寬限時間給他改成 14 天吧!
| # 寬限時間原本為 7 天,將他改成 14 天吧! [root@www ~]# edquota -t Grace period before enforcing soft limits for users: Time units may be: days, hours, minutes, or secondsFilesystem Block grace period Inode grace period/dev/hda3 14days 7days # 原本是 7days ,我們將他給改為 14days 喔! |
透過這個簡單的小步驟,我們已經將使用者/群組/寬限時間都配置妥當!接下來就是觀察到底配置有沒有生效啦!
實作 Quota 流程-4:Quota 限制值的報表
quota 的報表主要有兩種模式,一種是針對每個個人或群組的 quota 命令,一個是針對整個文件系統的 repquota 命令。我們先從較簡單的 quota 來介紹!你也可以順道看看你的配置值對不對啊!
- quota :單一用戶的 quota 報表
| [root@www ~]# quota [-uvs] [username] [root@www ~]# quota [-gvs] [groupname] 選項與參數: -u :后面可以接 username ,表示顯示出該使用者的 quota 限制值。若不接 username ,表示顯示出運行者的 quota 限制值。 -g :后面可接 groupname ,表示顯示出該群組的 quota 限制值。 -v :顯示每個用戶在 filesystem 的 quota 值; -s :使用 1024 為倍數來指定單位,會顯示如 M 之類的單位!# 直接使用 quota 去顯示出 myquota1 與 myquota2 的限額 [root@www ~]# quota -uvs myquota1 myquota2 Disk quotas for user myquota1 (uid 710):Filesystem blocks quota limit grace files quota limit grace/dev/hda3 80 245M 293M 10 0 0 Disk quotas for user myquota2 (uid 711):Filesystem blocks quota limit grace files quota limit grace/dev/hda3 80 245M 293M 10 0 0 # 這個命令顯示出來的數據跟 edquota 幾乎是一模一樣的!只是多了個 grace 項目。 # 你會發現 grace 底下沒有任何數據,這是因為我們的使用量 (80) 尚未超過 soft# 顯示出 myquotagrp 的群組限額 [root@www ~]# quota -gvs myquotagrp Disk quotas for group myquotagrp (gid 713):Filesystem blocks quota limit grace files quota limit grace/dev/hda3 400 879M 977M 50 0 0 |
由於使用常見的 K, M, G 等單位比較好算,因此上頭我們使用了『 -s 』的選項,就能夠以 M 為單位顯示了。不過由於我們使用 edquota 配置限額時,使用的是近似值 (1000) 而不是實際的 1024 倍數,所以看起來會有點不太一樣喔!由於 quota 僅能針對某些用戶顯示報表,如果要針對整個 filesystem 列出報表時,那個可愛的 repquota 就派上用場啦!
- repquota :針對文件系統的限額做報表
| [root@www ~]# repquota -a [-vugs] 選項與參數: -a :直接到 /etc/mtab 搜尋具有 quota 標志的 filesystem ,并報告 quota 的結果; -v :輸出的數據將含有 filesystem 相關的細部資訊; -u :顯示出使用者的 quota 限值 (這是默認值); -g :顯示出個別群組的 quota 限值。 -s :使用 M, G 為單位顯示結果# 查詢本案例中所有使用者的 quota 限制情況: [root@www ~]# repquota -auvs *** Report for user quotas on device /dev/hda3 <==針對 /dev/hda3 Block grace time: 14days; Inode grace time: 7days <==block 寬限時間為 14 天Block limits File limits User used soft hard grace used soft hard grace ---------------------------------------------------------------------- root -- 651M 0 0 5 0 0 myquota1 -- 80 245M 293M 10 0 0 myquota2 -- 80 245M 293M 10 0 0 myquota3 -- 80 245M 293M 10 0 0 myquota4 -- 80 245M 293M 10 0 0 myquota5 -- 80 245M 293M 10 0 0Statistics: <==這是所謂的系統相關資訊,用 -v 才會顯示 Total blocks: 9 Data blocks: 2 Entries: 22 Used average: 11.000000 |
根據這些資訊,您就可以知道目前的限制情況羅! ^_^!怎樣, Quota 很簡單吧!你可以趕緊針對你的系統配置一下磁碟使用的守則,讓你的用戶不會抱怨磁碟怎么老是被耗光!
實作 Quota 流程-5:測試與管理
Quota 到底有沒有效果?測試看看不就知道了?讓我們使用 myquota1 去測試看看,如果創建一個大文件時,整個系統會便怎樣呢?
| # 測試一:利用 myquota1 的身份,建置一個 270MB 的大文件,并觀察 quota 結果! [myquota1@www ~]$ dd if=/dev/zero of=bigfile bs=1M count=270 hda3: warning, user block quota exceeded. 270+0 records in 270+0 records out 283115520 bytes (283 MB) copied, 3.20282 seconds, 88.4 MB/s # 注意看,我是使用 myquota1 的帳號去進行 dd 命令的喔!不要惡搞啊! # 然后你可以發現出現一個 warning 的信息喔!接下來看看報表。[root@www ~]# repquota -auv *** Report for user quotas on device /dev/hda3 Block grace time: 14days; Inode grace time: 7daysBlock limits File limits User used soft hard grace used soft hard grace ---------------------------------------------------------------------- myquota1 +- 276840 250000 300000 13days 11 0 0 # 這個命令則是利用 root 去查閱的! # 你可以發現 myquota1 的 grace 出現!并且開始倒數了!# 測試二:再創建另外一個大文件,讓總容量超過 300M ! [myquota1@www ~]$ dd if=/dev/zero of=bigfile2 bs=1M count=300 hda3: write failed, user block limit reached. dd: writing `bigfile2': Disk quota exceeded <==看!錯誤信息不一樣了! 23+0 records in <==沒辦法寫入了!所以只記錄 23 筆 22+0 records out 23683072 bytes (24 MB) copied, 0.260081 seconds, 91.1 MB/s[myquota1@www ~]$ du -sk 300000 . <==果然是到極限了! |
此時 myquota1 可以開始處理他的文件系統了!如果不處理的話,最后寬限時間會歸零,然后出現如下的畫面:
| [root@www ~]# repquota -au *** Report for user quotas on device /dev/hda3 Block grace time: 00:01; Inode grace time: 7daysBlock limits File limits User used soft hard grace used soft hard grace ---------------------------------------------------------------------- myquota1 +- 300000 250000 300000 none 11 0 0 # 倒數整個歸零,所以 grace 的部分就會變成 none 啦!不繼續倒數 |
其實倒數歸零也不會有什么特殊的意外啦!別擔心!只是如果你的磁碟使用量介於 soft/hard 之間時,當倒數歸零那么 soft 的值會變成嚴格限制,此時你就沒有多余的容量可以使用了。如何解決?就登陸系統去刪除文件即可啦!沒有想像中那么可怕啦!問題是,使用者通常傻傻分不清楚到底系統出了什么問題,所以我們可能需要寄送一些警告信 (email) 給用戶比較妥當。那么如何處理呢?透過 warnquota 來處置即可。
- warnquota :對超過限額者發出警告信
warnquota字面上的意義就是 quota 的警告 (warn) 嘛!那么這東西有什么用呢?他可以依據 /etc/warnquota.conf 的配置,然后找出目前系統上面 quota 用量超過 soft (就是有 grace time 出現的那些家伙) 的帳號,透過 email 的功能將警告信件發送到使用者的電子郵件信箱。warnquota 并不會自動運行,所以我們需要手動去運行他。單純運行『 warnquota 』之后,他會發送兩封信出去,一封給 myquota1 一封給 root !
| [root@www ~]# warnquota # 完全不會出現任何信息!沒有信息就是『好信息』! ^_^[root@www ~]# mailN329 root@www.vbird.tsai Fri Mar 6 16:10 27/1007 "NOTE: .... & 329 <==因為新信件在第 329 封之故 From root@www.vbird.tsai Fri Mar 6 16:10:18 2009 Date: Fri, 6 Mar 2009 16:10:17 +0800 From: root <root@www.vbird.tsai> Reply-To: root@myhost.com Subject: NOTE: You are exceeding your allocated disk space limits To: myquota1@www.vbird.tsai Cc: root@www.vbird.tsai <==注意這三行,分別是標題、收件者與副本 (CC)。Your disk usage has exceeded the agreed limits on this server <==問題說明 Please delete any unnecessary files on following filesystems:/dev/hda3 <==底下這幾行為發生磁碟『爆表』的資訊啦!Block limits File limits Filesystem used soft hard grace used soft hard grace /dev/hda3 +- 300000 250000 300000 13days 12 0 0root@localhost <==這個是警告信息發送者的『簽名數據』啦!& exit <==離開 mail 程序! |
運行 warnquota 可能也不會產生任何信息以及信件,因為只有當使用者的 quota 有超過 soft 時,warnquota 才會發送警告信啦!那么上表的內容中,包括標題、資訊內容說明、簽名檔等數據放在哪里呢?剛剛不是講過嗎? /etc/warnquota 啦!因為上述的數據是英文,不好理解嗎?沒關系,你可以自己轉成中文喔!所以你可以這樣處理的:
| [root@www ~]# vi /etc/warnquota.conf # 先找到底下這幾行的配置值: SUBJECT = NOTE: You are exceeding your allocated disk space limits <==第10行 CC_TO = "root@localhost" <==第11行 MESSAGE = Your disk usage has exceeded the agreed limits\ <==第21行on this server|Please delete any unnecessary files on following filesystems:| SIGNATURE = root@localhost <==第25行# 可以將他改成如下的模樣啊! SUBJECT = 注意:你在本系統上擁有的文件容量已經超過最大容許限額 CC_TO = "root@localhost" <==除非你要寄給其他人,否則這個項目可以不改 MESSAGE = 你的磁碟容量已經超過本機的容許限額,|\請在如下的文件系統中,刪除不必要的文件:| SIGNATURE = 你的系統管理員 (root@localhost) # 在 MESSAGE 內的 | 代表斷行的意思,反斜線則代表連接下一行; |
如果你重復運行 warnquota ,那么 myquota1 就會收到類似如下的信件內容:
| Subject: 注意:你在本系統上擁有的文件容量已經超過最大容許限額 To: myquota1@www.vbird.tsai Cc: root@www.vbird.tsai你的磁碟容量已經超過本機的容許限額,請在如下的文件系統中,刪除不必要的文件:/dev/hda3Filesystem used soft hard grace used soft hard grace /dev/hda3 +- 300000 250000 300000 none 11 0 0你的系統管理員 (root@localhost) |
不過這個方法并不適用在 /var/spool/mail 也爆表的 quota 控管中,因為如果使用者在這個 filesystem 的容量已經爆表,那么新的信件當然就收不下來啦!此時就只能等待使用者自己發現并跑來這里刪除數據,或者是請求 root 幫忙處理羅!知道了這玩意兒這么好用,那么我們怎么讓系統自動的運行 warnquota 呢?你可以這樣做:
| [root@www ~]# vi /etc/cron.daily/warnquota /usr/sbin/warnquota # 你沒有看錯!只要這一行,且將運行檔以絕對路徑的方式寫入即可![root@www ~]# chmod 755 /etc/cron.daily/warnquota |
那么未來每天早上 4:02am 時,這個文件就會主動被運行,那么系統就能夠主動的通知磁碟配額爆表的用戶羅!您瞧瞧!這玩意兒是否很好用啊!至於為何要寫入上述的文件呢?留待下一章工作排程時我們再來加強介紹羅!
- setquota :直接於命令中配置 quota 限額
如果你想要使用 script 的方法來創建大量的帳號,并且所有的帳號都在創建時就給予 quota ,那該如何是好?其實有兩個方法可以考慮:
- 先創建一個原始 quota 帳號,再以『 edquota -p old -u new 』寫入 script 中;
- 直接以 setquota 創建用戶的 quota 配置值。
不同於 edquota 是呼叫 vi 來進行配置,setquota 直接由命令輸入所必須要的各項限制值。他的語法有點像這樣:
| [root@www ~]# setquota [-u|-g] 名稱 block(soft) block(hard) \ > inode(soft) inode(hard) 文件系統# 觀察原始的 myquota5 限值,并給予 soft/hard 分別為 100000/200000 [root@www ~]# quota -uv myquota5 Disk quotas for user myquota5 (uid 714): Filesystem blocks quota limit grace files quota limit grace/dev/hda3 80 250000 300000 10 0 0[root@www ~]# setquota -u myquota5 100000 200000 0 0 /home[root@www ~]# quota -uv myquota5 Disk quotas for user myquota5 (uid 714): Filesystem blocks quota limit grace files quota limit grace/dev/hda3 80 100000 200000 10 0 0 # 看吧!真的有改變過來!這就是 quota 的簡單腳本配置語法! |
不更動既有系統的 quota 實例
想一想,如果你的主機原先沒有想到要配置成為郵件主機,所以并沒有規劃將郵件信箱所在的 /var/spool/mail/目錄獨立成為一個 partition ,然后目前你的主機已經沒有辦法新增或分割出任何新的分割槽了。那我們知道 quota 是針對整個 filesystem 進行設計的,因此,你是否就無法針對 mail 的使用量給予 quota 的限制呢?
此外,如果你想要讓使用者的郵件信箱與家目錄的總體磁碟使用量為固定,那又該如何是好?由於 /home 及 /var/spool/mail 根本不可能是同一個 filesystem (除非是都不分割,使用根目錄,才有可能整合在一起),所以,該如何進行這樣的 quota 限制呢?
其實沒有那么難啦!既然 quota 是針對整個 filesystem 來進行限制,假設你又已經有 /home 這個獨立的分割槽了,那么你只要:
只要這樣的一個小步驟,嘿嘿!您家主機的郵件就有一定的限額羅!當然羅!您也可以依據不同的使用者與群組來配置quota 然后同樣的以上面的方式來進行 link 的動作!嘿嘿嘿!就有不同的限額針對不同的使用者提出羅!很方便吧!^_^
| Tips: 朋友們需要注意的是,由於目前新的 distributions 大多有使用 SELinux 的機制,因此你要進行如同上面的目錄搬移時,在許多情況下可能會有使用上的限制喔!或許你得要先暫時關閉 SELinux 才能測試,也或許你得要自行修改 SELinux 的守則才行喔! |
軟件磁盤陣列 (Software RAID)
在過去鳥哥還年輕的時代,我們能使用的硬盤容量都不大,幾十 GB 的容量就是大硬盤了!但是某些情況下,我們需要很大容量的儲存空間,例如鳥哥在跑的空氣品質模式所輸出的數據文件一個案例通常需要好幾 GB ,連續跑個幾個案例,磁碟容量就不夠用了。此時我該如何是好?其實可以透過一種儲存機制,稱為磁盤陣列(RAID) 的就是了。這種機制的功能是什么?他有哪些等級?什么是硬件、軟件磁盤陣列?Linux 支持什么樣的軟件磁盤陣列?底下就讓我們來談談!
什么是 RAID
磁盤陣列全名是『 Redundant Arrays of Inexpensive Disks, RAID 』,英翻中的意思是:容錯式廉價磁盤陣列。RAID 可以透過一個技術(軟件或硬件),將多個較小的磁碟整合成為一個較大的磁碟裝置;而這個較大的磁碟功能可不止是儲存而已,他還具有數據保護的功能呢。整個 RAID 由於選擇的等級 (level)不同,而使得整合后的磁碟具有不同的功能, 基本常見的 level 有這幾種(注1):
- RAID-0 (等量模式, stripe):效能最佳
這種模式如果使用相同型號與容量的磁碟來組成時,效果較佳。這種模式的 RAID 會將磁碟先切出等量的區塊 (舉例來說, 4KB),然后當一個文件要寫入 RAID 時,該文件會依據區塊的大小切割好,之后再依序放到各個磁碟里面去。由於每個磁碟會交錯的存放數據,因此當你的數據要寫入 RAID 時,數據會被等量的放置在各個磁碟上面。舉例來說,你有兩顆磁碟組成 RAID-0 ,當你有 100MB 的數據要寫入時,每個磁碟會各被分配到 50MB 的儲存量。RAID-0 的示意圖如下所示:
圖 2.1.1、 RAID-0 的磁碟寫入示意圖
上圖的意思是,在組成 RAID-0 時,每顆磁碟 (Disk A 與 Disk B) 都會先被區隔成為小區塊 (chunk)。當有數據要寫入 RAID 時,數據會先被切割成符合小區塊的大小,然后再依序一個一個的放置到不同的磁碟去。由於數據已經先被切割并且依序放置到不同的磁碟上面,因此每顆磁碟所負責的數據量都降低了!照這樣的情況來看,越多顆磁碟組成的 RAID-0 效能會越好,因為每顆負責的數據量就更低了!這表示我的數據可以分散讓多顆磁碟來儲存,當然效能會變的更好啊!此外,磁碟總容量也變大了!因為每顆磁碟的容量最終會加總成為 RAID-0 的總容量喔!
只是使用此等級你必須要自行負擔數據損毀的風險,由上圖我們知道文件是被切割成為適合每顆磁盤分區區塊的大小,然后再依序放置到各個磁碟中。想一想,如果某一顆磁碟損毀了,那么文件數據將缺一塊,此時這個文件就損毀了。由於每個文件都是這樣存放的,因此 RAID-0 只要有任何一顆磁碟損毀,在 RAID 上面的所有數據都會遺失而無法讀取。
另外,如果使用不同容量的磁碟來組成 RAID-0 時,由於數據是一直等量的依序放置到不同磁碟中,當小容量磁碟的區塊被用完了,那么所有的數據都將被寫入到最大的那顆磁碟去。舉例來說,我用 200G 與 500G 組成 RAID-0 ,那么最初的 400GB 數據可同時寫入兩顆磁碟 (各消耗 200G 的容量),后來再加入的數據就只能寫入 500G 的那顆磁碟中了。此時的效能就變差了,因為只剩下一顆可以存放數據嘛!
- RAID-1 (映射模式, mirror):完整備份
這種模式也是需要相同的磁碟容量的,最好是一模一樣的磁碟啦!如果是不同容量的磁碟組成 RAID-1 時,那么總容量將以最小的那一顆磁碟為主!這種模式主要是『讓同一份數據,完整的保存在兩顆磁碟上頭』。舉例來說,如果我有一個 100MB 的文件,且我僅有兩顆磁碟組成 RAID-1 時, 那么這兩顆磁碟將會同步寫入 100MB 到他們的儲存空間去。因此,整體 RAID 的容量幾乎少了 50%。由於兩顆硬盤內容一模一樣,好像鏡子映照出來一樣,所以我們也稱他為 mirror 模式羅~
圖 2.1.2、 RAID-1 的磁碟寫入示意圖
如上圖所示,一份數據傳送到 RAID-1 之后會被分為兩股,并分別寫入到各個磁碟里頭去。由於同一份數據會被分別寫入到其他不同磁碟,因此如果要寫入 100MB 時,數據傳送到 I/O 匯流排后會被復制多份到各個磁碟,結果就是數據量感覺變大了!因此在大量寫入 RAID-1 的情況下,寫入的效能可能會變的非常差 (因為我們只有一個南橋啊!)。好在如果你使用的是硬件 RAID (磁盤陣列卡) 時,磁盤陣列卡會主動的復制一份而不使用系統的 I/O 匯流排,效能方面則還可以。如果使用軟件磁盤陣列,可能效能就不好了。
由於兩顆磁碟內的數據一模一樣,所以任何一顆硬盤損毀時,你的數據還是可以完整的保留下來的!所以我們可以說, RAID-1 最大的優點大概就在於數據的備份吧!不過由於磁碟容量有一半用在備份,因此總容量會是全部磁碟容量的一半而已。雖然 RAID-1 的寫入效能不佳,不過讀取的效能則還可以啦!這是因為數據有兩份在不同的磁碟上面,如果多個 processes 在讀取同一筆數據時, RAID 會自行取得最佳的讀取平衡。
- RAID 0+1,RAID 1+0
RAID-0 的效能佳但是數據不安全,RAID-1 的數據安全但是效能不佳,那么能不能將這兩者整合起來配置 RAID 呢?可以啊!那就是 RAID 0+1 或 RAID 1+0。所謂的 RAID 0+1 就是: (1)先讓兩顆磁碟組成 RAID 0,并且這樣的配置共有兩組;(2)將這兩組 RAID 0 再組成一組 RAID 1。這就是 RAID 0+1 羅!反過來說,RAID 1+0 就是先組成 RAID-1 再組成 RAID-0 的意思。
圖 2.1.3、 RAID-0+1 的磁碟寫入示意圖
如上圖所示,Disk A + Disk B 組成第一組 RAID 0,Disk C + Disk D 組成第二組 RAID 0,然后這兩組再整合成為一組 RAID 1。如果我有 100MB 的數據要寫入,則由於 RAID 1 的關系,兩組 RAID 0 都會寫入 100MB,但由於 RAID 0 的關系,因此每顆磁碟僅會寫入 50MB 而已。如此一來不論哪一組 RAID 0 的磁碟損毀,只要另外一組 RAID 0 還存在,那么就能夠透過 RAID 1 的機制來回復數據。
由於具有 RAID 0 的優點,所以效能得以提升,由於具有 RAID 1 的優點,所以數據得以備份。但是也由於 RAID 1 的缺點,所以總容量會少一半用來做為備份喔!
- RAID 5:效能與數據備份的均衡考量
RAID-5 至少需要三顆以上的磁碟才能夠組成這種類型的磁盤陣列。這種磁盤陣列的數據寫入有點類似 RAID-0 ,不過每個循環的寫入過程中,在每顆磁碟還加入一個同位檢查數據 (Parity) ,這個數據會記錄其他磁碟的備份數據,用於當有磁碟損毀時的救援。RAID-5 讀寫的情況有點像底下這樣:
圖 2.1.4、 RAID-5 的磁碟寫入示意圖
如上圖所示,每個循環寫入時,都會有部分的同位檢查碼 (parity) 被記錄起來,并且記錄的同位檢查碼每次都記錄在不同的磁碟,因此,任何一個磁碟損毀時都能夠藉由其他磁碟的檢查碼來重建原本磁碟內的數據喔!不過需要注意的是,由於有同位檢查碼,因此 RAID 5 的總容量會是整體磁碟數量減一顆。以上圖為例,原本的 3 顆磁碟只會剩下 (3-1)=2 顆磁碟的容量。而且當損毀的磁碟數量大於等於兩顆時,這整組 RAID 5 的數據就損毀了。因為 RAID 5 默認僅能支持一顆磁碟的損毀情況。
在讀寫效能的比較上,讀取的效能還不賴!與 RAID-0 有的比!不過寫的效能就不見得能夠添加很多!這是因為要寫入 RAID 5 的數據還得要經過計算同位檢查碼 (parity) 的關系。由於加上這個計算的動作,所以寫入的效能與系統的硬件關系較大!尤其當使用軟件磁盤陣列時,同位檢查碼是透過 CPU 去計算而非專職的磁盤陣列卡,因此效能方面還需要評估。
另外,由於 RAID 5 僅能支持一顆磁碟的損毀,因此近來還有發展出另外一種等級,就是 RAID 6 ,這個 RAID 6 則使用兩顆磁碟的容量作為 parity 的儲存,因此整體的磁碟容量就會少兩顆,但是允許出錯的磁碟數量就可以達到兩顆了!也就是在 RAID 6 的情況下,同時兩顆磁碟損毀時,數據還是可以救回來!
- Spare Disk:預備磁碟的功能:
當磁盤陣列的磁碟損毀時,就得要將壞掉的磁碟拔除,然后換一顆新的磁碟。換成新磁碟并且順利啟動磁盤陣列后,磁盤陣列就會開始主動的重建 (rebuild) 原本壞掉的那顆磁碟數據到新的磁碟上!然后你磁盤陣列上面的數據就復原了!這就是磁盤陣列的優點。不過,我們還是得要動手拔插硬盤,此時通常得要關機才能這么做。
為了讓系統可以即時的在壞掉硬盤時主動的重建,因此就需要預備磁碟 (spare disk) 的輔助。所謂的 spare disk 就是一顆或多顆沒有包含在原本磁盤陣列等級中的磁碟,這顆磁碟平時并不會被磁盤陣列所使用,當磁盤陣列有任何磁碟損毀時,則這顆 spare disk 會被主動的拉進磁盤陣列中,并將壞掉的那顆硬盤移出磁盤陣列!然后立即重建數據系統。如此你的系統則可以永保安康啊!若你的磁盤陣列有支持熱拔插那就更完美了!直接將壞掉的那顆磁碟拔除換一顆新的,再將那顆新的配置成為 spare disk ,就完成了!
舉例來說,鳥哥之前所待的研究室有一個磁盤陣列可允許 16 顆磁碟的數量,不過我們只安裝了 10 顆磁碟作為 RAID 5。每顆磁碟的容量為 250GB,我們用了一顆磁碟作為 spare disk ,并將其他的 9 顆配置為一個 RAID 5,因此這個磁盤陣列的總容量為: (9-1)*250G=2000G。運行了一兩年后真的有一顆磁碟壞掉了,我們后來看燈號才發現!不過對系統沒有影響呢!因為 spare disk 主動的加入支持,壞掉的那顆拔掉換顆新的,并重新配置成為 spare 后,系統內的數據還是完整無缺的!嘿嘿!真不錯!
- 磁盤陣列的優點
說的口沫橫飛,重點在哪里呢?其實你的系統如果需要磁盤陣列的話,其實重點在於:
- 數據安全與可靠性:指的并非資訊安全,而是當硬件 (指磁碟) 損毀時,數據是否還能夠安全的救援或使用之意;
- 讀寫效能:例如 RAID 0 可以加強讀寫效能,讓你的系統 I/O 部分得以改善;
- 容量:可以讓多顆磁碟組合起來,故單一文件系統可以有相當大的容量。
尤其數據的可靠性與完整性更是使用 RAID 的考量重點!畢竟硬件壞掉換掉就好了,軟件數據損毀那可不是鬧著玩的!所以企業界為何需要大量的 RAID 來做為文件系統的硬件基準,現在您有點了解了吧?
software, hardware RAID
為何磁盤陣列又分為硬件與軟件呢?所謂的硬件磁盤陣列 (hardware RAID) 是透過磁盤陣列卡來達成陣列的目的。磁盤陣列卡上面有一塊專門的芯片在處理 RAID 的任務,因此在效能方面會比較好。在很多任務 (例如 RAID 5 的同位檢查碼計算)磁盤陣列并不會重復消耗原本系統的 I/O 匯流排,理論上效能會較佳。此外目前一般的中高階磁盤陣列卡都支持熱拔插,亦即在不關機的情況下抽換損壞的磁碟,對於系統的復原與數據的可靠性方面非常的好用。
不過一塊好的磁盤陣列卡動不動就上萬元臺幣,便宜的在主板上面『附贈』的磁盤陣列功能可能又不支持某些高階功能,例如低階主板若有磁盤陣列芯片,通常僅支持到 RAID0 與 RAID1 ,鳥哥喜歡的 RAID 5 并沒有支持。此外,操作系統也必須要擁有磁盤陣列卡的驅動程序,才能夠正確的捉到磁盤陣列所產生的磁碟機!
由於磁盤陣列有很多優秀的功能,然而硬件磁盤陣列卡偏偏又貴的很~因此就有發展出利用軟件來模擬磁盤陣列的功能,這就是所謂的軟件磁盤陣列 (software RAID)。軟件磁盤陣列主要是透過軟件來模擬陣列的任務,因此會損耗較多的系統資源,比如說 CPU 的運算與 I/O 匯流排的資源等。不過目前我們的個人計算機實在已經非??焖倭?#xff0c;因此以前的速度限制現在已經不存在!所以我們可以來玩一玩軟件磁盤陣列!
我們的 CentOS 提供的軟件磁盤陣列為 mdadm 這套軟件,這套軟件會以 partition或 disk 為磁碟的單位,也就是說,你不需要兩顆以上的磁碟,只要有兩個以上的分割槽 (partition)就能夠設計你的磁盤陣列了。此外, mdadm 支持剛剛我們前面提到的 RAID0/RAID1/RAID5/spare disk 等!而且提供的管理機制還可以達到類似熱拔插的功能,可以線上 (文件系統正常使用) 進行分割槽的抽換!使用上也非常的方便呢!
另外你必須要知道的是,硬件磁盤陣列在 Linux 底下看起來就是一顆實際的大磁碟,因此硬件磁盤陣列的裝置檔名為/dev/sd[a-p] ,因為使用到 SCSI 的模塊之故。至於軟件磁盤陣列則是系統模擬的,因此使用的裝置檔名是系統的裝置檔,檔名為 /dev/md0, /dev/md1...,兩者的裝置檔名并不相同!不要搞混了喔!因為很多朋友常常覺得奇怪,怎么他的 RAID 檔名跟我們這里測試的軟件 RAID 檔名不同,所以這里特別強調說明喔!
軟件磁盤陣列的配置
軟件磁盤陣列的配置很簡單呢!簡單到讓你很想笑喔!因為你只要使用一個命令即可!那就是 mdadm 這個命令。這個命令在創建 RAID 的語法有點像這樣:
| [root@www ~]# mdadm --detail /dev/md0 [root@www ~]# mdadm --create --auto=yes /dev/md[0-9] --raid-devices=N \ > --level=[015] --spare-devices=N /dev/sdx /dev/hdx... 選項與參數: --create :為創建 RAID 的選項; --auto=yes :決定創建后面接的軟件磁盤陣列裝置,亦即 /dev/md0, /dev/md1... --raid-devices=N :使用幾個磁碟 (partition) 作為磁盤陣列的裝置 --spare-devices=N :使用幾個磁碟作為備用 (spare) 裝置 --level=[015] :配置這組磁盤陣列的等級。支持很多,不過建議只要用 0, 1, 5 即可 --detail :后面所接的那個磁盤陣列裝置的詳細資訊 |
上面的語法中,最后面會接許多的裝置檔名,這些裝置檔名可以是整顆磁碟,例如 /dev/sdb ,也可以是分割槽,例如 /dev/sdb1 之類。不過,這些裝置檔名的總數必須要等於 --raid-devices 與 --spare-devices 的個數總和才行!鳥哥利用我的測試機來建置一個 RAID 5 的軟件磁盤陣列給您瞧瞧!首先,將系統里面過去練習過而目前用不到的分割槽通通刪除掉:
| [root@www ~]# fdisk -l Disk /dev/hda: 41.1 GB, 41174138880 bytes 255 heads, 63 sectors/track, 5005 cylinders Units = cylinders of 16065 * 512 = 8225280 bytesDevice Boot Start End Blocks Id System /dev/hda1 * 1 13 104391 83 Linux /dev/hda2 14 1288 10241437+ 83 Linux /dev/hda3 1289 1925 5116702+ 83 Linux /dev/hda4 1926 5005 24740100 5 Extended /dev/hda5 1926 2052 1020096 82 Linux swap / Solaris /dev/hda6 2053 2302 2008093+ 83 Linux /dev/hda7 2303 2334 257008+ 82 Linux swap / Solaris /dev/hda8 2335 2353 152586 83 Linux /dev/hda9 2354 2366 104391 83 Linux[root@www ~]# df Filesystem 1K-blocks Used Available Use% Mounted on /dev/hda2 9920624 3858800 5549756 42% / /dev/hda1 101086 21408 74459 23% /boot tmpfs 371332 0 371332 0% /dev/shm /dev/hda3 4956316 1056996 3643488 23% /home # 從上面可以發現,我的 /dev/hda6~/dev/hda9 沒有用到!將他刪除看看![root@www ~]# fdisk /dev/hda Command (m for help): d Partition number (1-9): 9Command (m for help): d Partition number (1-8): 8Command (m for help): d Partition number (1-7): 7Command (m for help): d Partition number (1-6): 6Command (m for help): pDisk /dev/hda: 41.1 GB, 41174138880 bytes 255 heads, 63 sectors/track, 5005 cylinders Units = cylinders of 16065 * 512 = 8225280 bytesDevice Boot Start End Blocks Id System /dev/hda1 * 1 13 104391 83 Linux /dev/hda2 14 1288 10241437+ 83 Linux /dev/hda3 1289 1925 5116702+ 83 Linux /dev/hda4 1926 5005 24740100 5 Extended /dev/hda5 1926 2052 1020096 82 Linux swap / SolarisCommand (m for help): w[root@www ~]# partprobe # 這個動作很重要!還記得吧!將核心的 partition table 升級! |
底下是鳥哥希望做成的 RAID 5 環境:
- 利用 4 個 partition 組成 RAID 5;
- 每個 partition 約為 1GB 大小,需確定每個 partition 一樣大較佳;
- 利用 1 個 partition 配置為 spare disk
- 這個 spare disk 的大小與其他 RAID 所需 partition 一樣大!
- 將此 RAID 5 裝置掛載到 /mnt/raid 目錄下
最終我需要 5 個 1GB 的 partition 。由於鳥哥的系統僅有一顆磁碟,這顆磁碟剩余容量約 20GB 是夠用的,分割槽代號僅使用到 5 號,所以要制作成 RAID 5 應該是不成問題!接下來就是連續的建置流程羅!
- 建置所需的磁碟裝置
如前所述,我需要 5 個 1GB 的分割槽,請利用 fdisk 來建置吧!
| [root@www ~]# fdisk /dev/hda Command (m for help): n First cylinder (2053-5005, default 2053): <==直接按下 [enter] Using default value 2053 Last cylinder or +size or +sizeM or +sizeK (2053-5005, default 5005): +1000M # 上述的動作請作五次!Command (m for help): pDisk /dev/hda: 41.1 GB, 41174138880 bytes 255 heads, 63 sectors/track, 5005 cylinders Units = cylinders of 16065 * 512 = 8225280 bytesDevice Boot Start End Blocks Id System /dev/hda1 * 1 13 104391 83 Linux /dev/hda2 14 1288 10241437+ 83 Linux /dev/hda3 1289 1925 5116702+ 83 Linux /dev/hda4 1926 5005 24740100 5 Extended /dev/hda5 1926 2052 1020096 82 Linux swap / Solaris /dev/hda6 2053 2175 987966 83 Linux /dev/hda7 2176 2298 987966 83 Linux /dev/hda8 2299 2421 987966 83 Linux /dev/hda9 2422 2544 987966 83 Linux /dev/hda10 2545 2667 987966 83 Linux # 上面的 6~10 號,就是我們需要的 partition 羅!Command (m for help): w[root@www ~]# partprobe |
- 以 mdadm 建置 RAID
接下來就簡單啦!透過 mdadm 來創建磁盤陣列先!
| [root@www ~]# mdadm --create --auto=yes /dev/md0 --level=5 \ > --raid-devices=4 --spare-devices=1 /dev/hda{6,7,8,9,10} # 詳細的參數說明請回去前面看看羅!這里我透過 {} 將重復的項目簡化![root@www ~]# mdadm --detail /dev/md0 /dev/md0: <==RAID 裝置檔名Version : 00.90.03Creation Time : Tue Mar 10 17:47:51 2009 <==RAID 被創建的時間Raid Level : raid5 <==RAID 等級為 RAID 5Array Size : 2963520 (2.83 GiB 3.03 GB) <==此 RAID 的可用磁碟容量Used Dev Size : 987840 (964.85 MiB 1011.55 MB) <==每個裝置的可用容量Raid Devices : 4 <==用作 RAID 的裝置數量Total Devices : 5 <==全部的裝置數量 Preferred Minor : 0Persistence : Superblock is persistentUpdate Time : Tue Mar 10 17:52:23 2009State : cleanActive Devices : 4 <==啟動的(active)裝置數量 Working Devices : 5 <==可動作的裝置數量Failed Devices : 0 <==出現錯誤的裝置數量Spare Devices : 1 <==預備磁碟的數量Layout : left-symmetricChunk Size : 64K <==就是圖2.1.4內的小區塊UUID : 7c60c049:57d60814:bd9a77f1:57e49c5b <==此裝置(RAID)識別碼Events : 0.2Number Major Minor RaidDevice State0 3 6 0 active sync /dev/hda61 3 7 1 active sync /dev/hda72 3 8 2 active sync /dev/hda83 3 9 3 active sync /dev/hda94 3 10 - spare /dev/hda10 # 最后五行就是這五個裝置目前的情況,包括四個 active sync 一個 spare ! # 至於 RaidDevice 指的則是此 RAID 內的磁碟順序 |
由於磁盤陣列的建置需要一些時間,所以你最好等待數分鐘后再使用『 mdadm --detail /dev/md0 』去查閱你的磁盤陣列詳細資訊!否則有可能看到某些磁碟正在『spare rebuilding』之類的建置字樣!透過上面的命令,你就能夠創建一個 RAID5 且含有一顆 spare disk 的磁盤陣列羅!非常簡單吧!除了命令之外,你也可以查閱如下的文件來看看系統軟件磁盤陣列的情況:
| [root@www ~]# cat /proc/mdstat Personalities : [raid6] [raid5] [raid4] md0 : active raid5 hda9[3] hda10[4](S) hda8[2] hda7[1] hda6[0] <==第一行2963520 blocks level 5, 64k chunk, algorithm 2 [4/4] [UUUU] <==第二行unused devices: <none> |
上述的數據比較重要的在特別指出的第一行與第二行部分(注2):
- 第一行部分:指出 md0 為 raid5 ,且使用了 hda9, hda8, hda7, hda6 等四顆磁碟裝置。每個裝置后面的中括號 []內的數字為此磁碟在 RAID 中的順序 (RaidDevice);至於 hda10 后面的 [S] 則代表 hda10 為 spare 之意。
- 第二行:此磁盤陣列擁有 2963520 個block(每個 block 單位為 1K),所以總容量約為 3GB,使用 RAID 5 等級,寫入磁碟的小區塊 (chunk) 大小為 64K,使用 algorithm 2 磁盤陣列演算法。 [m/n]代表此陣列需要 m 個裝置,且 n 個裝置正常運行。因此本 md0 需要 4 個裝置且這 4 個裝置均正常運行。后面的 [UUUU] 代表的是四個所需的裝置 (就是 [m/n] 里面的 m) 的啟動情況,U 代表正常運行,若為 _ 則代表不正常。
這兩種方法都可以知道目前的磁盤陣列狀態啦!
- 格式化與掛載使用 RAID
接下來就是開始使用格式化工具啦!這部分就簡單到爆!不多說了,直接進行吧!
| [root@www ~]# mkfs -t ext3 /dev/md0 # 有趣吧!是 /dev/md0 做為裝置被格式化呢![root@www ~]# mkdir /mnt/raid [root@www ~]# mount /dev/md0 /mnt/raid [root@www ~]# df Filesystem 1K-blocks Used Available Use% Mounted on /dev/hda2 9920624 3858820 5549736 42% / /dev/hda1 101086 21408 74459 23% /boot tmpfs 371332 0 371332 0% /dev/shm /dev/hda3 4956316 1056996 3643488 23% /home /dev/md0 2916920 69952 2698792 3% /mnt/raid # 看吧!多了一個 /dev/md0 的裝置,而且真的可以讓你使用呢!還不賴! |
模擬 RAID 錯誤的救援模式
俗話說『天有不測風云、人有旦夕禍?!?#xff0c;誰也不知道你的磁盤陣列內的裝置啥時會出差錯,因此,了解一下軟件磁盤陣列的救援還是必須的!底下我們就來玩一玩救援的機制吧!首先來了解一下 mdadm 這方面的語法:
| [root@www ~]# mdadm --manage /dev/md[0-9] [--add 裝置] [--remove 裝置] \ > [--fail 裝置] 選項與參數: --add :會將后面的裝置加入到這個 md 中! --remove :會將后面的裝置由這個 md 中移除 --fail :會將后面的裝置配置成為出錯的狀態 |
- 配置磁碟為錯誤 (fault)
首先,我們來處理一下,該如何讓一個磁碟變成錯誤,然后讓 spare disk 自動的開始重建系統呢?
| # 0. 先復制一些東西到 /mnt/raid 去,假設這個 RAID 已經在使用了 [root@www ~]# cp -a /etc /var/log /mnt/raid [root@www ~]# df /mnt/raid ; du -sm /mnt/raid/* Filesystem 1K-blocks Used Available Use% Mounted on /dev/md0 2916920 188464 2580280 7% /mnt/raid 118 /mnt/raid/etc <==看吧!確實有數據在里面喔! 8 /mnt/raid/log 1 /mnt/raid/lost+found# 1. 假設 /dev/hda8 這個裝置出錯了!實際模擬的方式: [root@www ~]# mdadm --manage /dev/md0 --fail /dev/hda8 mdadm: set /dev/hda8 faulty in /dev/md0[root@www ~]# mdadm --detail /dev/md0 ....(前面省略)....State : clean, degraded, recoveringActive Devices : 3 Working Devices : 4Failed Devices : 1 <==出錯的磁碟有一個!Spare Devices : 1 ....(中間省略)....Number Major Minor RaidDevice State0 3 6 0 active sync /dev/hda61 3 7 1 active sync /dev/hda74 3 10 2 spare rebuilding /dev/hda103 3 9 3 active sync /dev/hda95 3 8 - faulty spare /dev/hda8 # 看到沒!這的動作要快做才會看到! /dev/hda10 啟動了而 /dev/hda8 死掉了[root@www ~]# cat /proc/mdstat Personalities : [raid6] [raid5] [raid4] md0 : active raid5 hda9[3] hda10[4] hda8[5](F) hda7[1] hda6[0]2963520 blocks level 5, 64k chunk, algorithm 2 [4/3] [UU_U][>.......] recovery = 0.8% (9088/987840) finish=14.3min speed=1136K/sec |
上面的畫面你得要快速的連續輸入那些 mdadm 的命令才看的到!因為你的 RAID 5 正在重建系統!若你等待一段時間再輸入后面的觀察命令,則會看到如下的畫面了:
| # 2. 已經藉由 spare disk 重建完畢的 RAID 5 情況 [root@www ~]# mdadm --detail /dev/md0 ....(前面省略)....Number Major Minor RaidDevice State0 3 6 0 active sync /dev/hda61 3 7 1 active sync /dev/hda72 3 10 2 active sync /dev/hda103 3 9 3 active sync /dev/hda94 3 8 - faulty spare /dev/hda8[root@www ~]# cat /proc/mdstat Personalities : [raid6] [raid5] [raid4] md0 : active raid5 hda9[3] hda10[2] hda8[4](F) hda7[1] hda6[0]2963520 blocks level 5, 64k chunk, algorithm 2 [4/4] [UUUU] |
看吧!又恢復正常了!真好!我們的 /mnt/raid 文件系統是完整的!并不需要卸載!很棒吧!
- 將出錯的磁碟移除并加入新磁碟
首先,我們再創建一個新的分割槽,這個分割槽要與其他分割槽一樣大才好!然后再利用 mdadm移除錯誤的并加入新的!
| # 3. 創建新的分割槽 [root@www ~]# fdisk /dev/hda Command (m for help): n First cylinder (2668-5005, default 2668): <==這里按 [enter] Using default value 2668 Last cylinder or +size or +sizeM or +sizeK (2668-5005, default 5005): +1000MCommand (m for help): w[root@www ~]# partprobe # 此時系統會多一個 /dev/hda11 的分割槽喔!# 4. 加入新的拔除有問題的磁碟 [root@www ~]# mdadm --manage /dev/md0 --add /dev/hda11 --remove /dev/hda8 mdadm: added /dev/hda11 mdadm: hot removed /dev/hda8[root@www ~]# mdadm --detail /dev/md0 ....(前面省略)....0 3 6 0 active sync /dev/hda61 3 7 1 active sync /dev/hda72 3 10 2 active sync /dev/hda103 3 9 3 active sync /dev/hda9 4 3 11 - spare /dev/hda11 |
嘿嘿!你的磁盤陣列內的數據不但一直存在,而且你可以一直順利的運行 /mnt/raid 內的數據,即使 /dev/hda8 損毀了!然后透過管理的功能就能夠加入新磁碟且拔除壞掉的磁碟!注意,這一切都是在上線 (on-line) 的情況下進行!所以,您說這樣的咚咚好不好用啊! ^_^
啟動自動啟動 RAID 并自動掛載
新的 distribution 大多會自己搜尋 /dev/md[0-9] 然后在啟動的時候給予配置好所需要的功能。不過鳥哥還是建議你,修改一下配置檔吧! ^_^。software RAID 也是有配置檔的,這個配置檔在 /etc/mdadm.conf !這個配置檔內容很簡單,你只要知道 /dev/md0 的 UUID 就能夠配置這個文件啦!這里鳥哥僅介紹他最簡單的語法:
| [root@www ~]# mdadm --detail /dev/md0 | grep -i uuidUUID : 7c60c049:57d60814:bd9a77f1:57e49c5b # 后面那一串數據,就是這個裝置向系統注冊的 UUID 識別碼!# 開始配置 mdadm.conf [root@www ~]# vi /etc/mdadm.conf ARRAY /dev/md0 UUID=7c60c049:57d60814:bd9a77f1:57e49c5b # RAID裝置 識別碼內容# 開始配置啟動自動掛載并測試 [root@www ~]# vi /etc/fstab /dev/md0 /mnt/raid ext3 defaults 1 2[root@www ~]# umount /dev/md0; mount -a [root@www ~]# df /mnt/raid Filesystem 1K-blocks Used Available Use% Mounted on /dev/md0 2916920 188464 2580280 7% /mnt/raid # 你得確定可以順利掛載,并且沒有發生任何錯誤! |
如果到這里都沒有出現任何問題!接下來就請 reboot 你的系統并等待看看能否順利的啟動吧! ^_^
關閉軟件 RAID(重要!)
除非你未來就是要使用這顆 software RAID (/dev/md0),否則你勢必要跟鳥哥一樣,將這個 /dev/md0 關閉!因為他畢竟是我們在這個測試機上面的練習裝置啊!為什么要關掉他呢?因為這個 /dev/md0 其實還是使用到我們系統的磁盤分區槽,在鳥哥的例子里面就是 /dev/hda{6,7,8,9,10,11},如果你只是將 /dev/md0 卸載,然后忘記將 RAID 關閉,結果就是....未來你在重新分割 /dev/hdaX 時可能會出現一些莫名的錯誤狀況啦!所以才需要關閉 software RAID 的步驟!那如何關閉呢?也是簡單到爆炸!(請注意,確認你的 /dev/md0 確實不要用且要關閉了才進行底下的玩意兒)
| # 1. 先卸載且刪除配置檔內與這個 /dev/md0 有關的配置: [root@www ~]# umount /dev/md0 [root@www ~]# vi /etc/fstab /dev/md0 /mnt/raid ext3 defaults 1 2 # 將這一行刪除掉!或者是注解掉也可以!# 2. 直接關閉 /dev/md0 的方法! [root@www ~]# mdadm --stop /dev/md0 mdadm: stopped /dev/md0 <==不羅唆!這樣就關閉了![root@www ~]# cat /proc/mdstat Personalities : [raid6] [raid5] [raid4] unused devices: <none> <==看吧!確實不存在任何陣列裝置![root@www ~]# vi /etc/mdadm.conf ARRAY /dev/md0 UUID=7c60c049:57d60814:bd9a77f1:57e49c5b # 一樣啦!刪除他或是注解他! |
| Tips: 在這個練習中,鳥哥使用同一顆磁碟進行軟件 RAID 的實驗。不過朋友們要注意的是,如果真的要實作軟件磁盤陣列,最好是由多顆不同的磁碟來組成較佳!因為這樣才能夠使用到不同磁碟的讀寫,效能才會好!而數據分配在不同的磁碟,當某顆磁碟損毀時數據才能夠藉由其他磁碟挽救回來!這點得特別留意呢! |
邏輯卷軸管理員 (Logical Volume Manager)
想像一個情況,你在當初規劃主機的時候將 /home 只給他 50G ,等到使用者眾多之后導致這個 filesystem 不夠大,此時你能怎么作?多數的朋友都是這樣:再加一顆新硬盤,然后重新分割、格式化,將 /home 的數據完整的復制過來,然后將原本的 partition 卸載重新掛載新的 partition 。啊!好忙碌啊!若是第二次分割卻給的容量太多!導致很多磁碟容量被浪費了!你想要將這個 partition 縮小時,又該如何作?將上述的流程再搞一遍!唉~煩死了,尤其復制很花時間ㄟ~有沒有更簡單的方法呢?有的!那就是我們這個小節要介紹的 LVM 這玩意兒!
LVM 的重點在於『可以彈性的調整 filesystem 的容量!』而并非在於效能與數據保全上面。需要文件的讀寫效能或者是數據的可靠性,請參考前面的 RAID 小節。LVM 可以整合多個實體 partition 在一起,讓這些 partitions 看起來就像是一個磁碟一樣!而且,還可以在未來新增或移除其他的實體 partition到這個 LVM 管理的磁碟當中。 如此一來,整個磁碟空間的使用上,實在是相當的具有彈性啊!既然 LVM 這么好用,那就讓我們來瞧瞧這玩意吧!
什么是 LVM: PV, PE, VG, LV 的意義
LVM 的全名是 Logical Volume Manager,中文可以翻譯作邏輯卷軸管理員。之所以稱為『卷軸』可能是因為可以將 filesystem 像卷軸一樣伸長或縮短之故吧!LVM 的作法是將幾個實體的 partitions (或 disk) 透過軟件組合成為一塊看起來是獨立的大磁碟 (VG) ,然后將這塊大磁碟再經過分割成為可使用分割槽 (LV),最終就能夠掛載使用了。但是為什么這樣的系統可以進行 filesystem 的擴充或縮小呢?其實與一個稱為 PE 的項目有關!底下我們就得要針對這幾個項目來好好聊聊!
- Physical Volume, PV, 實體卷軸
我們實際的 partition 需要調整系統識別碼 (system ID) 成為 8e (LVM 的識別碼),然后再經過pvcreate 的命令將他轉成 LVM 最底層的實體卷軸 (PV) ,之后才能夠將這些 PV 加以利用!調整 system ID 的方是就是透過fdisk 啦!
- Volume Group, VG, 卷軸群組
所謂的 LVM 大磁碟就是將許多 PV 整合成這個 VG 的東西就是啦!所以 VG 就是 LVM 組合起來的大磁碟!這么想就好了。那么這個大磁碟最大可以到多少容量呢?這與底下要說明的 PE 有關喔~因為每個 VG 最多僅能包含 65534 個 PE 而已。如果使用 LVM 默認的參數,則一個 VG 最大可達 256GB 的容量啊!(參考底下的 PE 說明)
- Physical Extend, PE, 實體延伸區塊
LVM 默認使用 4MB 的 PE 區塊,而 LVM 的 VG 最多僅能含有 65534 個 PE ,因此默認的 LVM VG 會有 4M*65534/(1024M/G)=256G。這個 PE 很有趣喔!他是整個 LVM 最小的儲存區塊,也就是說,其實我們的文件數據都是藉由寫入 PE 來處理的。簡單的說,這個 PE 就有點像文件系統里面的 block 大小啦。這樣說應該就比較好理解了吧?所以調整 PE 會影響到 VG 的最大容量喔!
- Logical Volume, LV, 邏輯卷軸
最終的 VG 還會被切成 LV,這個 LV 就是最后可以被格式化使用的類似分割槽的咚咚了!那么 LV 是否可以隨意指定大小呢?當然不可以!既然 PE 是整個 LVM 的最小儲存單位,那么 LV 的大小就與在此 LV 內的 PE 總數有關。為了方便使用者利用 LVM 來管理其系統,因此 LV 的裝置檔名通常指定為『/dev/vgname/lvname 』的樣式!
此外,我們剛剛有談到 LVM 可彈性的變更 filesystem 的容量,那是如何辦到的?其實他就是透過『交換 PE 』來進行數據轉換,將原本 LV 內的 PE 移轉到其他裝置中以降低 LV 容量,或將其他裝置的 PE 加到此 LV 中以加大容量!VG、LV 與 PE 的關系有點像下圖:
圖 3.1.1、PE 與 VG 的相關性圖示
如上圖所示,VG 內的 PE 會分給虛線部分的 LV,如果未來這個 VG 要擴充的話,加上其他的 PV 即可。而最重要的 LV 如果要擴充的話,也是透過加入 VG 內沒有使用到的 PE 來擴充的!
- 實作流程
透過 PV, VG, LV 的規劃之后,再利用 mkfs就可以將你的 LV 格式化成為可以利用的文件系統了!而且這個文件系統的容量在未來還能夠進行擴充或減少,而且里面的數據還不會被影響!實在是很『福氣啦!』那實作方面要如何進行呢?很簡單呢!整個流程由基礎到最終的結果可以這樣看:
圖 3.1.2、 LVM 各組件的實現流程圖示
如此一來,我們就可以利用 LV 這個玩意兒來進行系統的掛載了。不過,你應該要覺得奇怪的是,那么我的數據寫入這個 LV 時,到底他是怎么寫入硬盤當中的?呵呵!好問題~其實,依據寫入機制的不同,而有兩種方式:
- 線性模式 (linear):假如我將 /dev/hda1, /dev/hdb1 這兩個 partition 加入到 VG 當中,并且整個 VG 只有一個 LV 時,那么所謂的線性模式就是:當 /dev/hda1 的容量用完之后,/dev/hdb1 的硬盤才會被使用到,這也是我們所建議的模式。
- 交錯模式 (triped):那什么是交錯模式?很簡單啊,就是我將一筆數據拆成兩部分,分別寫入 /dev/hda1 與 /dev/hdb1 的意思,感覺上有點像 RAID 0 啦!如此一來,一份數據用兩顆硬盤來寫入,理論上,讀寫的效能會比較好。
基本上,LVM 最主要的用處是在實現一個可以彈性調整容量的文件系統上,而不是在創建一個效能為主的磁碟上,所以,我們應該利用的是 LVM 可以彈性管理整個 partition 大小的用途上,而不是著眼在效能上的。因此, LVM 默認的讀寫模式是線性模式啦!如果你使用 triped 模式,要注意,當任何一個 partition 『歸天』時,所有的數據都會『損毀』的!所以啦,不是很適合使用這種模式啦!如果要強調效能與備份,那么就直接使用 RAID 即可,不需要用到 LVM 啊!
LVM 實作流程
LVM 必需要核心有支持且需要安裝 lvm2 這個軟件,好佳在的是, CentOS 與其他較新的 distributions 已經默認將 lvm 的支持與軟件都安裝妥當了!所以你不需要擔心這方面的問題!用就對了!
鳥哥使用的測試機又要出動了喔!剛剛我們才練習過 RAID,必須要將一堆目前沒有用到的分割槽先殺掉,然后再重建新的分割槽。并且由於鳥哥僅有一個 40GB 的磁碟,所以底下的練習都僅針對同一顆磁碟來作的。我的要求有點像這樣:
- 先分割出 4 個 partition ,每個 partition 的容量均為 1.5GB 左右,且 system ID 需要為 8e;
- 全部的 partition 整合成為一個 VG,VG 名稱配置為 vbirdvg;且 PE 的大小為 16MB;
- 全部的 VG 容量都丟給 LV ,LV 的名稱配置為 vbirdlv;
- 最終這個 LV 格式化為 ext3 的文件系統,且掛載在 /mnt/lvm 中
鳥哥就不仔細的介紹實體分割了,請您自行參考第八章的 fdisk來達成底下的范例:(注意:修改系統識別碼請使用 t 這個 fdisk 內的命令來處理即可)
| [root@www ~]# fdisk /dev/hda <==其他流程請自行參考第八章處理 [root@www ~]# partprobe <==別忘記這個動作了!粉重要! [root@www ~]# fdisk -l Disk /dev/hda: 41.1 GB, 41174138880 bytes 255 heads, 63 sectors/track, 5005 cylinders Units = cylinders of 16065 * 512 = 8225280 bytesDevice Boot Start End Blocks Id System /dev/hda1 * 1 13 104391 83 Linux /dev/hda2 14 1288 10241437+ 83 Linux /dev/hda3 1289 1925 5116702+ 83 Linux /dev/hda4 1926 5005 24740100 5 Extended /dev/hda5 1926 2052 1020096 82 Linux swap / Solaris /dev/hda6 2053 2235 1469916 8e Linux LVM /dev/hda7 2236 2418 1469916 8e Linux LVM /dev/hda8 2419 2601 1469916 8e Linux LVM /dev/hda9 2602 2784 1469916 8e Linux LVM |
上面的 /dev/hda{6,7,8,9} 這四個分割槽就是我們的實體分割槽!也就是底下會實際用到的資訊!注意看,那個 8e 的出現會導致 system 變成『 Linux LVM 』哩!其實沒有配置成為 8e 也沒關系,不過某些 LVM 的偵測命令可能會偵測不到該 partition 就是了!接下來,就一個一個的處理各流程吧!
- PV 階段
要創建 PV 其實很簡單,只要直接使用 pvcreate 即可!我們來談一談與 PV 有關的命令吧!
- pvcreate :將實體 partition 創建成為 PV ;
- pvscan :搜尋目前系統里面任何具有 PV 的磁碟;
- pvdisplay :顯示出目前系統上面的 PV 狀態;
- pvremove :將 PV 屬性移除,讓該 partition 不具有 PV 屬性。
那就直接來瞧一瞧吧!
| # 1. 檢查有無 PV 在系統上,然后將 /dev/hda6~/dev/hda9 創建成為 PV 格式 [root@www ~]# pvscanNo matching physical volumes found <==找不到任何的 PV 存在喔![root@www ~]# pvcreate /dev/hda{6,7,8,9}Physical volume "/dev/hda6" successfully createdPhysical volume "/dev/hda7" successfully createdPhysical volume "/dev/hda8" successfully createdPhysical volume "/dev/hda9" successfully created # 這個命令可以一口氣創建這四個 partition 成為 PV 啦!注意大括號的用途[root@www ~]# pvscanPV /dev/hda6 lvm2 [1.40 GB]PV /dev/hda7 lvm2 [1.40 GB]PV /dev/hda8 lvm2 [1.40 GB]PV /dev/hda9 lvm2 [1.40 GB]Total: 4 [5.61 GB] / in use: 0 [0 ] / in no VG: 4 [5.61 GB] # 這就分別顯示每個 PV 的資訊與系統所有 PV 的資訊。尤其最后一行,顯示的是: # 整體 PV 的量 / 已經被使用到 VG 的 PV 量 / 剩余的 PV 量# 2. 更詳細的列示出系統上面每個 PV 的個別資訊: [root@www ~]# pvdisplay"/dev/hda6" is a new physical volume of "1.40 GB"--- NEW Physical volume ---PV Name /dev/hda6 <==實際的 partition 裝置名稱VG Name <==因為尚未分配出去,所以空白!PV Size 1.40 GB <==就是容量說明Allocatable NO <==是否已被分配,結果是 NOPE Size (KByte) 0 <==在此 PV 內的 PE 大小Total PE 0 <==共分割出幾個 PEFree PE 0 <==沒被 LV 用掉的 PEAllocated PE 0 <==尚可分配出去的 PE 數量PV UUID Z13Jk5-RCls-UJ8B-HzDa-Gesn-atku-rf2biN ....(底下省略).... # 由於 PE 是在創建 VG 時才給予的參數,因此在這里看到的 PV 里頭的 PE 都會是 0 # 而且也沒有多余的 PE 可供分配 (allocatable)。 |
講是很難,作是很簡單!這樣就將 PV 創建了兩個羅!簡單到不行吧! ^_^!繼續來玩 VG 去!
- VG 階段
創建 VG 及 VG 相關的命令也不少,我們來看看:
- vgcreate :就是主要創建 VG 的命令啦!他的參數比較多,等一下介紹。
- vgscan :搜尋系統上面是否有 VG 存在?
- vgdisplay :顯示目前系統上面的 VG 狀態;
- vgextend :在 VG 內添加額外的 PV ;
- vgreduce :在 VG 內移除 PV;
- vgchange :配置 VG 是否啟動 (active);
- vgremove :刪除一個 VG 啊!
與 PV 不同的是, VG 的名稱是自訂的!我們知道 PV 的名稱其實就是 partition 的裝置檔名,但是這個 VG 名稱則可以隨便你自己取啊!在底下的例子當中,我將 VG 名稱取名為 vbirdvg 。創建這個 VG 的流程是這樣的:
| [root@www ~]# vgcreate [-s N[mgt]] VG名稱 PV名稱 選項與參數: -s :后面接 PE 的大小 (size) ,單位可以是 m, g, t (大小寫均可)# 1. 將 /dev/hda6-8 創建成為一個 VG,且指定 PE 為 16MB 喔! [root@www ~]# vgcreate -s 16M vbirdvg /dev/hda{6,7,8}Volume group "vbirdvg" successfully created[root@www ~]# vgscanReading all physical volumes. This may take a while...Found volume group "vbirdvg" using metadata type lvm2 # 確實存在這個 vbirdvg 的 VG 啦![root@www ~]# pvscan PV /dev/hda6 VG vbirdvg lvm2 [1.39 GB / 1.39 GB free]PV /dev/hda7 VG vbirdvg lvm2 [1.39 GB / 1.39 GB free]PV /dev/hda8 VG vbirdvg lvm2 [1.39 GB / 1.39 GB free]PV /dev/hda9 lvm2 [1.40 GB]Total: 4 [5.57 GB] / in use: 3 [4.17 GB] / in no VG: 1 [1.40 GB] # 嘿嘿!發現沒!有三個 PV 被用去,剩下一個 /dev/hda9 的 PV 沒被用掉![root@www ~]# vgdisplay--- Volume group ---VG Name vbirdvgSystem IDFormat lvm2Metadata Areas 3Metadata Sequence No 1VG Access read/writeVG Status resizableMAX LV 0Cur LV 0Open LV 0Max PV 0Cur PV 3Act PV 3VG Size 4.17 GB <==整體的 VG 容量有這么大PE Size 16.00 MB <==內部每個 PE 的大小 Total PE 267 <==總共的 PE 數量共有這么多!Alloc PE / Size 0 / 0Free PE / Size 267 / 4.17 GBVG UUID 4VU5Jr-gwOq-jkga-sUPx-vWPu-PmYm-dZH9EO # 最后那三行指的就是 PE 能夠使用的情況!由於尚未切出 LV,因此所有的 PE # 均可自由使用。 |
這樣就創建一個 VG 了!假設我們要添加這個 VG 的容量,因為我們還有 /dev/hda9 嘛!此時你可以這樣做:
| # 2. 將剩余的 PV (/dev/hda9) 丟給 vbirdvg 吧! [root@www ~]# vgextend vbirdvg /dev/hda9Volume group "vbirdvg" successfully extended[root@www ~]# vgdisplay ....(前面省略)....VG Size 5.56 GBPE Size 16.00 MB Total PE 356Alloc PE / Size 0 / 0Free PE / Size 356 / 5.56 GBVG UUID 4VU5Jr-gwOq-jkga-sUPx-vWPu-PmYm-dZH9EO # 基本上,不難吧!這樣就可以抽換整個 VG 的大小啊! |
我們多了一個裝置喔!接下來為這個 vbirdvg 進行分割吧!透過 LV 功能來處理!
- LV 階段
創造出 VG 這個大磁碟之后,再來就是要創建分割區啦!這個分割區就是所謂的 LV 羅!假設我要將剛剛那個 vbirdvg 磁碟,分割成為 vbirdlv ,整個 VG 的容量都被分配到 vbirdlv 里面去!先來看看能使用的命令后,就直接工作了先!
- lvcreate :創建 LV 啦!
- lvscan :查詢系統上面的 LV ;
- lvdisplay :顯示系統上面的 LV 狀態啊!
- lvextend :在 LV 里面添加容量!
- lvreduce :在 LV 里面減少容量;
- lvremove :刪除一個 LV !
- lvresize :對 LV 進行容量大小的調整!
| [root@www ~]# lvcreate [-L N[mgt]] [-n LV名稱] VG名稱 [root@www ~]# lvcreate [-l N] [-n LV名稱] VG名稱 選項與參數: -L :后面接容量,容量的單位可以是 M,G,T 等,要注意的是,最小單位為 PE,因此這個數量必須要是 PE 的倍數,若不相符,系統會自行計算最相近的容量。 -l :后面可以接 PE 的『個數』,而不是數量。若要這么做,得要自行計算 PE 數。 -n :后面接的就是 LV 的名稱啦! 更多的說明應該可以自行查閱吧! man lvcreate # 1. 將整個 vbirdvg 通通分配給 vbirdlv 啊,要注意, PE 共有 356 個。 [root@www ~]# lvcreate -l 356 -n vbirdlv vbirdvgLogical volume "vbirdlv" created # 由於本案例中每個 PE 為 16M ,因此上述的命令也可以使用如下的方式來創建: # lvcreate -L 5.56G -n vbirdlv vbirdvg[root@www ~]# ll /dev/vbirdvg/vbirdlv lrwxrwxrwx 1 root root 27 Mar 11 16:49 /dev/vbirdvg/vbirdlv -> /dev/mapper/vbirdvg-vbirdlv # 看見了沒有啊!這就是我們最重要的一個玩意兒了![root@www ~]# lvdisplay--- Logical volume ---LV Name /dev/vbirdvg/vbirdlv <==這個才是 LV 的全名!VG Name vbirdvgLV UUID 8vFOPG-Jrw0-Runh-ug24-t2j7-i3nA-rPEyq0LV Write Access read/writeLV Status available# open 0LV Size 5.56 GB <==這個 LV 的容量這么大!Current LE 356Segments 4Allocation inheritRead ahead sectors auto- currently set to 256Block device 253:0 |
如此一來,整個 partition 也準備好啦!接下來,就是針對這個 LV 來處理啦!要特別注意的是, VG 的名稱為 vbirdvg ,但是 LV 的名稱必須使用全名!亦即是 /dev/vbirdvg/vbirdlv 才對喔!后續的處理都是這樣的!這點初次接觸 LVM 的朋友很容易搞錯!
- 文件系統階段
這個部分鳥哥我就不再多加解釋了!直接來進行吧!
| # 1. 格式化、掛載與觀察我們的 LV 吧! [root@www ~]# mkfs -t ext3 /dev/vbirdvg/vbirdlv <==注意 LV 全名! [root@www ~]# mkdir /mnt/lvm [root@www ~]# mount /dev/vbirdvg/vbirdlv /mnt/lvm [root@www ~]# df Filesystem 1K-blocks Used Available Use% Mounted on /dev/hda2 9920624 3858984 5549572 42% / /dev/hda3 4956316 1056996 3643488 23% /home /dev/hda1 101086 21408 74459 23% /boot tmpfs 371332 0 371332 0% /dev/shm /dev/mapper/vbirdvg-vbirdlv5741020 142592 5306796 3% /mnt/lvm [root@www ~]# cp -a /etc /var/log /mnt/lvm |
其實 LV 的名稱建置成為 /dev/vbirdvg/vbirdlv 是為了讓使用者直覺式的找到我們所需要的數據,實際上 LVM 使用的裝置是放置到 /dev/mapper/ 目錄下的!所以你才會看到上表當中的特殊字體部分。透過這樣的功能,我們現在已經建置好一個 LV 了!你可以自由的應用 /mnt/lvm 內的所有資源!
放大 LV 容量
我們不是說 LVM 最大的特色就是彈性調整磁碟容量嗎?好!那我們就來處理一下,如果要放大 LV 的容量時,該如何進行完整的步驟呢?其實一點都不難喔!你只要這樣做即可:
其中最后一個步驟最重要!我們在第八章當中知道,整個文件系統在最初格式化的時候就創建了 inode/block/superblock 等資訊,要改變這些資訊是很難的!不過因為文件系統格式化的時候建置的是多個 block group ,因此我們可以透過在文件系統當中添加 block group 的方式來增減文件系統的量!而增減 block group 就是利用 resize2fs 啦!所以最后一步是針對文件系統來處理的,前面幾步則是針對 LVM 的實際容量大小!
| # 1. 處理出一個 3GB 的新的 partition ,在鳥哥的系統中應該是 /dev/hda10 [root@www ~]# fdisk /dev/hda <==其他的動作請自行處理 [root@www ~]# partprobe [root@www ~]# fdisk -lDevice Boot Start End Blocks Id System ....(中間省略).... /dev/hda10 2785 3150 2939863+ 8e Linux LVM # 這個就是我們要的新的 partition 羅!# 2. 創建新的 PV: [root@www ~]# pvcreate /dev/hda10Physical volume "/dev/hda10" successfully created [root@www ~]# pvscanPV /dev/hda6 VG vbirdvg lvm2 [1.39 GB / 0 free]PV /dev/hda7 VG vbirdvg lvm2 [1.39 GB / 0 free]PV /dev/hda8 VG vbirdvg lvm2 [1.39 GB / 0 free]PV /dev/hda9 VG vbirdvg lvm2 [1.39 GB / 0 free] PV /dev/hda10 lvm2 [2.80 GB]Total: 5 [8.37 GB] / in use: 4 [5.56 GB] / in no VG: 1 [2.80 GB] # 可以看到 /dev/hda10 是新加入并且尚未被使用的喔!# 3. 加大 VG ,利用 vgextend 功能! [root@www ~]# vgextend vbirdvg /dev/hda10Volume group "vbirdvg" successfully extended [root@www ~]# vgdisplay--- Volume group ---VG Name vbirdvgSystem IDFormat lvm2Metadata Areas 5Metadata Sequence No 4VG Access read/writeVG Status resizableMAX LV 0Cur LV 1Open LV 1Max PV 0Cur PV 5Act PV 5 VG Size 8.36 GBPE Size 16.00 MBTotal PE 535Alloc PE / Size 356 / 5.56 GB Free PE / Size 179 / 2.80 GBVG UUID 4VU5Jr-gwOq-jkga-sUPx-vWPu-PmYm-dZH9EO # 不但整體 VG 變大了!而且剩余的 PE 共有 179 個,容量則為 2.80G# 4. 放大 LV 吧!利用 lvresize 的功能來添加! [root@www ~]# lvresize -l +179 /dev/vbirdvg/vbirdlvExtending logical volume vbirdlv to 8.36 GBLogical volume vbirdlv successfully resized # 這樣就添加了 LV 了喔!lvresize 的語法很簡單,基本上同樣透過 -l 或 -L 來添加! # 若要添加則使用 + ,若要減少則使用 - !詳細的選項請參考 man lvresize 羅![root@www ~]# lvdisplay--- Logical volume ---LV Name /dev/vbirdvg/vbirdlvVG Name vbirdvgLV UUID 8vFOPG-Jrw0-Runh-ug24-t2j7-i3nA-rPEyq0LV Write Access read/writeLV Status available# open 1 LV Size 8.36 GBCurrent LE 535Segments 5Allocation inheritRead ahead sectors auto- currently set to 256Block device 253:0[root@www ~]# df /mnt/lvm Filesystem 1K-blocks Used Available Use% Mounted on /dev/mapper/vbirdvg-vbirdlv5741020 261212 5188176 5% /mnt/lvm |
看到了吧?最終的結果中 LV 真的有放大到 8.36GB 喔!但是文件系統卻沒有相對添加!而且,我們的 LVM 可以線上直接處理,并不需要特別給他 umount 哩!真是人性化!但是還是得要處理一下文件系統的容量啦!開始觀察一下文件系統,然后使用 resize2fs 來處理一下吧!
| # 5.1 先看一下原本的文件系統內的 superblock 記錄情況吧! [root@www ~]# dumpe2fs /dev/vbirdvg/vbirdlv dumpe2fs 1.39 (29-May-2006) ....(中間省略).... Block count: 1458176 <==這個filesystem的 block 總數 ....(中間省略).... Blocks per group: 32768 <==多少個 block 配置成為一個 block group Group 0: (Blocks 0-32767) <==括號內為 block 的號碼 ....(中間省略).... Group 44: (Blocks 1441792-1458175) <==這是本系統中最后一個 group ....(后面省略)....# 5.2 resize2fs 的語法 [root@www ~]# resize2fs [-f] [device] [size] 選項與參數: -f :強制進行 resize 的動作! [device]:裝置的文件名稱; [size] :可以加也可以不加。如果加上 size 的話,那么就必須要給予一個單位,譬如 M, G 等等。如果沒有 size 的話,那么默認使用『整個 partition』的容量來處理!# 5.3 完整的將 LV 的容量擴充到整個 filesystem 吧! [root@www ~]# resize2fs /dev/vbirdvg/vbirdlv resize2fs 1.39 (29-May-2006) Filesystem at /dev/vbirdvg/vbirdlv is mounted on /mnt/lvm; on-line resizing Performing an on-line resize of /dev/vbirdvg/vbirdlv to 2191360 (4k) blocks. The filesystem on /dev/vbirdvg/vbirdlv is now 2191360 blocks long. # 可怕吧!這一版的 lvm 竟然還可以線上進行 resize 的功能哩!真好![root@www ~]# df /mnt/lvm Filesystem 1K-blocks Used Available Use% Mounted on /dev/mapper/vbirdvg-vbirdlv8628956 262632 7931368 4% /mnt/lvm [root@www ~]# ll /mnt/lvm drwxr-xr-x 105 root root 12288 Mar 11 16:59 etc drwxr-xr-x 17 root root 4096 Mar 11 14:17 log drwx------ 2 root root 16384 Mar 11 16:59 lost+found # 剛剛復制進去的數據可還是存在的喔!并沒有消失不見! |
嘿嘿!真的放大了吧!而且如果你已經有填數據在 LVM 磁區當中的話!這個數據是不會死掉的喔!還是繼續存在原本的磁區當中啦!整個動作竟然這么簡單就完成了!原本的數據還是一直存在而不會消失~您說, LVM 好不好用啊!
此外,如果你再以 dumpe2fs 來檢查 /dev/vbirdvg/vbirdlv 時,就會發現后續的 Group 添加了!如果還是搞不清楚什么是 block group 時,請回到第八章看一下該章內圖1.3.1的介紹吧!
縮小 LV 容量
上一小節我們談到的是放大容量,現在來談到的是縮小容量喔!假設我們想將 /dev/hda6 抽離出來!那該如何處理啊?就讓上一小節的流程倒轉過來即可啊!我們就直接來玩吧!
| # 1. 先找出 /dev/hda6 的容量大小,并嘗試計算文件系統需縮小到多少 [root@www ~]# pvdisplay--- Physical volume ---PV Name /dev/hda6VG Name vbirdvg PV Size 1.40 GB / not usable 11.46 MBAllocatable yes (but full)PE Size (KByte) 16384 Total PE 89Free PE 0Allocated PE 89PV UUID Z13Jk5-RCls-UJ8B-HzDa-Gesn-atku-rf2biN # 從這里可以看出 /dev/hda6 有多大,而且含有 89 個 PE 的量喔! # 那如果要使用 resize2fs 時,則總量減去 1.40GB 就對了![root@www ~]# pvscanPV /dev/hda6 VG vbirdvg lvm2 [1.39 GB / 0 free]PV /dev/hda7 VG vbirdvg lvm2 [1.39 GB / 0 free]PV /dev/hda8 VG vbirdvg lvm2 [1.39 GB / 0 free]PV /dev/hda9 VG vbirdvg lvm2 [1.39 GB / 0 free]PV /dev/hda10 VG vbirdvg lvm2 [2.80 GB / 0 free]Total: 5 [8.36 GB] / in use: 5 [8.36 GB] / in no VG: 0 [0 ] # 從上面可以發現如果扣除 /dev/hda6 則剩余容量有:1.39*3+2.8=6.97# 2. 就直接降低文件系統的容量吧! [root@www ~]# resize2fs /dev/vbirdvg/vbirdlv 6900M resize2fs 1.39 (29-May-2006) Filesystem at /dev/vbirdvg/vbirdlv is mounted on /mnt/lvm; on-line resizing On-line shrinking from 2191360 to 1766400 not supported. # 容量好像不能夠寫小數點位數,因此 6.9G 是錯誤的,鳥哥就使用 6900M 了。 # 此外,放大可以線上直接進行,縮小文件系統似乎無法支持!所以要這樣做:[root@www ~]# umount /mnt/lvm [root@www ~]# resize2fs /dev/vbirdvg/vbirdlv 6900M resize2fs 1.39 (29-May-2006) Please run 'e2fsck -f /dev/vbirdvg/vbirdlv' first. # 他要我們先進行磁碟檢查!不羅唆!那就直接進行吧![root@www ~]# e2fsck -f /dev/vbirdvg/vbirdlv e2fsck 1.39 (29-May-2006) Pass 1: Checking inodes, blocks, and sizes Pass 2: Checking directory structure Pass 3: Checking directory connectivity Pass 4: Checking reference counts Pass 5: Checking group summary information /dev/vbirdvg/vbirdlv: 2438/1087008 files (0.1% non-contiguous), [root@www ~]# resize2fs /dev/vbirdvg/vbirdlv 6900M resize2fs 1.39 (29-May-2006) Resizing the filesystem on /dev/vbirdvg/vbirdlv to 1766400 (4k) blocks. The filesystem on /dev/vbirdvg/vbirdlv is now 1766400 blocks long. # 再來 resize2fs 一次就能夠成功了!如上所示啊![root@www ~]# mount /dev/vbirdvg/vbirdlv /mnt/lvm [root@www ~]# df /mnt/lvm Filesystem 1K-blocks Used Available Use% Mounted on /dev/mapper/vbirdvg-vbirdlv6955584 262632 6410328 4% /mnt/lvm |
然后再來就是將 LV 的容量降低!要注意的是,我們想要抽離的是 /dev/hda6,這個 PV 有 89 個 PE (上面的 pvdisplay 查詢到的結果)。所以要這樣進行:
| # 3. 降低 LV 的容量,同時我們知道 /dev/hda6 有 89 個 PE [root@www ~]# lvresize -l -89 /dev/vbirdvg/vbirdlvWARNING: Reducing active and open logical volume to 6.97 GBTHIS MAY DESTROY YOUR DATA (filesystem etc.) Do you really want to reduce vbirdlv? [y/n]: yReducing logical volume vbirdlv to 6.97 GBLogical volume vbirdlv successfully resized # 會有警告信息!但是我們的實際數據量還是比 6.97G 小,所以就 y 下去吧![root@www ~]# lvdisplay--- Logical volume ---LV Name /dev/vbirdvg/vbirdlvVG Name vbirdvgLV UUID 8vFOPG-Jrw0-Runh-ug24-t2j7-i3nA-rPEyq0LV Write Access read/writeLV Status available# open 1 LV Size 6.97 GBCurrent LE 446Segments 5Allocation inheritRead ahead sectors auto- currently set to 256Block device 253:0 |
很簡單吧!這樣就將 LV 縮小了!接下來就要將 /dev/hda6 移出 vbirdvg 這個 VG 之外羅!我們得要先確定 /dev/hda6 里面的 PE 完全不被使用后,才能夠將 /dev/hda6 抽離!所以得要這樣進行:
| # 4.1 先確認 /dev/hda6 是否將 PE 都移除了! [root@www ~]# pvdisplay--- Physical volume ---PV Name /dev/hda6VG Name vbirdvgPV Size 1.40 GB / not usable 11.46 MBAllocatable yes (but full)PE Size (KByte) 16384Total PE 89 Free PE 0Allocated PE 89PV UUID Z13Jk5-RCls-UJ8B-HzDa-Gesn-atku-rf2biN ....(中間省略)....--- Physical volume ---PV Name /dev/hda10VG Name vbirdvgPV Size 2.80 GB / not usable 6.96 MBAllocatable yesPE Size (KByte) 16384Total PE 179 Free PE 89Allocated PE 90PV UUID 7MfcG7-y9or-0Jmb-H7RO-5Pa5-D3qB-G426Vq # 搞了老半天,沒有被使用的 PE 竟然在 /dev/hda10 !此時得要搬移 PE 羅![root@www ~]# pvmove /dev/hda6 /dev/hda10 # pvmove 來源PV 目標PV ,可以將 /dev/hda6 內的 PE 通通移動到 /dev/hda10 # 尚未被使用的 PE 去 (Free PE)。# 4.2 將 /dev/hda6 移出 vbirdvg 中! [root@www ~]# vgreduce vbirdvg /dev/hda6Removed "/dev/hda6" from volume group "vbirdvg"[root@www ~]# pvscanPV /dev/hda7 VG vbirdvg lvm2 [1.39 GB / 0 free]PV /dev/hda8 VG vbirdvg lvm2 [1.39 GB / 0 free]PV /dev/hda9 VG vbirdvg lvm2 [1.39 GB / 0 free]PV /dev/hda10 VG vbirdvg lvm2 [2.80 GB / 0 free] PV /dev/hda6 lvm2 [1.40 GB]Total: 5 [8.37 GB] / in use: 4 [6.97 GB] / in no VG: 1 [1.40 GB][root@www ~]# pvremove /dev/hda6Labels on physical volume "/dev/hda6" successfully wiped |
很有趣吧!這樣你的文件系統以及實際的 LV 與 VG 通通變小了,而且那個 /dev/hda6 還真的可以拿出來!可以進行其他的用途啦!非常簡單吧!
LVM 的系統快照
現在你知道 LVM 的好處咯,未來如果你有想要添加某個 LVM 的容量時,就可以透過這個放大、縮小的功能來處理。那么 LVM 除了這些功能之外,還有什么能力呢?其實他還有一個重要的能力,那就是系統快照 (snapshot)。什么是系統快照啊?快照就是將當時的系統資訊記錄下來,就好像照相記錄一般!未來若有任何數據更動了,則原始數據會被搬移到快照區,沒有被更動的區域則由快照區與文件系統共享。用講的好像很難懂,我們用圖解說明一下好了:
圖 3.5.1、LVM 系統快照區域的備份示意圖(虛線為文件系統,長虛線為快照區)
左圖為最初建置系統快照區的狀況,LVM 會預留一個區域 (左圖的左側三個 PE 區塊) 作為數據存放處。此時快照區內并沒有任何數據,而快照區與系統區共享所有的 PE 數據,因此你會看到快照區的內容與文件系統是一模一樣的。等到系統運行一陣子后,假設 A 區域的數據被更動了 (上面右圖所示),則更動前系統會將該區域的數據移動到快照區,所以在右圖的快照區被占用了一塊 PE 成為 A,而其他 B 到 I 的區塊則還是與文件系統共享!
照這樣的情況來看,LVM 的系統快照是非常棒的『備份工具』,因為他只有備份有被更動到的數據,文件系統內沒有被變更的數據依舊保持在原本的區塊內,但是 LVM 快照功能會知道那些數據放置在哪里,因此『快照』當時的文件系統就得以『備份』下來,且快照所占用的容量又非常小!所以您說,這不是很棒的工具又是什么?
那么快照區要如何創建與使用呢?首先,由於快照區與原本的 LV 共享很多 PE 區塊,因此快照區與被快照的 LV 必須要在同一個 VG 上頭。但是我們剛剛將 /dev/hda6 移除 vbirdvg了,目前 vbirdvg 剩下的容量為 0 !因此,在這個小節里面我們得要再加入 /dev/hda6 到我們的 VG 后,才能繼續創建快照區羅!底下的動作趕緊再來玩玩看!
- 快照區的創建
底下的動作主要在添加需要的 VG 容量,然后再透過 lvcreate -s 的功能創建快照區
| # 1. 先觀察 VG 還剩下多少剩余容量 [root@www ~]# vgdisplay--- Volume group ---VG Name vbirdvg ....(其他省略)....VG Size 6.97 GBPE Size 16.00 MBTotal PE 446Alloc PE / Size 446 / 6.97 GB Free PE / Size 0 / 0 <==沒有多余的 PE 可用!# 2. 將剛剛移除的 /dev/hda6 加入這個 VG 吧! [root@www ~]# pvcreate /dev/hda6Physical volume "/dev/hda6" successfully created [root@www ~]# vgextend vbirdvg /dev/hda6Volume group "vbirdvg" successfully extended [root@www ~]# vgdisplay--- Volume group ---VG Name vbirdvg ....(其他省略)....VG Size 8.36 GBPE Size 16.00 MBTotal PE 535Alloc PE / Size 446 / 6.97 GB Free PE / Size 89 / 1.39 GB <==多出了 89 個 PE 可用羅!# 3. 利用 lvcreate 創建系統快照區,我們取名為 vbirdss,且給予 60 個 PE [root@www ~]# lvcreate -l 60 -s -n vbirdss /dev/vbirdvg/vbirdlvLogical volume "vbirdss" created # 上述的命令中最重要的是那個 -s 的選項!代表是 snapshot 快照功能之意! # -n 后面接快照區的裝置名稱, /dev/.... 則是要被快照的 LV 完整檔名。 # -l 后面則是接使用多少個 PE 來作為這個快照區使用。[root@www ~]# lvdisplay--- Logical volume ---LV Name /dev/vbirdvg/vbirdssVG Name vbirdvgLV UUID K2tJ5E-e9mI-89Gw-hKFd-4tRU-tRKF-oeB03aLV Write Access read/writeLV snapshot status active destination for /dev/vbirdvg/vbirdlvLV Status available# open 0 LV Size 6.97 GB <==被快照的原 LV 磁碟容量Current LE 446 COW-table size 960.00 MB <==快照區的實際容量COW-table LE 60 <==快照區占用的 PE 數量Allocated to snapshot 0.00%Snapshot chunk size 4.00 KBSegments 1Allocation inheritRead ahead sectors auto- currently set to 256Block device 253:1 |
您看看!這個 /dev/vbirdvg/vbirdss 快照區就被創建起來了!而且他的 VG 量竟然與原本的 /dev/vbirdvg/vbirdlv 相同!也就是說,如果你真的掛載這個裝置時,看到的數據會跟原本的 vbirdlv 相同喔!我們就來測試看看:
| [root@www ~]# mkdir /mnt/snapshot [root@www ~]# mount /dev/vbirdvg/vbirdss /mnt/snapshot [root@www ~]# df Filesystem 1K-blocks Used Available Use% Mounted on /dev/hda2 9920624 3859032 5549524 42% / /dev/hda3 4956316 1056996 3643488 23% /home /dev/hda1 101086 21408 74459 23% /boot tmpfs 371332 0 371332 0% /dev/shm /dev/mapper/vbirdvg-vbirdlv6955584 262632 6410328 4% /mnt/lvm /dev/mapper/vbirdvg-vbirdss6955584 262632 6410328 4% /mnt/snapshot # 有沒有看到!這兩個咚咚竟然是一模一樣喔!我們根本沒有動過 # /dev/vbirdvg/vbirdss 對吧!不過這里面會主動記錄原 vbirdlv 的內容![root@www ~]# umount /mnt/snapshot # 最后將他卸載!我們準備來玩玩有趣的東西! |
- 利用快照區復原系統
首先,我們來玩一下,如何利用快照區復原系統吧!不過你要注意的是,你要復原的數據量不能夠高於快照區所能負載的實際容量。由於原始數據會被搬移到快照區,如果你的快照區不夠大,若原始數據被更動的實際數據量比快照區大,那么快照區當然容納不了,這時候快照功能會失效喔!所以上面的案例中鳥哥才給予 60 個 PE (共 900MB) 作為快照區存放數據用。
我們的 /mnt/lvm 已經有 /mnt/lvm/etc, /mnt/lvm/log 等目錄了,接下來我們將這個文件系統的內容作個變更,然后再以快照區數據還原看看:
| # 1. 先將原本的 /dev/vbirdvg/vbirdlv 內容作些變更,增增減減一些目錄吧! [root@www ~]# df /mnt/lvm Filesystem 1K-blocks Used Available Use% Mounted on /dev/mapper/vbirdvg-vbirdlv6955584 262632 6410328 4% /mnt/lvm[root@www ~]# ll /mnt/lvm drwxr-xr-x 105 root root 12288 Mar 11 16:59 etc drwxr-xr-x 17 root root 4096 Mar 11 14:17 log drwx------ 2 root root 16384 Mar 11 16:59 lost+found[root@www ~]# rm -r /mnt/lvm/log [root@www ~]# cp -a /boot /lib /sbin /mnt/lvm [root@www ~]# ll /mnt/lvm drwxr-xr-x 4 root root 4096 Dec 15 16:28 boot drwxr-xr-x 105 root root 12288 Mar 11 16:59 etc drwxr-xr-x 14 root root 4096 Sep 5 2008 lib drwx------ 2 root root 16384 Mar 11 16:59 lost+found drwxr-xr-x 2 root root 12288 Sep 5 2008 sbin # 看起來數據已經不一樣了![root@www ~]# lvdisplay /dev/vbirdvg/vbirdss--- Logical volume ---LV Name /dev/vbirdvg/vbirdssVG Name vbirdvg ....(中間省略).... Allocated to snapshot 12.22% ....(底下省略).... # 從這里也看得出來,快照區已經被使用了 12.22% !因為原始的文件系統有異動過!# 2. 利用快照區將原本的 filesystem 備份 [root@www ~]# mount /dev/vbirdvg/vbirdss /mnt/snapshot [root@www ~]# df Filesystem 1K-blocks Used Available Use% Mounted on /dev/mapper/vbirdvg-vbirdlv6955584 370472 6302488 6% /mnt/lvm /dev/mapper/vbirdvg-vbirdss6955584 262632 6410328 4% /mnt/snapshot # 看吧!兩者確實不一樣了!開始將快照區內容復制出來吧![root@www ~]# mkdir -p /backups <==確認真的有這個目錄! [root@www ~]# cd /mnt/snapshot [root@www snapshot]# tar -jcv -f /backups/lvm.tar.bz2 * # 此時你就會有一個備份數據,亦即是 /backups/lvm.tar.bz2 了! |
為什么要備份呢?為什么不可以直接格式化 /dev/vbirdvg/vbirdlv 然后將 /dev/vbirdvg/vbirdss 直接復制給 vbirdlv 呢?要知道 vbirdss 其實是 vbirdlv 的快照,因此如果你格式化整個 vbirdlv 時,原本的文件系統所有數據都會被搬移到 vbirdss。那如果 vbirdss 的容量不夠大 (通常也真的不夠大),那么部分數據將無法復制到 vbirdss 內,數據當然無法全部還原啊!所以才要在上面表格中制作出一個備份文件的!了解乎?
而快照還有另外一個功能,就是你可以比對 /mnt/lvm 與 /mnt/snapshot 的內容,就能夠發現到最近你到底改了啥咚咚!這樣也是很不賴啊!您說是吧! ^_^!接下來讓我們準備還原 vbirdlv 的內容吧!
| # 3. 將 vbirdss 卸載并移除 (因為里面的內容已經備份起來了) [root@www ~]# umount /mnt/snapshot [root@www ~]# lvremove /dev/vbirdvg/vbirdss Do you really want to remove active logical volume "vbirdss"? [y/n]: yLogical volume "vbirdss" successfully removed[root@www ~]# umount /mnt/lvm [root@www ~]# mkfs -t ext3 /dev/vbirdvg/vbirdlv [root@www ~]# mount /dev/vbirdvg/vbirdlv /mnt/lvm [root@www ~]# tar -jxv -f /backups/lvm.tar.bz2 -C /mnt/lvm [root@www ~]# ll /mnt/lvm drwxr-xr-x 105 root root 12288 Mar 11 16:59 etc drwxr-xr-x 17 root root 4096 Mar 11 14:17 log drwx------ 2 root root 16384 Mar 11 16:59 lost+found # 是否與最初的內容相同啊!這就是透過快照來還原的一個簡單的方法羅! |
- 利用快照區進行各項練習與測試的任務,再以原系統還原快照
換個角度來想想,我們將原本的 vbirdlv 當作備份數據,然后將 vbirdss 當作實際在運行中的數據,任何測試的動作都在 vbirdss 這個快照區當中測試,那么當測試完畢要將測試的數據刪除時,只要將快照區刪去即可!而要復制一個 vbirdlv 的系統,再作另外一個快照區即可!這樣是否非常方便啊?這對於教學環境中每年都要幫學生制作一個練習環境主機的測試,非常有幫助呢!
| Tips: 以前鳥哥老是覺得使用 LVM 的快照來進行備份不太合理,因為還要制作一個備份檔!后來仔細研究并參考徐秉義老師的教材(注3)后,才發現 LVM 的快照實在是一個棒到不行的工具!尤其是在虛擬機器當中建置多份給同學使用的測試環境,你只要有一個基礎的環境保持住,其他的環境使用快照來提供即可。即時同學將系統搞爛了,你只要將快照區刪除,再重建一個快照區!這樣環境就恢復了!天吶!實在是太棒了! ^_^ |
| # 1. 創建一個大一些的快照區,讓我們將 /dev/hda6 的 PE 全部給快照區! [root@www ~]# lvcreate -s -l 89 -n vbirdss /dev/vbirdvg/vbirdlvLogical volume "vbirdss" created[root@www ~]# lvdisplay /dev/vbirdvg/vbirdss--- Logical volume ---LV Name /dev/vbirdvg/vbirdssVG Name vbirdvgLV UUID as0ocQ-KjRS-Bu7y-fYoD-1CHC-0V3Y-JYsjj1LV Write Access read/writeLV snapshot status active destination for /dev/vbirdvg/vbirdlvLV Status available# open 0LV Size 6.97 GBCurrent LE 446 COW-table size 1.39 GBCOW-table LE 89Allocated to snapshot 0.00%Snapshot chunk size 4.00 KBSegments 1Allocation inheritRead ahead sectors auto- currently set to 256Block device 253:1 # 如何!這個快照區不小吧!# 2. 隱藏 vbirdlv 掛載 vbirdss [root@www ~]# umount /mnt/lvm [root@www ~]# mount /dev/vbirdvg/vbirdss /mnt/snapshot [root@www ~]# df /mnt/snapshot Filesystem 1K-blocks Used Available Use% Mounted on /dev/mapper/vbirdvg-vbirdss7192504 265804 6561340 4% /mnt/snapshot# 3. 開始惡搞! [root@www ~]# rm -r /mnt/snapshot/etc /mnt/snapshot/log [root@www ~]# cp -a /boot /lib /sbin /mnt/snapshot/ [root@www ~]# ll /mnt/snapshot drwxr-xr-x 4 root root 4096 Dec 15 16:28 boot drwxr-xr-x 14 root root 4096 Sep 5 2008 lib drwx------ 2 root root 16384 Mar 11 16:59 lost+found drwxr-xr-x 2 root root 12288 Sep 5 2008 sbin <==與原本數據有差異了[root@www ~]# mount /dev/vbirdvg/vbirdlv /mnt/lvm [root@www ~]# ll /mnt/lvm drwxr-xr-x 105 root root 12288 Mar 11 16:59 etc drwxr-xr-x 17 root root 4096 Mar 11 14:17 log drwx------ 2 root root 16384 Mar 11 16:59 lost+found # 不論你在快照區惡搞啥咚咚,原本的 vbirdlv 里面的數據安好如初啊! # 假設你將 vbirdss 搞爛了!里面的數據不再需要!那該如何是好?# 4. 還原原本快照區的數據,回到與原文件系統相同的資訊 [root@www ~]# umount /mnt/snapshot [root@www ~]# lvremove /dev/vbirdvg/vbirdss Do you really want to remove active logical volume "vbirdss"? [y/n]: yLogical volume "vbirdss" successfully removed[root@www ~]# lvcreate -s -l 89 -n vbirdss /dev/vbirdvg/vbirdlv [root@www ~]# mount /dev/vbirdvg/vbirdss /mnt/snapshot [root@www ~]# ll /mnt/snapshot drwxr-xr-x 105 root root 12288 Mar 11 16:59 etc drwxr-xr-x 17 root root 4096 Mar 11 14:17 log drwx------ 2 root root 16384 Mar 11 16:59 lost+found # 數據這樣就復原了! |
老實說,上面的測試有點無厘頭~因為快照區損毀了就刪除再建一個就好啦!何必還要測試呢?不過,為了讓您了解到快照區也能夠這樣使用,上面的測試還是需要存在的啦!未來如果你有接觸到虛擬機器,再回到這里來溫習一下肯定會有收獲的!
LVM 相關命令匯整與 LVM 的關閉
好了,我們將上述用過的一些命令給他匯整一下,提供給您參考參考:
| 任務 | PV 階段 | VG 階段 | LV 階段 |
| 搜尋(scan) | pvscan | vgscan | lvscan |
| 創建(create) | pvcreate | vgcreate | lvcreate |
| 列出(display) | pvdisplay | vgdisplay | lvdisplay |
| 添加(extend) | ? | vgextend | lvextend (lvresize) |
| 減少(reduce) | ? | vgreduce | lvreduce (lvresize) |
| 刪除(remove) | pvremove | vgremove | lvremove |
| 改變容量(resize) | ? | ? | lvresize |
| 改變屬性(attribute) | pvchange | vgchange | lvchange |
至於文件系統階段 (filesystem 的格式化處理) 部分,還需要以 resize2fs 來修訂文件系統實際的大小才行啊! ^_^。至於雖然 LVM 可以彈性的管理你的磁碟容量,但是要注意,如果你想要使用 LVM 管理您的硬盤時,那么在安裝的時候就得要做好 LVM 的規劃了,否則未來還是需要先以傳統的磁碟添加方式來添加后,移動數據后,才能夠進行 LVM 的使用啊!
會玩 LVM 還不行!你必須要會移除系統內的 LVM 喔!因為你的實體 partition 已經被使用到 LVM 去,如果你還沒有將 LVM 關閉就直接將那些 partition 刪除或轉為其他用途的話,系統是會發生很大的問題的!所以羅,你必須要知道如何將 LVM 的裝置關閉并移除才行!會不會很難呢?其實不會啦!依據以下的流程來處理即可:
好吧!那就實際的將我們之前創建的所有 LVM 數據給刪除吧!
| [root@www ~]# umount /mnt/lvm [root@www ~]# umount /mnt/snapshot [root@www ~]# lvremove /dev/vbirdvg/vbirdss <==先處理快照 Do you really want to remove active logical volume "vbirdss"? [y/n]: yLogical volume "vbirdss" successfully removed [root@www ~]# lvremove /dev/vbirdvg/vbirdlv <==再處理原系統 Do you really want to remove active logical volume "vbirdlv"? [y/n]: yLogical volume "vbirdlv" successfully removed[root@www ~]# vgchange -a n vbirdvg0 logical volume(s) in volume group "vbirdvg" now active[root@www ~]# vgremove vbirdvgVolume group "vbirdvg" successfully removed[root@www ~]# pvremove /dev/hda{6,7,8,9,10}Labels on physical volume "/dev/hda6" successfully wipedLabels on physical volume "/dev/hda7" successfully wipedLabels on physical volume "/dev/hda8" successfully wipedLabels on physical volume "/dev/hda9" successfully wipedLabels on physical volume "/dev/hda10" successfully wiped |
最后再用 fdisk 將磁碟的 ID 給他改回來 83 就好啦!整個過程就這樣的啦! ^_^
重點回顧
- Quota 可公平的分配系統上面的磁碟容量給使用者;分配的資源可以是磁碟容量(block)或可創建文件數量(inode);
- Quota 的限制可以有 soft/hard/grace time 等重要項目;
- Quota 僅能針對整個 filesystem 進行限制,不是針對目錄喔!
- Quota 的使用必須要核心與文件系統均支持。文件系統的參數必須含有 usrquota, grpquota
- Quota 實作的命令有 quotacheck, quotaon, edquota, repquota 等命令;
- 磁盤陣列 (RAID) 有硬件與軟件之分,Linux 操作系統可支持軟件磁盤陣列,透過 mdadm 套件來達成;
- 磁盤陣列建置的考量依據為『容量』、『效能』、『數據可靠性』等;
- 磁盤陣列所建置的等級常見有的 raid0, raid1, raid0+1, raid5 及 raid6
- 硬件磁盤陣列的裝置檔名與 SCSI 相同,至於 software RAID 則為 /dev/md[0-9]
- 軟件磁盤陣列的狀態可藉由 /proc/mdstat 文件來了解;
- LVM 強調的是『彈性的變化文件系統的容量』;
- 與 LVM 有關的組件有: PV/VG/PE/LV 等組件,可以被格式化者為 LV
- LVM 擁有快照功能,快照可以記錄 LV 的數據內容,并與原有的 LV 共享未更動的數據,備份與還原就變的很簡單;
- Ext3 透過 resize2fs 命令,可以彈性的調整文件系統的大小
本章習題
( 要看答案請將鼠標移動到『答:』底下的空白處,按下左鍵圈選空白處即可察看 )
- 情境模擬題一:由於 LVM 可以彈性調整 filesystem 的大小,但是缺點是可能沒有加速與硬件備份(與快照不同)的功能。而磁盤陣列則具有效能與備份的功能,但是無法提供類似 LVM 的優點。在此情境中,我們想利用『在 RAID 上面建置 LVM』的功能,以達到兩者兼顧的能力。
- 目標:測試在 RAID 磁碟上面架構 LVM 系統;
- 需求:需要具有磁碟管理的能力,包括 RAID 與 LVM;
- 前提:將本章與之前章節練習所制作的分割槽全部刪除,剩下默認的分割槽即可。
那要如何處理呢?如下的流程一個步驟一個步驟的實施看看吧:
- 復原系統時,你必須要:
- 利用 umount 先卸載之前掛載的文件系統;
- 修改 /etc/fstab 里面的數據,讓啟動不會自動掛載;
- 利用 fdisk 將該分割槽刪除。
最終你的系統應該會只剩下如下的模樣:
[root@www ~]# fdisk -lDevice Boot Start End Blocks Id System /dev/hda1 * 1 13 104391 83 Linux /dev/hda2 14 1288 10241437+ 83 Linux /dev/hda3 1289 1925 5116702+ 83 Linux /dev/hda4 1926 9382 59898352+ 5 Extended /dev/hda5 1926 2052 1020096 82 Linux swap / Solaris
- 創建 RAID ,假設我們利用五個 1GB 的分割槽創建 RAID-5 ,且具有一個 spare disk ,那么你應該要如何進行?首先,請自行使用 fdisk 建置好如下的分割槽狀態:
接下來開始創建 RAID 吧!創建的方法可以如下簡單處理即可:[root@www ~]# fdisk -l ....(前面省略).... /dev/hda6 2053 2175 987966 83 Linux /dev/hda7 2176 2298 987966 83 Linux /dev/hda8 2299 2421 987966 83 Linux /dev/hda9 2422 2544 987966 83 Linux /dev/hda10 2545 2667 987966 83 Linux
若無出現任何錯誤信息,此時你已經具有 /dev/md0 這個磁盤陣列裝置了!接下來讓我們處理 LVM 吧![root@www ~]# mdadm --create --auto=yes /dev/md0 --level=5 \ > --raid-devices=4 --spare-devices=1 /dev/hda{6,7,8,9,10}
- 開始處理 LVM ,現在我們假設所有的參數都使用默認值,包括 PE ,然后 VG 名為 raidvg ,LV 名為raidlv ,底下為基本的流程:
這樣就搞定了 LVM 了!而且這個 LVM 是架構在 /dev/md0 上面的喔!然后就是文件系統的創建與掛載了![root@www ~]# pvcreate /dev/md0 <==創建 PV [root@www ~]# vgcreate raidvg /dev/md0 <==創建 VG [root@www ~]# lvcreate -L 2.82G -n raidlv raidvg <==創建 LM [root@www ~]# lvdisplay--- Logical volume ---LV Name /dev/raidvg/raidlvVG Name raidvgLV UUID zQsKqW-8Bt2-kpJF-8rCI-Cql1-XQYT-jw1mfHLV Write Access read/writeLV Status available# open 0LV Size 2.82 GBCurrent LE 722Segments 1Allocation inheritRead ahead sectors auto- currently set to 256Block device 253:0
- 嘗試創建成為 Ext3 文件系統,且掛載到 /mnt/raidlvm 目錄下:
[root@www ~]# mkfs -t ext3 /dev/raidvg/raidlv [root@www ~]# mkdir /mnt/raidlvm [root@www ~]# mount /dev/raidvg/raidlv /mnt/raidlvm
- 上述就是 LVM 架構在 RAID 上面的技巧,之后的動作都能夠使用本章的其他管理方式來管理,包括 RAID 熱拔插機制、LVM 放大縮小機制等等。測試完畢之后請務必要關閉本題所創建的各項資訊。
[root@www ~]# umount /mnt/raidlvm <==卸載文件系統 [root@www ~]# lvremove /dev/raidvg/raidlv <==移除 LV [root@www ~]# vgchange -a n raidvg <==讓 VG 不活動 [root@www ~]# vgremove raidvg <==移除 VG [root@www ~]# pvremove /dev/md0 <==移除 PV [root@www ~]# mdadm --stop /dev/md0 <==關閉 /dev/md0 RAID [root@www ~]# fdisk /dev/hda <==還原原本的分割槽
簡答題部分:
- 在前一章的第一個大量新增帳號范例中,如果我想要讓每個用戶均具有 soft/hard 各為 40MB/50MB 的容量時,應該如何修改這個 script ? 你得先要依據本章的作法,先將 /home 制作好 quota 的環境然后,你可以在 do...done 內的最后一行,新增一行內容為:
setquota -u $username 40000 50000 0 0 /home
這樣就可以在制作用戶時,指定升級口令且給予 quota 的限制! - 如果我想要讓 RAID 具有保護數據的功能,防止因為硬件損毀而導致數據的遺失,那我應該要選擇的 RAID 等級可能有哪些?(請以本章談到的等級來思考即可) 具有備份數據的有: RAID-1, RAID-5, RAID-6
- 在默認的 LVM 配置中,請問 LVM 能否具有『備份』的功能? 是有的,就是那個快照 (snopshot) 的功能,此功能即可進行數據的備份!
- LVM 內的 LV 據說僅能達到 256 GB 的容量,請問如何克服此一容量問題? LV 的容量與 PE 這個數據有關,由於默認 PE 為 4MB ,所以才會有此限制。若要修改這個限制值,則需要在建置 VG 時就給予 -s 的選項來進行 PE 數值的配置。若給到 PE = 16MB 時,則 LV 的最大總量就能夠達到 1TB 的容量了。
- 如果你的計算機主機有提供 RAID 0 的功能,你將你的三顆硬盤全部在 BIOS 階段使用 RAID 芯片整合成為一顆大磁碟,則此磁碟在 Linux 系統當中的檔名為何? 由於硬件磁盤陣列是在 BIOS 階段完成的,因此 Linux 系統會捉到一個完整的大的 RAID 磁碟,此磁碟的檔名就會是『 /dev/sda 』!
參考數據與延伸閱讀
- 注1:若想對 RAID 有更深入的認識,可以參考底下的連結與書目:
http://www.tldp.org/HOWTO/Software-RAID-HOWTO.html
楊振和、『操作系統導論:第十一章』、學貫出版社,2006
- 注2:詳細的 mdstat 說明也可以參考如下網頁:
http://linux-raid.osdl.org/index.php/Mdstat - 注3:徐秉義老師在網管人雜志 (http://www.babyface.idv.tw/NetAdmin/) 的投稿文章:
磁碟管理:SoftRAID 與 LVM 綜合實做應用 (上)
http://www.babyface.idv.tw/NetAdmin/16200705SoftRAIDLVM01/
磁碟管理:SoftRAID 與 LVM 綜合實做應用 (下)
http://www.babyface.idv.tw/NetAdmin/18200707SoftRAIDLVM02/
2002/07/14:第一次完成
2003/02/10:重新編排與加入 FAQ
2003/09/02:加入 quotacheck 發生錯誤時的解決方法。
2005/09/06:將舊的文章移動到 此處 。
2005/09/06:進行版面風格的轉換,并且進行數據的查詢,加入 repquota 的簡單說明而已!
2009/03/04:將原本舊的基於 FC4 的文件移動到 此處 。
2009/03/06:加入 warnquota 這玩意兒!挺有趣的哩!
2009/03/12:加入了 software RAID 與 LVM 的加強說明,尤其是 LVM 的快照 (snapshot) 的說明!
2009/09/10:修改一些字樣之外,添加情境模擬,以及后續的簡答題部分題目。
出處:http://vbird.dic.ksu.edu.tw/linux_basic/0420quota.php
總結
以上是生活随笔為你收集整理的鸟哥的Linux私房菜(基础篇)- 第十五章、磁碟配额(Quota)与进阶文件系统管理的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 鸟哥的Linux私房菜(基础篇)- 第十
- 下一篇: 鸟哥的Linux私房菜(基础篇)- 第十