rhcs集群套件—红帽6的高可用
含義及理解:
RHCS是Red Hat Cluster Suite的縮寫,也就是紅帽子集群套件,RHCS是一個能夠提供高可用性、高可靠性、負載均衡、存儲共享且經(jīng)濟廉價的集群工具集合,,它將集群系統(tǒng)中三大集群架構(gòu)(高可用性集群、負載均衡集群、存儲集群)融合一體,可以給web應用、數(shù)據(jù)庫應用等提供安全、穩(wěn)定的運行環(huán)境。
主要功能:
1 . 高可用集群是RHCS的核心功能。當正使用的節(jié)點出現(xiàn)故障時,RHCS提供的高可用管理組件自動、快速的將應用使用的當前服務(wù)節(jié)點切換到另一個節(jié)點,保證應用的正常進行,而且節(jié)點轉(zhuǎn)移功能對客戶來說是透明的,所以也能實現(xiàn)應用持續(xù)、不間斷的對外提供服務(wù)!
2 . 負載均衡集群是RHCS通過使用LVS(Linux Virtual Server)實現(xiàn)的。LVS是 一個開源的且功能強大的基于IP的負載均衡技術(shù),LVS 由調(diào)度器和服務(wù)器節(jié)點組成,通過LVS的負載調(diào)度功能,可以將客戶端請求平均的分配到各服務(wù)器節(jié)點上,當然,還可以自定義多種負載均衡策略,當客戶請求進來時,調(diào)度器根據(jù)負載均衡策略來判斷應該將請求分配到哪個服務(wù)器節(jié)點上,然后由分配的服務(wù)器節(jié)點去響應客戶請求。不僅如此,LVS 還提供了服務(wù)節(jié)點故障轉(zhuǎn)移功能,簡單來說就是當某個服務(wù)節(jié)點出故障后,LVS 會自動屏蔽這個節(jié)點,并將它從集群踢除,同時將新來此節(jié)點的請求平滑的轉(zhuǎn)移到其它正常節(jié)點上,當故障節(jié)點恢復正常后,LVS 又會自動將此節(jié)點加入集群中。這所有操作對客戶而言都是透明的,從而保證了服務(wù)的不間斷,穩(wěn)定運行!
3 . 儲存集群功能是由GFS文件系統(tǒng)實現(xiàn)的。GFS(Global File System)是一個分布式文件系統(tǒng),通過鎖管理機制,來協(xié)調(diào)和管理多個服務(wù)節(jié)點對同一文件系統(tǒng)的讀寫操作,允許多個服務(wù)同時去讀寫一個單一的共享文件系統(tǒng);儲存集群通過將共享數(shù)據(jù)放到一個共享文件系統(tǒng)中,從而消除了在應用程序間同步的麻煩。
集群套件的作用:
1 . 集群中l(wèi)uci的作用:luci是用來配置和管理集群,監(jiān)聽在8084上。
2 . 集群中ricci的作用:ricci是安裝在每個后端的每個節(jié)點上的,luci管理集群上的各個節(jié)點就是通過和節(jié)點上的ricci進行通信,ricci監(jiān)聽在11111上。
3 . 集群中fence的作用:當意外原因?qū)е轮鳈C異常或者宕機時,備機會首先調(diào)用FENCE設(shè)備,然后通過FENCE設(shè)備將異常主機重啟或者從網(wǎng)絡(luò)隔離,當FENCE操作成功執(zhí)行后,返回信息給備機,備機在接到FENCE成功的信息后,開始接管主機的服務(wù)和資源。
實驗搭建:
準備三臺虛擬機6.5版本的,關(guān)火墻,selinux狀態(tài)為disabled
server1 :管理節(jié)點和HA節(jié)點 :172.25.11.1
server2 :HA節(jié)點 :172.25.11.2
server3 :作為iscsi共享磁盤 :172.25.11.3
給三臺虛擬機配置高可用yum源,
[rhel6.5] name=rhel6.5 baseurl=http://172.25.11.250/rhel6.5 enabled=1 gpgcheck=1 gpgkey=file:///etc/pki/rpm-gpg/RPM-GPG-KEY-redhat-release[HighAvailability] name=HighAvailability baseurl=http://172.25.11.250/rhel6.5/HighAvailability enabled=1 gpgcheck=1 gpgkey=file:///etc/pki/rpm-gpg/RPM-GPG-KEY-redhat-release[LoadBalancer] name=LoadBalancer baseurl=http://172.25.11.250/rhel6.5/LoadBalancer enabled=1 gpgcheck=1 gpgkey=file:///etc/pki/rpm-gpg/RPM-GPG-KEY-redhat-release[ResilientStorage] name=ResilientStorage baseurl=http://172.25.11.250/rhel6.5/ResilientStorage enabled=1 gpgcheck=1 gpgkey=file:///etc/pki/rpm-gpg/RPM-GPG-KEY-redhat-release[ScalableFileSystem] name=ScalableFileSystem baseurl=http://172.25.11.250/rhel6.5/ScalableFileSystem enabled=1 gpgcheck=1 gpgkey=file:///etc/pki/rpm-gpg/RPM-GPG-KEY-redhat-release配好之后yum repolist 查看一下
scp 拷給server2和server3
在server1上安裝ricci、luci:
yum install ricci luci -y 下載軟件 id ricci 會生成這個用戶 passwd ricci 給個密碼/etc/init.d/ricci start 開啟服務(wù) /etc/init.d/luci start chkconfig ricci on 開機自啟 chkconfig luci on在server2上安裝ricci:
yum install ricci -y id ricci passwd ricci/etc/init.d/ricci start chkconfig ricci on測試:
真機打開瀏覽器輸入https://172.25.11.1:8084
注意要添加安全證書
再將server1, server2添加到集群
查看是否添加成功和集群狀態(tài)
cat /etc/cluster/cluster.conf clustat為RHCS高可用添加fence(柵)
首先配置好fence
yum install -y fence-virtd.x86_64 fence-virtd-libvirt.x86_64 fence-virtd-multicast.x86_64 Interface [virbr0]: br0 ##設(shè)備選擇br0,其他用默認 mkdir /etc/cluster dd if=/dev/urandom of=/etc/cluster/fence_xvm.key bs=128 count=1 scp fence_xvm.key root@server1:/etc/cluster/ scp fence_xvm.key root@server2:/etc/cluster/ systemctl start fence_virtd.service在web里添加fence
Fence Devices---->Add---->submit
分別為server1和server2添加fence,Domain為虛擬機的MAC地址,可在虛擬機管理器查看
測試:
在server1上使用fence關(guān)掉server2
發(fā)現(xiàn)server2被重啟
添加httpd資源
添加失敗回切和優(yōu)先級:
Failover --> Add --> webfail --> Prioritized --> Restricted --> No Failback(此選項選中,failover的主機在再次正常時會按優(yōu)先級大小回切,否則不會)
server2優(yōu)先級為1,server5優(yōu)先級為10,數(shù)字越小,優(yōu)先級越高。
添加vip資源:
Resources --> Add --> IP Address
172.25.11.100
24
Monitor Link(選中)
Number of … 5
再添加服務(wù)
Resources --> Add --> Script
Name : httpd
Full Path to Script File : /etc/init.d/httpd
兩個節(jié)點都安裝并啟動httpd,寫默認發(fā)布頁面
添加服務(wù)組到集群:
Service Groups --> Add
Service Name : apache
Automatically Start This Service : 選中
Run Exclusive : 運行獨占(先選中)
Failover Domain : webfail
然后添加資源
Add Resource --> 172.25.0.100/24 --> Script —>submit ##添加IP和啟動腳本
添加好以后
測試:
勾選apache并點擊上方start
在真機crul 172.25.11.100
發(fā)現(xiàn)默認訪問到server2
使server2腦裂,測試fence:
echo c > /proc/sysrq-trigger ip link set dowm eth0 (使網(wǎng)絡(luò)掛掉)發(fā)現(xiàn)服務(wù)器由于server被重啟暫時回到server1上
在web頁面點擊左邊第一個按鈕即start
添加iscsi網(wǎng)絡(luò)共享磁盤
給server3在添加一塊虛擬磁盤
fdisk -l fdisk /dev/vda p 1 回車 回車 wqyum install -y scsi-*配置server3的存儲:
vim /etc/tgt/targets.conf 38 <target iqn.2019-06.com.example:server.target1> 39 backing-store /dev/vda1 initiator-address 172.25.11.1initiator-address 172.25.11.2 40 </target>/etc/init.d/tgtd starttgt-admin -s ##查看存儲信息 ps ax ##看到有2個tgtd進程(如果有4個,就是錯誤的)在server1和server2兩個ha節(jié)點上:
安裝客戶端
在HA節(jié)點上發(fā)現(xiàn)并登陸共享存儲:
iscsiadm -m discovery -t st -p 172.25.11.3 iscsiadm -m node -l fdisk -l fdisk -cu /dev/sdb ##只分一個區(qū),方便在分區(qū)表被破壞的時候恢復 pratprobe fdisk /dev/sdb同步過后在server2查看進程
partprobe cat /proc/partitions該文件格式在把分區(qū)改一下
mkfs.ext4 /dev/sdb1 fdisk /dev/sdb t 8e wq partprobe在server1創(chuàng)建邏輯卷
pvcreate /dev/sdb1 vgcreate vg /dev/sdb1 lvcreate -L 4G -n lv vg partprobe在server2同步并查看
partprobe lvs pvs vgs mkfs.ext4 /dev/vg/lv在web添加webdata(文件系統(tǒng))
現(xiàn)在server1server2關(guān)閉apache
點擊Service Groups,刪除原來的添加,重新配置,這次的添加順序是IP
Address —-> Filesystem —-> Script(因為服務(wù)開啟的順序就是先分配VIP,然后開啟存儲,然后再是服務(wù))
測試:
啟動集群服務(wù),發(fā)現(xiàn)server2自動掛載
總結(jié)
以上是生活随笔為你收集整理的rhcs集群套件—红帽6的高可用的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: python运维开发培训_运维架构师-P
- 下一篇: angularjs 元素重复指定次数_[