Oracle 11gR2 GI日常管理手册
Oracle 11gR2 GI日常管理手冊(cè)
目 錄
1 文檔簡(jiǎn)介 4
1.1 編寫(xiě)目的 4
1.2 適用范圍 4
1.3 名詞解釋 4
1.4 格式約定 4
1.5 特別說(shuō)明 4
2 在集群中增加新節(jié)點(diǎn) 5
2.1 新節(jié)點(diǎn)機(jī)器安裝環(huán)境準(zhǔn)備 5
2.1.1 新節(jié)點(diǎn)機(jī)器與網(wǎng)絡(luò)存儲(chǔ)的連接 5
2.1.2 新節(jié)點(diǎn)機(jī)器信息 5
2.1.3 存儲(chǔ)信息 5
2.1.4 軟件版本 6
2.2 安裝前配置 6
2.2.1 配置存儲(chǔ) 6
2.2.2 創(chuàng)建用戶和組 7
2.2.3 檢查硬件要求 7
2.2.4 檢查網(wǎng)絡(luò)配置 7
2.2.5 檢查內(nèi)核版本及軟件包 8
2.2.6 設(shè)置內(nèi)核參數(shù) 8
2.2.7 修改root用戶的umask及PATH變量 8
2.2.8 安裝cvuqdisk RPM包 8
2.2.9 配置SSH無(wú)密碼登陸 8
2.2.10 配置Shell Limits 8
2.2.11 檢查selinux配置 8
2.2.12 檢查NTP時(shí)間同步 8
2.2.13 配置OCR和VOTE Disk 8
2.2.14 使用CVU進(jìn)行安裝前檢查 8
2.3 安裝及配置ASM Lib 9
2.3.1 安裝ASMLib軟件包 9
2.3.2 配置ASMLib 9
2.3.3 掃描ASM Disk Groups 10
2.4 擴(kuò)展CRS Home到新節(jié)點(diǎn) 10
2.4.1 在CRS Home運(yùn)行addNode.sh腳本 10
2.4.2 在新節(jié)點(diǎn)上運(yùn)行root.sh腳本加入集群 10
2.4.3 修改新節(jié)點(diǎn)上數(shù)據(jù)庫(kù)啟動(dòng)腳本的的權(quán)限 13
2.5 擴(kuò)展Oracle Home到新節(jié)點(diǎn) 13
2.5.1 新節(jié)點(diǎn)上的環(huán)境配置 13
2.5.2 使用CVU進(jìn)行安裝前檢查 13
2.5.3 在Oracle Home運(yùn)行addNode.sh腳本 14
2.5.4 在新節(jié)點(diǎn)上運(yùn)行root.sh腳本 14
2.5.5 同步新節(jié)點(diǎn)上的oratab文件 14
2.6 擴(kuò)展資源組的切換域到新節(jié)點(diǎn) 15
2.6.1 修改Serverpool成員 15
2.6.2 資源組切換測(cè)試 15
3 在集群中刪除節(jié)點(diǎn) 16
3.1 數(shù)據(jù)庫(kù)切換或下線回收 16
3.1.1 數(shù)據(jù)庫(kù)切換 16
3.1.2 數(shù)據(jù)庫(kù)下線回收 16
3.2 從Oracle Home中刪除節(jié)點(diǎn) 16
3.2.1 從Oracle Home中刪除節(jié)點(diǎn) 16
3.3 從CRS Home中刪除節(jié)點(diǎn) 17
3.3.1 從cluster中刪除節(jié)點(diǎn) 17
3.3.2 已刪除節(jié)點(diǎn)機(jī)器下線 19
4 參考文檔 19
4.1 Oracle Clusterware Administration and Deployment Guide 11g Release 2 19
?
1 文檔簡(jiǎn)介
1.1 編寫(xiě)目的
為L(zhǎng)inux數(shù)據(jù)庫(kù)平臺(tái)集群軟件Oracle 11gR2 Grid Infrastructure的日常管理提供參考。
1.2 適用范圍
該文檔的閱讀對(duì)象為基礎(chǔ)架構(gòu)管理部系統(tǒng)組、存儲(chǔ)組、項(xiàng)目組等相關(guān)人員。
1.3 名詞解釋
序號(hào) 術(shù)語(yǔ)/縮略語(yǔ) 全稱和說(shuō)明
1 GI Grid Infrastructure的簡(jiǎn)稱,Oracle公司的集群和存儲(chǔ)管理軟件的統(tǒng)稱,包含集群軟件Clusterware和存儲(chǔ)管理軟件ASM。
2 CRS Clusterware的簡(jiǎn)稱,Oracle公司的集群管理軟件。
3 ASM Automatic Storage Management的簡(jiǎn)稱,Oracle公司的存儲(chǔ)管理軟件。
1.4 格式約定
以“#”開(kāi)頭代表root用戶;
以“$”開(kāi)頭代表普通用戶;
以“>”開(kāi)頭代表DB用戶;
以“SQL>”開(kāi)頭代表sqlplus命令;
以“灰色底紋”標(biāo)注的為命令或輸入字符;
以“斜體”標(biāo)注的為配置文件內(nèi)容;
“所有節(jié)點(diǎn)”表示集群中的所有機(jī)器;
“主節(jié)點(diǎn)”表示“節(jié)點(diǎn)一”,集群中的第一臺(tái)機(jī)器(下面的cnsh230244)。
1.5 特別說(shuō)明
1、下面的步驟以在二節(jié)點(diǎn)(cnsh230244、cnsh230245)集群中新增節(jié)點(diǎn)(cnsh230246)和刪除節(jié)點(diǎn)(cnsh230246)為范例,目的的要詳述的操作方法,除方法以外的許多東西會(huì)與實(shí)際環(huán)境存在不同,如存儲(chǔ)LUN的數(shù)量及大小、用戶名、目錄名等,實(shí)際配置過(guò)程中,請(qǐng)嚴(yán)格按照《Oracle 11gR2 集群管理規(guī)范.docx》來(lái)執(zhí)行。
2、另本文肯定存在一些錯(cuò)漏的地方,請(qǐng)及時(shí)提出并修正,大家共同不斷進(jìn)行完善。
2 在集群中增加新節(jié)點(diǎn)
2.1 新節(jié)點(diǎn)機(jī)器安裝環(huán)境準(zhǔn)備
2.1.1 新節(jié)點(diǎn)機(jī)器與網(wǎng)絡(luò)存儲(chǔ)的連接
按照機(jī)器標(biāo)裝規(guī)則,使用雙網(wǎng)卡鏈路連接到新節(jié)點(diǎn)要加入集群的主網(wǎng)。
使用雙網(wǎng)卡鏈路連接到新節(jié)點(diǎn)要加入集群的心跳網(wǎng)絡(luò)。
1)按照機(jī)器標(biāo)裝規(guī)則,使用雙HBA卡鏈路連接到新節(jié)點(diǎn)要加入集群的SAN存儲(chǔ);
2)將集群中所有的共享LUN擴(kuò)展到新節(jié)點(diǎn)上,使用新節(jié)點(diǎn)也可以訪問(wèn)所有的共享LUN。
2.1.2 新節(jié)點(diǎn)機(jī)器信息
注:cnsh230244、cnsh230245為集群中原有的節(jié)點(diǎn),cnsh230246為要加入集群的新節(jié)點(diǎn)。
主機(jī)名 機(jī)器型號(hào) OS版本 內(nèi)核版本
cnsh230244 HP DL585 G6 RHEL5.4 X86_64 2.6.18-164.9.1.el5
cnsh230245 HP DL585 G6 RHEL5.4 X86_64 2.6.18-164.9.1.el5
cnsh230246 HP DL585 G6 RHEL5.4 X86_64 2.6.18-164.9.1.el5
主機(jī)名 主網(wǎng)IP 節(jié)點(diǎn)VIP 心跳網(wǎng)IP SCAN IP
cnsh230244 10.31.9.124 10.31.9.247 1.1.2.1 10.31.9.254
cnsh230245 10.31.9.147 10.31.9.248 1.1.2.2
cnsh230246 10.31.9.152 10.31.9.249 1.1.2.3
2.1.3 存儲(chǔ)信息
共享主機(jī) LUN大小(GB) 數(shù)量 用途 要求
cnsh230244
cnsh230245
cnsh230246 1 3 OCRVD_DG 3個(gè)LUN在不同的RAID組中
注:將集群中所有共享的LUN擴(kuò)展到新節(jié)點(diǎn)。
主機(jī)名 LV大小(GB) 數(shù)量 用途 Mount點(diǎn) 說(shuō)明
cnsh230244 20 1 LVgrid /oracle_grid 用以安裝Grid Infrastructure
100 1 LVdata /data01 臨時(shí)用以存放安裝介質(zhì)cnsh230245 20 1 LVgrid /oracle_grid 用以安裝Grid Infrastructure
100 1 LVdata /data01 臨時(shí)用以存放安裝介質(zhì)cnsh230246 20 1 LVgrid /oracle_grid 用以安裝Grid Infrastructure
100 1 LVdata /data01 臨時(shí)用以存放安裝介質(zhì)2.1.4 軟件版本
2.6.18-164.9.1.el5 x86_64
ASMLib-2.6.18-164.9.1.el5-2.0.5-1.el5.x86_64
安裝介質(zhì):
在sa上的“/data01/oracle/ASMLib-2.6.18-164.9.1.el5-2.0.5-1.el5.x86_64”目錄。
11.2.0.2.0
2.2 安裝前配置
2.2.1 配置存儲(chǔ)
參看《Oracle 11gR2 GI基本安裝手冊(cè).docx》中的“3.1.1 配置本地存儲(chǔ)”。
該部分由存儲(chǔ)組進(jìn)行實(shí)施。
配置DM Multipath多鏈路軟件,修改好/etc/multipath.conf配置文件,使新節(jié)點(diǎn)看到的LUN信息與原集群中的節(jié)點(diǎn)一致。
2.2.2 創(chuàng)建用戶和組
1)參看《Oracle 11gR2 GI基本安裝手冊(cè).docx》中的“3.3 創(chuàng)建用戶和組”,建立Grid用戶,注意UID和GID需要與其它節(jié)點(diǎn)保持一致;
2)參看原集群中的節(jié)點(diǎn),建立所有的Oracle數(shù)據(jù)庫(kù)用戶,注意UID和GID需要與其它節(jié)點(diǎn)保持一致。
1)使用grid用戶登陸原集群中節(jié)點(diǎn)一,將$HOME目錄下的.bash_profile復(fù)制到新節(jié)點(diǎn)上覆蓋同名文件;
2)分別使用各個(gè)Oracle用戶登陸原集群中節(jié)點(diǎn)一,將各個(gè)Oracle數(shù)據(jù)庫(kù)用戶$HOME目錄下的.bash_profile復(fù)制到新節(jié)點(diǎn)上覆蓋同名文件。
2.2.3 檢查硬件要求
參看“3.4 檢查硬件要求”。
2.2.4 檢查網(wǎng)絡(luò)配置
1)主網(wǎng)及心跳網(wǎng)配置如下:
主機(jī)名 主網(wǎng)網(wǎng)卡 主網(wǎng)IP 心跳網(wǎng)網(wǎng)卡 心跳網(wǎng)IP
cnsh230246 bond0 10.31.9.152/24 bond1 1.1.2.3/24
2)修改原集群中所有節(jié)點(diǎn)hosts文件配置,增加新節(jié)點(diǎn)IP相關(guān)(紅色)的行:
注意:IP與主機(jī)名之間必須使用空格,不使用TAB鍵!
vim /etc/hosts
127.0.0.1 localhost.localdomain localhost
10.31.9.124 cnsh230244
10.31.9.147 cnsh230245
10.31.9.152 cnsh230246
1.1.2.1 cnsh230244-priv
1.1.2.2 cnsh230245-priv
1.1.2.3 cnsh230246-priv
10.31.9.247 cnsh230244-vip
10.31.9.248 cnsh230245-vip
10.31.9.249 cnsh230246-vip
10.31.9.254 clusterware01-scan
3)將修改后的hosts文件復(fù)制到新節(jié)點(diǎn)上,覆蓋同名文件。
4)檢查所有節(jié)點(diǎn)上的nsswitch.conf配置,這一行應(yīng)該如下:
cat /etc/nsswitch.conf | grep ^hosts
hosts: files dns
2.2.5 檢查內(nèi)核版本及軟件包
參看《Oracle 11gR2 GI基本安裝手冊(cè).docx》中的“3.6 檢查內(nèi)核版本及軟件包”。
2.2.6 設(shè)置內(nèi)核參數(shù)
參看《Oracle 11gR2 GI基本安裝手冊(cè).docx》中的“3.7 設(shè)置內(nèi)核參數(shù)”。
2.2.7 修改root用戶的umask及PATH變量
參看《Oracle 11gR2 GI基本安裝手冊(cè).docx》中的“3.8 修改root用戶的umask及PATH變量”。
2.2.8 安裝cvuqdisk RPM包
參看《Oracle 11gR2 GI基本安裝手冊(cè).docx》中的“3.9 安裝cvuqdisk RPM包”。
2.2.9 配置SSH無(wú)密碼登陸
1)使用grid用戶登陸原集群中節(jié)點(diǎn)一,將$HOME目錄下的.ssh目錄復(fù)制到新節(jié)點(diǎn)grid用戶的$HOME目錄中;
2)測(cè)試驗(yàn)證所有節(jié)點(diǎn)兩兩之間grid用戶都能夠無(wú)密碼登陸。
1)分別使用各個(gè)DB用戶登陸原集群中節(jié)點(diǎn)一,將$HOME目錄下的.ssh目錄復(fù)制到新節(jié)點(diǎn)對(duì)應(yīng)DB用戶的$HOME目錄中;
2)測(cè)試驗(yàn)證所有節(jié)點(diǎn)兩兩之間各個(gè)DB用戶都能夠無(wú)密碼登陸。
2.2.10 配置Shell Limits
參看《Oracle 11gR2 GI基本安裝手冊(cè).docx》中的“3.11 配置Shell Limits”。
2.2.11 檢查selinux配置
參看《Oracle 11gR2 GI基本安裝手冊(cè).docx》中的“3.12 檢查selinux配置”。
2.2.12 檢查NTP時(shí)間同步
參看《Oracle 11gR2 GI基本安裝手冊(cè).docx》中的“3.13 檢查NTP時(shí)間同步”。
2.2.13 配置OCR和VOTE Disk
OCR及VOTE Disk已經(jīng)在集群建立時(shí)配置好,無(wú)需配置。
2.2.14 使用CVU進(jìn)行安裝前檢查
1)使用grid用戶登陸節(jié)點(diǎn)一,運(yùn)行:
$ cluvfy stage -pre nodeadd -n cnsh230246 -verbose
2)檢查的結(jié)果有如下兩處是failed的,不用理會(huì)。
注:其余的都應(yīng)該是passed,WARNING可以忽略。
Checking for multiple users with UID value 0
PRVF-4132 : Multiple users "root,ada,paxf" with UID "0" exist on "cnsh230246".
Result: Check for multiple users with UID value 0 failed
Checking Oracle Cluster Voting Disk configuration...
ERROR:
PRVF-5449 : Check of Voting Disk location "ORCL:OCRVD_DISK01(ORCL:OCRVD_DISK01)" failed on the following nodes:
ERROR:
PRVF-5449 : Check of Voting Disk location "ORCL:OCRVD_DISK02(ORCL:OCRVD_DISK02)" failed on the following nodes:
ERROR:
PRVF-5449 : Check of Voting Disk location "ORCL:OCRVD_DISK03(ORCL:OCRVD_DISK03)" failed on the following nodes:
PRVF-5431 : Oracle Cluster Voting Disk configuration check failed
2.3 安裝及配置ASM Lib
2.3.1 安裝ASMLib軟件包
參看《Oracle 11gR2 GI基本安裝手冊(cè).docx》中的“4.1 安裝ASMLib軟件包”。
2.3.2 配置ASMLib
1)配置ASM,在新節(jié)點(diǎn)上操作:
/etc/init.d/oracleasm configure
Configuring the Oracle ASM library driver.
This will configure the on-boot properties of the Oracle ASM library
will be shown in brackets ('[]'). Hitting without typing an
answer will keep that current value. Ctrl-C will abort.
Default user to own the driver interface []: grid
Default group to own the driver interface []: asmadmin
Start Oracle ASM library driver on boot (y/n) [n]: y
Scan for Oracle ASM disks on boot (y/n) [y]: y
Writing Oracle ASM library driver configuration: done
Initializing the Oracle ASMLib driver: [ OK ]
Scanning the system for Oracle ASMLib disks: [ OK ]
2)修改/etc/sysconfig/oracleasm,在新節(jié)點(diǎn)上操作:
找到以下這二行并修改為:
ORACLEASM_SCANORDER="dm"
ORACLEASM_SCANEXCLUDE="sd"
2.3.3 掃描ASM Disk Groups
1)重啟新節(jié)點(diǎn);
2)在新節(jié)點(diǎn)上查看ASM Disks,應(yīng)該與原集群中的其它節(jié)點(diǎn)一致:
oracleasm listdisks
OCRVD_DISK01
OCRVD_DISK02
OCRVD_DISK03
DATA_DISK03
DATA_DISK04
DATA_DISK05
DATA_DISK06
FRA_DISK01
FRA_DISK02
FRA_DISK03
FRA_DISK04
FRA_DISK05
FRA_DISK06
ACFS_DISK01
ACFS_DISK02
DATA_DISK01
DATA_DISK02
2.4 擴(kuò)展CRS Home到新節(jié)點(diǎn)
2.4.1 在CRS Home運(yùn)行addNode.sh腳本
1)驗(yàn)證所有節(jié)點(diǎn)上root用戶的umask為022;
2)使用grid用戶登陸節(jié)點(diǎn)一,運(yùn)行addNode.sh腳本:
$ export IGNORE_PREADDNODE_CHECKS=Y
$ cd $ORACLE_HOME/oui/bin
$ ./addNode.sh -silent \
"CLUSTER_NEW_NODES={cnsh230246}" "CLUSTER_NEW_VIRTUAL_HOSTNAMES={cnsh230246-vip}"
2.4.2 在新節(jié)點(diǎn)上運(yùn)行root.sh腳本加入集群
1)在新節(jié)點(diǎn)上使用root運(yùn)行如下腳本,將cnsh230246添加到cluster中:
/oracle_grid/app/oraInventory/orainstRoot.sh
/oracle_grid/11.2.0/grid/root.sh
2)檢查集群的狀態(tài),新節(jié)點(diǎn)cnsh230246成功加入集群:
$ crsctl stat res -t
NAME TARGET STATE SERVER STATE_DETAILS
Local Resources
ora.ACFS_DG.dg
ONLINE ONLINE cnsh230244ONLINE ONLINE cnsh230245OFFLINE OFFLINE cnsh230246ora.DATA_DG.dg
ONLINE ONLINE cnsh230244ONLINE ONLINE cnsh230245OFFLINE OFFLINE cnsh230246ora.FRA_DG.dg
ONLINE ONLINE cnsh230244ONLINE ONLINE cnsh230245OFFLINE OFFLINE cnsh230246ora.LISTENER.lsnr
ONLINE ONLINE cnsh230244ONLINE ONLINE cnsh230245ONLINE ONLINE cnsh230246ora.OCRVD_DG.dg
ONLINE ONLINE cnsh230244ONLINE ONLINE cnsh230245ONLINE ONLINE cnsh230246ora.acfs_dg.testdb11_lv.acfs
ONLINE ONLINE cnsh230244ONLINE ONLINE cnsh230245OFFLINE OFFLINE cnsh230246ora.asm
ONLINE ONLINE cnsh230244 StartedONLINE ONLINE cnsh230245 StartedONLINE ONLINE cnsh230246 Startedora.eons
ONLINE ONLINE cnsh230244ONLINE ONLINE cnsh230245ONLINE ONLINE cnsh230246ora.gsd
OFFLINE OFFLINE cnsh230244OFFLINE OFFLINE cnsh230245OFFLINE OFFLINE cnsh230246ora.net1.network
ONLINE ONLINE cnsh230244ONLINE ONLINE cnsh230245ONLINE ONLINE cnsh230246ora.ons
ONLINE ONLINE cnsh230244ONLINE ONLINE cnsh230245ONLINE ONLINE cnsh230246ora.registry.acfs
ONLINE ONLINE cnsh230244ONLINE ONLINE cnsh230245ONLINE ONLINE cnsh230246Cluster Resources
ora.LISTENER_SCAN1.lsnr
1 ONLINE ONLINE cnsh230244ora.cnsh230244.vip
1 ONLINE ONLINE cnsh230244ora.cnsh230245.vip
1 ONLINE ONLINE cnsh230245ora.cnsh230246.vip
1 ONLINE ONLINE cnsh230246ora.oc4j
1 OFFLINE OFFLINEora.scan1.vip
1 ONLINE ONLINE cnsh230244testdb11
1 ONLINE ONLINE cnsh230244testdb11.db
1 ONLINE ONLINE cnsh230244testdb11.head
1 ONLINE ONLINE cnsh230244testdb11.lsnr
1 ONLINE ONLINE cnsh230244testdb11.vip
1 ONLINE ONLINE cnsh2302443)上面顯示有幾個(gè)資源沒(méi)有Online,手工進(jìn)行啟動(dòng):
$ crsctl start res ora.ACFS_DG.dg -n cnsh230246
CRS-2672: Attempting to start 'ora.ACFS_DG.dg' on 'cnsh230246'
CRS-2676: Start of 'ora.ACFS_DG.dg' on 'cnsh230246' succeeded
$ crsctl start res ora.DATA_DG.dg -n cnsh230246
CRS-2672: Attempting to start 'ora.DATA_DG.dg' on 'cnsh230246'
CRS-2676: Start of 'ora.DATA_DG.dg' on 'cnsh230246' succeeded
$ crsctl start res ora.FRA_DG.dg -n cnsh230246
CRS-2672: Attempting to start 'ora.FRA_DG.dg' on 'cnsh230246'
CRS-2676: Start of 'ora.FRA_DG.dg' on 'cnsh230246' succeeded
$ crsctl start res ora.acfs_dg.testdb11_lv.acfs -n cnsh230246
CRS-2672: Attempting to start 'ora.acfs_dg.testdb11_lv.acfs' on 'cnsh230246'
CRS-2676: Start of 'ora.acfs_dg.testdb11_lv.acfs' on 'cnsh230246' succeeded
2.4.3 修改新節(jié)點(diǎn)上數(shù)據(jù)庫(kù)啟動(dòng)腳本的的權(quán)限
1)使用root用戶登陸新節(jié)點(diǎn),修改各個(gè)DB啟動(dòng)腳本目錄的權(quán)限:
chown -R :oinstall /oracle_grid/11.2.0/grid/crs/public/
chmod -R 755 /oracle_grid/11.2.0/grid/crs/public/
2.5 擴(kuò)展Oracle Home到新節(jié)點(diǎn)
注:如果有多套Oracle軟件,則需要分別將其擴(kuò)展到新節(jié)點(diǎn)。下面以testdb11數(shù)據(jù)庫(kù)為例。
2.5.1 新節(jié)點(diǎn)上的環(huán)境配置
1)創(chuàng)建用戶和組:
在“2.2.2 創(chuàng)建用戶和組”已經(jīng)創(chuàng)建了新節(jié)點(diǎn)的DB用戶,不用再實(shí)施。
2)配置SSH無(wú)密碼登陸:
在“2.2.9 配置SSH無(wú)密碼登陸”已經(jīng)配置過(guò)新節(jié)點(diǎn)的GI及所有DB用戶無(wú)密碼登陸,不用再實(shí)施。
3)設(shè)置環(huán)境變量:
在“2.2.2 創(chuàng)建用戶和組”已經(jīng)配置過(guò)新節(jié)點(diǎn)所有DB用戶的環(huán)境變量,不用再實(shí)施。
4)檢查確認(rèn)DB Home已經(jīng)掛載:
df -h
……
/dev/asm/testdb11_lv-2
2.5.2 使用CVU進(jìn)行安裝前檢查
1)使用ostestdb11用戶登陸節(jié)點(diǎn)一,保證安裝前檢查成功:
$ cd $ORACLE_HOME/oui/bin
$ export SRVM_TRACE=false
$ cluvfy stage -pre nodeadd -n cnsh230246 -verbose
Performing pre-checks for node addition
Checking node reachability...
Check: Node reachability from node "cnsh230244"
Destination Node Reachable?
------------------------------------ ------------------------
cnsh230246 yes
Result: Node reachability check passed from node "cnsh230244"
Checking user equivalence...
Check: User equivalence for user "ostestdb11"
Node Name Comment
------------------------------------ ------------------------
cnsh230246 passed
Result: User equivalence check passed for user "ostestdb11"
WARNING:
Node "cnsh230246" already appears to be part of cluster
Pre-check for node addition was successful.
2.5.3 在Oracle Home運(yùn)行addNode.sh腳本
1)使用ostestdb11用戶登陸節(jié)點(diǎn)一,運(yùn)行addNode.sh腳本:
$ export IGNORE_PREADDNODE_CHECKS=Y
$ cd $ORACLE_HOME/oui/bin
$ ./addNode.sh -silent "CLUSTER_NEW_NODES={cnsh230246}"
2.5.4 在新節(jié)點(diǎn)上運(yùn)行root.sh腳本
1)使用root用戶登陸新節(jié)點(diǎn)(cnsh230246),運(yùn)行root.sh腳本:
/paic/hq/testdb11/data/app/oracle/product/11.2.0/root.sh
Running Oracle 11g root script...
The following environment variables are set as:
ORACLE_OWNER= ostestdb11 ORACLE_HOME= /paic/hq/testdb11/data/app/oracle/product/11.2.0Enter the full pathname of the local bin directory: [/usr/local/bin]:
The contents of "dbhome" have not changed. No need to overwrite.
The contents of "oraenv" have not changed. No need to overwrite.
The contents of "coraenv" have not changed. No need to overwrite.
Entries will be added to the /etc/oratab file as needed by
Database Configuration Assistant when a database is created
Finished running generic part of root script.
Now product-specific root actions will be performed.
Finished product-specific root actions.
2.5.5 同步新節(jié)點(diǎn)上的oratab文件
1)在節(jié)點(diǎn)一上的/etc/oratab文件中找到該DB的相關(guān)行,復(fù)制并添加到新節(jié)點(diǎn)的/etc/oratab文件中:
testdb11:/paic/hq/testdb11/data/app/oracle/product/11.2.0:N # line added by Agent
2.6 擴(kuò)展資源組的切換域到新節(jié)點(diǎn)
注:根據(jù)實(shí)際需求進(jìn)行serverpool設(shè)置,下面只是作為操作范例。
2.6.1 修改Serverpool成員
1)使用ostestdb11用戶登陸任一節(jié)點(diǎn),在serverpool中新增節(jié)點(diǎn)cnsh230246:
$ crsctl modify serverpool testdb11_sp -attr "PARENT_POOLS=Generic, \
SERVER_NAMES=cnsh230244 cnsh230245 cnsh230246"
2.6.2 資源組切換測(cè)試
1)資源組運(yùn)行在cnsh230244上:
$ crsctl stat res -w "NAME st testdb11" -t
NAME TARGET STATE SERVER STATE_DETAILS
Cluster Resources
testdb11
1 ONLINE ONLINE cnsh230244testdb11.db
1 ONLINE ONLINE cnsh230244testdb11.head
1 ONLINE ONLINE cnsh230244testdb11.lsnr
1 ONLINE ONLINE cnsh230244testdb11.vip
1 ONLINE ONLINE cnsh2302442)將資源組切換到cnsh230246上:
$ crsctl relocate res testdb11 -n cnsh230246 -f
3)資源組成功切換到cnsh230246上:
$ crsctl stat res -w "NAME st testdb11" -t
NAME TARGET STATE SERVER STATE_DETAILS
Cluster Resources
testdb11
1 ONLINE ONLINE cnsh230246testdb11.db
1 ONLINE ONLINE cnsh230246testdb11.head
1 ONLINE ONLINE cnsh230246testdb11.lsnr
1 ONLINE ONLINE cnsh230246testdb11.vip
1 ONLINE ONLINE cnsh2302463 在集群中刪除節(jié)點(diǎn)
3.1 數(shù)據(jù)庫(kù)切換或下線回收
3.1.1 數(shù)據(jù)庫(kù)切換
1)如果要?jiǎng)h除節(jié)點(diǎn)上的數(shù)據(jù)庫(kù)要保留在其它節(jié)點(diǎn)上運(yùn)行,則需要查看所有運(yùn)行在該節(jié)點(diǎn)上的數(shù)據(jù)庫(kù),切換到其它節(jié)點(diǎn)上運(yùn)行:
$ crsctl relocate res testdb11 -f
2)修改serverpool設(shè)置,使數(shù)據(jù)庫(kù)不再運(yùn)行在該節(jié)點(diǎn)上,使用grid用戶登陸節(jié)點(diǎn)一操作:
$ crsctl stat serverpool
NAME=Free
ACTIVE_SERVERS=
NAME=Generic
ACTIVE_SERVERS=cnsh230244 cnsh230245 cnsh230246
NAME=testdb11_sp
ACTIVE_SERVERS=cnsh230244 cnsh230245 cnsh230246
$ crsctl modify serverpool testdb11_sp -attr "PARENT_POOLS=Generic, \
SERVER_NAMES=cnsh230244 cnsh230245"
$ crsctl stat serverpool
NAME=Free
ACTIVE_SERVERS=cnsh230246
NAME=Generic
ACTIVE_SERVERS=cnsh230244 cnsh230245
NAME=testdb11_sp
ACTIVE_SERVERS=cnsh230244 cnsh230245
3.1.2 數(shù)據(jù)庫(kù)下線回收
如果要?jiǎng)h除節(jié)點(diǎn)上的數(shù)據(jù)庫(kù)是要下線的,則需要:
1)在CRS中刪除數(shù)據(jù)庫(kù)的相關(guān)資源;
2)使用dbca刪除數(shù)據(jù)庫(kù);
3)刪除該數(shù)據(jù)庫(kù)的RAC軟件;
4)刪除其它相關(guān)的資源(硬件、存儲(chǔ)等),并按流程下線;
3.2 從Oracle Home中刪除節(jié)點(diǎn)
注:如果有多套Oracle軟件,則需要分別對(duì)各個(gè)Oracle Home進(jìn)行刪除節(jié)點(diǎn)操作。
下面以testdb11數(shù)據(jù)庫(kù)為例。
3.2.1 從Oracle Home中刪除節(jié)點(diǎn)
1)使用ostestdb11用戶登陸要?jiǎng)h除節(jié)點(diǎn)(cnsh230246),更新Inventory:
$ cd $ORACLE_HOME/oui/bin
$ ./runInstaller -updateNodeList ORACLE_HOME=$ORACLE_HOME \
"CLUSTER_NODES={cnsh230246}" -local
注:CLUSTER_NODES參數(shù)為要?jiǎng)h除的節(jié)點(diǎn)名。
Starting Oracle Universal Installer...
Checking swap space: must be greater than 500 MB. Actual 17407 MB Passed
The inventory pointer is located at /etc/oraInst.loc
The inventory is located at /oracle_grid/app/oraInventory/
'UpdateNodeList' was successful.
2)使用ostestdb11用戶登陸要?jiǎng)h除節(jié)點(diǎn)(cnsh230246),運(yùn)行detachHome:
$ cd $ORACLE_HOME/oui/bin
$ ./runInstaller -detachHome ORACLE_HOME=$ORACLE_HOME
Starting Oracle Universal Installer...
Checking swap space: must be greater than 500 MB. Actual 17407 MB Passed
The inventory pointer is located at /etc/oraInst.loc
The inventory is located at /oracle_grid/app/oraInventory/
'DetachHome' was successful.
3)使用ostestdb11用戶登陸其它任一節(jié)點(diǎn)上,更新inventory:
$ cd $ORACLE_HOME/oui/bin
$ ./runInstaller -updateNodeList ORACLE_HOME=$ORACLE_HOME \
"CLUSTER_NODES={cnsh230244,cnsh230245}"
注:CLUSTER_NODES參數(shù)為剩余的所有節(jié)點(diǎn)名,多個(gè)主機(jī)名之間應(yīng)該使用逗號(hào)隔開(kāi)。
Starting Oracle Universal Installer...
Checking swap space: must be greater than 500 MB. Actual 17407 MB Passed
The inventory pointer is located at /etc/oraInst.loc
The inventory is located at /oracle_grid/app/oraInventory/
'UpdateNodeList' was successful.
3.3 從CRS Home中刪除節(jié)點(diǎn)
3.3.1 從cluster中刪除節(jié)點(diǎn)
1)使用root登陸要?jiǎng)h除節(jié)點(diǎn)(cnsh230246),運(yùn)行rootcrs.pl腳本:
cd /oracle_grid/11.2.0/grid/crs/install/
./rootcrs.pl -deconfig -force
2)使用root登陸其它非刪除的節(jié)點(diǎn),運(yùn)行如下命令從cluster中刪除節(jié)點(diǎn):
crsctl delete node -n cnsh230246
CRS-4661: Node cnsh230246 successfully deleted.
以下第3)、4)可以直接使用編寫(xiě)的腳本執(zhí)行
3)使用grid用戶登陸要?jiǎng)h除節(jié)點(diǎn)(cnsh230246),運(yùn)行如下命令:
$ cd $ORACLE_HOME/oui/bin
$ ./runInstaller -updateNodeList ORACLE_HOME=/oracle_grid/11.2.0/grid \
"CLUSTER_NODES={cnsh230246}" -local
注:CLUSTER_NODES參數(shù)為要?jiǎng)h除的節(jié)點(diǎn)名。
Starting Oracle Universal Installer...
Checking swap space: must be greater than 500 MB. Actual 17407 MB Passed
The inventory pointer is located at /etc/oraInst.loc
The inventory is located at /oracle_grid/app/oraInventory/
'UpdateNodeList' was successful.
4)使用grid用戶登陸要?jiǎng)h除節(jié)點(diǎn)(cnsh230246),運(yùn)行如下命令:
$ cd $ORACLE_HOME/deinstall
$ ./deinstall -local
注:腳本運(yùn)行期間會(huì)詢問(wèn)關(guān)于VIP的設(shè)置,直接回車(chē)確認(rèn)即可。直到下面的詢問(wèn)輸入“y”回車(chē):
Do you want to continue (y - yes, n - no)? [n]: y
注:期間需要按類似如下的提示在被刪除節(jié)點(diǎn)上執(zhí)行命令,完成后按回車(chē):
---------------------------------------->
The deconfig command below can be executed in parallel on all the remote nodes. Execute the command on the local node after the execution completes on all the remote nodes.
Run the following command as the root user or the administrator on node "cnsh230246".
/tmp/deinstall2010-10-29_03-31-49PM/perl/bin/perl -I/tmp/deinstall2010-10-29_03-31-49PM/perl/lib -I/tmp/deinstall2010-10-29_03-31-49PM/crs/install /tmp/deinstall2010-10-29_03-31-49PM/crs/install/rootcrs.pl -force -deconfig -paramfile "/tmp/deinstall2010-10-29_03-31-49PM/response/deinstall_Ora11g_gridinfrahome1.rsp"
Press Enter after you finish running the above commands
<----------------------------------------
注:使用root在新窗口中登陸要?jiǎng)h除節(jié)點(diǎn)(cnsh230246):
/tmp/deinstall2010-10-29_03-31-49PM/perl/bin/perl -I/tmp/deinstall2010-10-29_03-31-49PM/perl/lib -I/tmp/deinstall2010-10-29_03-31-49PM/crs/install /tmp/deinstall2010-10-29_03-31-49PM/crs/install/rootcrs.pl -force -deconfig -paramfile "/tmp/deinstall2010-10-29_03-31-49PM/response/deinstall_Ora11g_gridinfrahome1.rsp"
5)使用grid登陸其它非刪除的任一節(jié)點(diǎn),更新cluster節(jié)點(diǎn)列表:
$ cd $ORACLE_HOME/oui/bin
$ ./runInstaller -updateNodeList ORACLE_HOME=$ORACLE_HOME \
"CLUSTER_NODES={cnsh230244,cnsh230245}" CRS=TRUE
注:CLUSTER_NODES參數(shù)為剩余的所有節(jié)點(diǎn)名,多個(gè)主機(jī)名之間應(yīng)該使用逗號(hào)隔開(kāi)。
Starting Oracle Universal Installer...
Checking swap space: must be greater than 500 MB. Actual 17407 MB Passed
The inventory pointer is located at /etc/oraInst.loc
The inventory is located at /oracle_grid/app/oraInventory/
6)使用grid登陸其它非刪除的節(jié)點(diǎn)(cnsh230244),檢查節(jié)點(diǎn)是否在cluster中已被刪除:
$ cd $ORACLE_HOME/oui/bin
$ cluvfy stage -post nodedel -n cnsh230246 -verbose
Performing post-checks for node removal
Checking CRS integrity...
The Oracle clusterware is healthy on node "cnsh230244"
The Oracle clusterware is healthy on node "cnsh230245"
CRS integrity check passed
Result:
Node removal check passed
Post-check for node removal was successful.
3.3.2 已刪除節(jié)點(diǎn)機(jī)器下線
按正常的流程進(jìn)行存儲(chǔ)回收、機(jī)器下線。
4 參考文檔
4.1 Oracle Clusterware Administration and Deployment Guide 11g Release 2
總結(jié)
以上是生活随笔為你收集整理的Oracle 11gR2 GI日常管理手册的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。
- 上一篇: 闪回技术
- 下一篇: [Codeforces702F]T-Sh