-
RHCS+oracle
安装配置实施
一、
Information
Service
IP
Virtual IP
Fence IP/IMM2
IP
RHCS
Node1
52.208.110.171
52.208.110.170
52.208.205.151
ricci/cman/rgm
anager/
lvm2-cluster/
fence-*
/
cluster
-glue/resource
p>
-agents/
pacema
ker
RHCS
Node2
52.208.110.172
52.208.110.170
52.208.205.152
ricci/cman/rgm
anager/
lvm2-cluster/
fence-*
/
cluster
-glue/resource
p>
-agents/pacema
ker
RHCS
Server
二、
system base
config
:(
every
node
)
Selinux
off
、
firewall
off
、
NetworkManager off
、
Hostname
、
IP
、
GATEWAY
、
< br>hosts
、
yum
等
52.208.110.161
无
无
Luci
Luci
:
root/qwer!@#$$
IMM2
:
USERID/PASSW0RD
Ricci:
Ricci/qwer!@#$$
IMM2
:
USERID/PASSW0RD
Ricci:
Ricci/qwer!@#$$
Software
User/password
A
、
seliunx off
vi /etc/selinux/config
SELINUX=disabled
B firewall off
chkconfig
iptables off
service iptables stop
C
、
yum
/etc/.d/
(使用目录下默认文件
copy
一份名为
cdrom
文件)
[base]
name=cdrom
baseurl=file:///mnt/cdrom
enabled=1
gpgcheck=1
gpgkey=file:///etc/pki/rpm-gpg/RPM-GPG-
KEY-redhat-release
[HighAvailability]
name=HighAvailability
baseur
l=file:///mnt/cdrom/HighAvailability
enabled=1
gpgcheck=1
gpgkey=file:///etc/pki/rpm-gpg/RPM-GPG-
KEY-redhat-release
[LoadBalancer]
name=LoadBalancer
baseurl=file:///mnt/cdrom/LoadBalancer
enabled=1
gpgcheck=1
gpgkey=file:///etc/pki/rpm-gpg/RPM-GPG-
KEY-redhat-release
[ResilientStorage]
name=ResilientStorage
baseur
l=file:///mnt/cdrom/ResilientStorage
enabled=1
gpgcheck=1
gpgkey=file:///etc/pki/rpm-gpg/RPM-GPG-
KEY-redhat-release
D
、
NetworkManager
off
(
server
noed
除外)
chkconfig
NetworkManager off
service
NetworkManager stop
E
、
software
install
yum -y installfence-* ricci
cman rgmanager
cluster-glue
resource-agentspacemakerlvm2-cluste
(
gfs2-utils
如需要可以安装)
yum -y
install luci
(只在管理节点安装)
F
、
start service
chkconfig ricci on
chkconfig rgmanager on
chkconfig
cman on
service ricci start
service rgmanager start
service cman start
只在管理节点设置启动
chkconfig luci on
service luci
start
修改
ricci
用户的密码
Pa
sswdricci,
改为
root
用
户密码即可
(
也可以使用其他密码
)
G
、安装
I
PMI
相关的程序包
6.x86_
6.x86_64.
6.x86_
6.x86_
6.x86_
6.x86_
< br>建议升级
freeipmi
到下面这个版本
6_5.x86_64
6_5.x86_64
6_5.x86_64
H
、安装多路径软件
yum -y install device-mapper*
chkconfig multipathd on
service multipathd start
使用多
路径后硬盘设备会存放在
/dev/mapper/
下
使用
mpathconf --enable
生成
< br>文件
使用
multipath
-F
删除现有路径
使用
multipath -v2
格式化路径
使用
multipath -ll
查看多路径
为了确保两台服务器存储硬盘
ID
与硬盘别名始终保持一致需
要修改
/etc/
(两台
服务器同步此
文件,
别名和
ID
对应关系可以使用<
/p>
multipath
–
ll
查看到
)
在
multipaths
参数下添加
multipath {
wwid
361c2a04e
alias
mpathb
}
multipath {
wwid
361c2a048
alias
mpathc
}
multipath {
wwid
361c2a045
alias
mpathd
}
multipath {
wwid
361c2a047
alias
mpathe
}
multipath {
wwid
361c2a04c
alias
mpathf
}
multipath {
wwid
361c2a046
alias
mpathg
}
multipath {
wwid
alias
}
multipath {
wwid
alias
}
multipath {
wwid
alias
}
multipath {
wwid
alias
}
multipath {
wwid
alias
}
}
I
、
hosts
361c2a049
mpathh
361c2a04a
mpathi
361c2a04b
mpathj
361c2a04d
mpathk
361c2a04f
mpathl
52.208.110.171 cgvch-podb1
52.208.110.172 cgvch-podb2
52.208.110.161 cgvch-admin
52.208.110.170 cgvchpodbvip
52.208.205.151 IMM2-podb1
52.208.205.152 IMM2-podb2
J
、看一下
node1
能否管理
node2
电源模块
[root@host1
~]# ipmitool-
Ilan-H52.208.205.213-UUSERID-PPASSW0RDpowerstatus
Chassis
Power
is
on
K
、创建
QDISK
< br>盘
mkqdisk -c
/dev/mapper/mpathl -l qdisk
mkqdisk -L
查看仲裁盘
chkconfig
quota_nld on
service quota_nld start
三、
RHCS cluster
config
1
、登录
luciht
tps://IP:8084
使用系统用户名
root
登录
2
、添加节点
名和成员
(
在添加节点是必须有
yum
及系统盘否则会提示无法安装包
)
添加节点时使用的是
ricci
p>
设置的
password
,
Ricci Hostname
是使用在
hosts
表中定义的主机名
(勾选
enable
shared storage
support
,如果勾选
Reboot Nodes
Before Joining Cluster
添
加节点会重启服务器)。
3
、
createsfance
devices
点击
add
,选择
IPMI lan
< br>,输入
Name
、
fence
device IP
、
Login
:<
/p>
USERID
、
password:PA
SSW0RD
、
Authentication Type
p>
:
Password
(各厂家的
FENCE
设备不一样根据情况配置)。
创建完成之后跟节点关联
先添加
fence
< br>method
,方法名随便,之后关联起来创建的
fen
ce
实例。一一对应即可
4
、
creates
Failover Domains
-
-
-
-
-
-
-
-
-
上一篇:电视节目策划方案范文
下一篇:基于VMware搭建RHCS故障转移实验