RHC高可用科目题库.docx_第1页
RHC高可用科目题库.docx_第2页
RHC高可用科目题库.docx_第3页
RHC高可用科目题库.docx_第4页
RHC高可用科目题库.docx_第5页
已阅读5页,还剩3页未读 继续免费阅读

付费下载

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

本手册只针对RHCA-436高可用科目题库,环境、虚拟机配置、yum源等其他方面本文概不涉及版权所有者为Master-ztj,如转载请著名出处,欢迎下载学习,禁止用于商业用途考试环境:1台物理机:3台虚拟机:1. 2. 3.第一题:请配置一个高可用集群,要求如下:1.集群名称:cluster02.集群默认用户的密码请设置为:redhat解:1.三个节点通过yum安装集群组件:yum y install pcs fence-virt fence-virtd fence-virtd-* fence-agents-all如果太长,记不住可以这样yum y install pcs fence*2. 三个节点关闭防火墙或使防火墙通过集群服务,建议使用方法2systemctldisable firewalldsystemctl stop firewalld或firewall-cmd - -permanent - -add-service=http #后续题里面会有http服务firewall-cmd - -permanent - -add-service=high-availablity #集群服务firewall-cmd - -permanent - -add-port=1229/tcp #tcp协议下fence端口打开firewall-cmd - -permanent - -add-port=1229/udp #udp协议下fence端口打开firewall-cmd - -reload #防火墙策略刷新,使其即时生效请注意上文中单 - 和双 - -的区别3. 三个节点启动pcsd服务systemctl enable pcsd ; systemctl start pcsd4.单节点效验虚拟机是否符合集群要求pcs cluster auth nodea,b,c.private.example #此命令单节点运行即可,命令中的那个大括号为正则表达式代表和的关系输入集群默认用户:hacluster 密码:redhat提示Authorized代表配置是没有问题的5. pcs cluster setup -name cluster0 nodea,b, #建立名称为cluster0的集群 集群内主机名称为nodea、nodeb、nodec6. pcs cluster enable -all#将集群设置为开机自启,这里先不要用start命令启动集群第二题,配置集群的fence功能,此功能的作用是手动切换资源,防止集群脑裂背景:1.这里我们使用fence_xvm方式来配置集群fence功能2.环境里面需要在物理机上使用:dd if=/dev/urandom of=/etc/cluster/fence_xvm.key bs=1K count=4 这条命令创建fence密钥 “fence_xvm.key”然后CP到3个节点的/etc/cluster/目录下,拷贝之前,还需要在物理上运行fence_virtd -c命令来配置fence功能使用哪块网卡,一般选择私网的那块网卡,环境配置,这里就不多讲了解:1.pcs cluster start -all #启动集群2.pcs stonith create fence_nodea fence_xvm port=”nodea” pcmk_host_list= #单节点输入即可pcs stonith create fence_nodeb fence_xvm port=”nodeb” pcmk_host_list=pcs stonith create fence_nodec fence_xvm port=”nodec” pcmk_host_list=3.pcs stonith show pcs stonith -full pcs status #查看fence服务是否启动,配置是否正常如下图所示如上所示代表集群fence功能正常,集群状态正常第三题,配置集群的日志文件为本地/var/log目录下的nodea.log nodeb.log nodec.log解:1.vim /etc/corosync/corosync.conf最下面logging to_syslog: yes在这行下面添加:to_file: yeslogfile: /var/log/nodea.log绿色这2行然后:按ESC在冒号后面输入wq 保存退出重启集群服务pcs cluster stop -allpcs cluster start -allcat /var/log/nodea.log查看是否有内容,如下图所示:代表成功将日志文件改写定位第四题,配置集群报警邮箱地址为资源名称为:ClusterAlert解:1. pcs resource create clustermonitor mailto email= subject=ClusterAlert -group clustergroup第七题和第八题一起来,配置集群iscsi磁盘和多路径背景:这里先做7/8/9/10 再做5/61. yum -y install iscsi-initiator-utils device-mapper-multipath装iscsi和多路径包2. vim /etc/iscsi/initiatorname.iscsi编辑iscsi配置文件改为:InitiatorName=.example:nodea另外2台机器分别改为:InitiatorName=.example:nodebInitiatorName=.example:nodec保存后三台机器都要改下链接刷新值sed -i s/120/5/g /etc/iscsi/iscsi.conf从2分钟改为5秒3. iscsiadm -m discovery -t st -p :3260iscsiadm -m discovery -t st -p :3260iscsiadm -m node -l配置iscsi链接,如下图所示fdisk -l 查看磁盘4.配置多路径软件mpathconf -enable启用多路径配置文件修改 vim /etc/multipath.conf在最后的大括号中添加 : devnode “vda-z” 如下图所示:保存退出5.输入multipath -v3multipath -ll将2个盘虚拟为1个,fdisk -l 查看结果如图所示将sda和sdb 虚拟为mpatha第九题,配置集群资源磁盘锁和文件系统1.pcs resource create dlm controld op monitor interval=30s on-fail=fence clone interleave=true ordered=truepcs resource create clvmd clvm op monitor interval=30s on-fail=fence clone interleave=true ordered=true创建dlm和clvmd这2个集群资源2.pcs constraint order start dlm-clone then clvmd-clone设置先启动dlm 再启动 clvmdpcs constraint colocation add clvmd-clone with dlm-clone设置clvmd随dlm一起启动3.yum -y install dlm lvm2-cluster gfs2-utils安装dlm锁、lvm2和gfs2文件系统lvmconf -enable-cluster启用lvm集群管理功能systemctl stop lvm2-lvmetad.service停止本地lvm服务pcs property set no-quorum-policy=freeze 配置no-quorum-policy为freeze4.pvcreate /dev/mapper/mpathavgcreate -Ay -cy clustervg /dev/mapper/mpathalvcreate -L 1G -n servicedata clustervgmkfs.gfs2 -j3 -p lock_dlm -t cluster0:data /dev/clustervg/servicedata创建pv vg lv 并格式化为gfs2文件系统按y 然后回车,格式化格式化完毕第十题,创建集群文件系统clusterfs解:1. pcs resource create clusterfs Filesystem device=/dev/clustervg/servicedata directory=/var/www/ fstype=gfs2 options=noatime op monitor interval=10s on-fail=fence clone interleave=true单节点输入即可2.pcs resource show clusterfs 查看资源3. pcs constraint order start clvmd-clone then clusterfs-clone配置启动顺序先启锁再启文件系统4. pcs constraint colocation add clusterfs-clone with clvmd-clone锁成功启动后,启动文件系统第五题和第六题配置集群阿帕奇服务,使集群服务永不在nodea上运行,资源首先会在nodeb上运行,如果nodeb宕掉,资源会顺利漂移到nodec上解:1. yum -y install httpd 安装阿帕奇包2. cd /var/www/html3. cat index.html EOF 自己写一个网页文件,考试的时候会给你一个写好的4. pcs resource create clusterservice apache -group clustergroup pcs resource create clusterip IPaddr2 ip=8 cidr_netmask=24 -group clustergrouppcs constraint order start clusterfs-clone then clustergroup创建apache服务资源和漂移IP资源,先启动集群文件系统再启动集群资源如下图所示:5.配置集群资源在nodeb节点上运行,并且永不在nodea上运行pcs constraint location c

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论