Centos6.5搭建集群环境.doc_第1页
Centos6.5搭建集群环境.doc_第2页
Centos6.5搭建集群环境.doc_第3页
Centos6.5搭建集群环境.doc_第4页
Centos6.5搭建集群环境.doc_第5页
已阅读5页,还剩13页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

Centos6.5搭建HA(lvs+heartbeat)集群环境过程引言本文档指导服务器开发或维护人员配置高性能的集群环境,附录还收集了一些服务器搭建的其它相关技术本文档的预期读者是服务器开发或服务器维护技术人员概述:LVS集群结构一般的LVS+heartbeat集群的体系结构以下图所示。LVS集群的体系结构1)Load Balancer层:位于整个集群系统的最前端,有一台或者多台负载调度器(Director Server)组成,LVS模块就安装在Director Server上,而Director的主要作用类似于一个路由器,它含有完成LVS功能所设定的路由表,通过这些路由表把用户的请求分发给Server Array层的应用服务器(Real Server)上。同时,在Director Server上还要安装对Real Server服务的监控模块Ldirectord,此模块用于监测各个Real Server服务的健康状况。在Real Server不可用时把它从LVS路由表中剔除,恢复时重新加入。2)服务器池(server pool),是一组真正执行客户请求的服务器,由一组实际运行应用服务的机器组成,Real Server可以是WEB服务器、MAIL服务器、FTP服务器、DNS服务器、视频服务器中的一个或者多个,每个Real Server之间通过高速的LAN或分布在各地的WAN相连接。在实际的应用中,Director Server也可以同时兼任Real Server的角色。 3)后端存储(backend storage),它为服务器池提供一个共享的存储区,是为所有Real Server提供共享存储空间和内容一致性的存储区域,在物理上,一般有磁盘阵列设备组成,为了提供内容的一致性,一般可以通过NFS网络文件系统共享数据,但是NFS在繁忙的业务系统中,性能并不是很好,此时可以采用集群文件系统,例如Red hat的GFS文件系统,oracle提供的OCFS2文件系统等。4)从整个LVS结构可以看出,Director Server是整个LVS的核心,目前,用于Director Server的操作系统只能是Linux和FreeBSD,linux2.6内核不用任何设置就可以支持LVS功能,对于Real Server,几乎可以是所有的系统平台,Linux、windows、Solaris、AIX、BSD系列都能很好的支持。Director Server服务器上安装了LVS和heartbeat两个核心软件。LVS通过负载均衡算法把用户请求分发到Real Server服务器;heartbeat实现Director Server单点失败问题,通过heartbeat的心跳检测和资源管理,当主Director Server服务器失效后,备Director Server服务器立即接管服务。实现Director Server服务不会中断。LVS简介:参考网址:/2895551/552947LVS是Linux Virtual Server的简称,也就是Linux虚拟服务器, 是一个由章文嵩博士发起的自由软件项目,它的官方站点是,中文官方站点是。现在LVS已经是 Linux标准内核的一部分,在Linux2.4内核以前,使用LVS时必须要重新编译内核以支持LVS功能模块,但是从Linux2.4内核以后,已经完全内置了LVS的各个功能模块,无需给内核打任何补丁,可以直接使用LVS提供的各种功能。使用LVS技术要达到的目标是:通过LVS提供的负载均衡技术和Linux操作系统实现一个高性能、高可用的服务器群集,它具有良好可靠性、可扩展性和可操作性。从而以低廉的成本实现最优的服务性能。LVS集群特点:1) IP负载均衡技术负载均衡技术有很多实现方案,有基于DNS域名轮流解析的方法、有基于客户端调度访问的方法、有基于应用层系统负载的调度方法,还有基于IP地址的调度方法,在这些负载调度算法中,执行效率最高的是IP负载均衡技术。LVS的IP负载均衡技术是通过IPVS模块来实现的,IPVS是LVS集群系统的核心软件,它的主要作用是:安装在Director Server上,同时在Director Server上虚拟出一个IP地址,用户必须通过这个虚拟的IP地址访问服务。这个虚拟IP一般称为LVS的VIP,即Virtual IP。访问的请求首先经过VIP到达负载调度器,然后由负载调度器从Real Server列表中选取一个服务节点响应用户的请求。当用户的请求到达负载调度器后,调度器如何将请求发送到提供服务的Real Server节点,而Real Server节点如何返回数据给用户,是IPVS实现的重点技术,IPVS实现负载均衡机制有三种,分别是NAT、TUN和DR,详述如下:1、 VS/NAT: 即(Virtual Server via Network Address Translation) 也就是网络地址翻译技术实现虚拟服务器,当用户请求到达调度器时,调度器将请求报文的目标地址(即虚拟IP地址)改写成选定的Real Server地址,同时报文的目标端口也改成选定的Real Server的相应端口,最后将报文请求发送到选定的Real Server。在服务器端得到数据后,Real Server返回数据给用户时,需要再次经过负载调度器将报文的源地址和源端口改成虚拟IP地址和相应端口,然后把数据发送给用户,完成整个负载调度过程。可以看出,在NAT方式下,用户请求和响应报文都必须经过Director Server地址重写,当用户请求越来越多时,调度器的处理能力将称为瓶颈。2、 VS/TUN :即(Virtual Server via IP Tunneling)也就是IP隧道技术实现虚拟服务器。它的连接调度和管理与VS/NAT方式一样,只是它的报文转发方法不同,VS/TUN方式中,调度器采用IP隧道技术将用户请求转发到某个Real Server,而这个Real Server将直接响应用户的请求,不再经过前端调度器,此外,对Real Server的地域位置没有要求,可以和Director Server位于同一个网段,也可以是独立的一个网络。因此,在TUN方式中,调度器将只处理用户的报文请求,集群系统的吞吐量大大提高。3、 VS/DR: 即(Virtual Server via Direct Routing)也就是用直接路由技术实现虚拟服务器。它的连接调度和管理与VS/NAT和VS/TUN中的一样,但它的报文转发方法又有不同,VS/DR通过改写请求报文的MAC地址,将请求发送到Real Server,而Real Server将响应直接返回给客户,免去了VS/TUN中的IP隧道开销。这种方式是三种负载调度机制中性能最高最好的,但是必须要求Director Server与Real Server都有一块网卡连在同一物理网段上。2) 负载调度算法负载调度器是根据各个服务器的负载情况,动态地选择一台Real Server响应用户请求,那么动态选择是如何实现呢,其实也就是我们这里要说的负载调度算法,根据不同的网络服务需求和服务器配置,IPVS实现了如下八种负载调度算法,这里我们详细讲述最常用的四种调度算法,剩余的四种调度算法请参考其它资料。1、 轮叫调度(Round Robin)“轮叫”调度也叫1:1调度,调度器通过“轮叫”调度算法将外部用户请求按顺序1:1的分配到集群中的每个Real Server上,这种算法平等地对待每一台Real Server,而不管服务器上实际的负载状况和连接状态。2、 加权轮叫调度(Weighted Round Robin)“加权轮叫”调度算法是根据Real Server的不同处理能力来调度访问请求。可以对每台Real Server设置不同的调度权值,对于性能相对较好的Real Server可以设置较高的权值,而对于处理能力较弱的Real Server,可以设置较低的权值,这样保证了处理能力强的服务器处理更多的访问流量。充分合理的利用了服务器资源。同时,调度器还可以自动查询Real Server的负载情况,并动态地调整其权值。3、 最少链接调度(Least Connections)“最少连接”调度算法动态地将网络请求调度到已建立的链接数最少的服务器上。如果集群系统的真实服务器具有相近的系统性能,采用“最小连接”调度算法可以较好地均衡负载。4、 加权最少链接调度(Weighted Least Connections) “加权最少链接调度”是“最少连接调度”的超集,每个服务节点可以用相应的权值表示其处理能力,而系统管理员可以动态的设置相应的权值,缺省权值为1,加权最小连接调度在分配新连接请求时尽可能使服务节点的已建立连接数和其权值成正比。5、 其它算法其它四种调度算法分别为:基于局部性的最少链接(Locality-Based Least Connections)、带复制的基于局部性最少链接(Locality-Based Least Connections with Replication)、目标地址散列(Destination Hashing)和源地址散列(Source Hashing),对于这四种调度算法的含义,本文不再讲述,如果想深入了解这其余四种调度策略的话,可以登陆LVS中文站点,查阅更详细的信息。3)其它特点1、高可用性LVS是一个基于内核级别的应用软件,因此具有很高的处理性能,用LVS构架的负载均衡集群系统具有优秀的处理能力,每个服务节点的故障不会影响整个系统的正常使用,同时又实现负载的合理均衡,使应用具有超高负荷的服务能力,可支持上百万个并发连接请求。如配置百兆网卡,采用VS/TUN或VS/DR调度技术,整个集群系统的吞吐量可高达1Gbits/s;如配置千兆网卡,则系统的最大吞吐量可接近10Gbits/s。2、高可靠性LVS负载均衡集群软件已经在企业、学校等行业得到了很好的普及应用,国内外很多大型的、关键性的web站点也都采用了LVS集群软件,所以它的可靠性在实践中得到了很好的证实。有很多以LVS做的负载均衡系统,运行很长时间,从未做过重新启动。这些都说明了LVS的高稳定性和高可靠性。3、 适用环境LVS对前端Director Server目前仅支持Linux和FreeBSD系统,但是支持大多数的TCP和UDP协议,支持TCP协议的应用有:HTTP,HTTPS ,FTP,SMTP,POP3,IMAP4,PROXY,LDAP,SSMTP等等。支持UDP协议的应用有:DNS,NTP,ICP,视频、音频流播放协议等。LVS对Real Server的操作系统没有任何限制,Real Server可运行在任何支持TCP/IP的操作系统上,包括Linux,各种Unix(如FreeBSD、Sun Solaris、HP Unix等),Mac/OS和Windows等。4、 开源软件LVS集群软件是按GPL(GNU Public License)许可证发行的自由软件,因此,使用者可以得到软件的源代码,并且可以根据自己的需要进行各种修改,但是修改必须是以GPL方式发行。5、IPVS的管理客户端软件是ipvsadmHeartbeat简介叁考网址:/art/200912/168029.htmHeartbeat的概念Linux-HA的全称是High-Availability Linux,它是一个开源项目。这个开源项目的目标是:通过社区开发者的共同努力,提供一个增强Linux可靠性(reliability)、可用性(availability)和可服务性(serviceability)(RAS)的群集解决方案。其中Heartbeat就是Linux-HA项目中的一个组件,也是目前开源HA项目中最成功的一个例子,它提供了所有HA软件所需要的基本功能,比如心跳检测和资源接管、监测群集中的系统服务、在群集中的节点间转移共享IP地址的所有者等。自1999年开始到现在,Heartbeat在行业内得到了广泛的应用,也发行了很多的版本,可以从Linux-HA的官方网站下载到Heartbeat的最新版本。1)Heartbeat的组成Heartbeat提供了高可用集群最基本的功能,例如,节点间的内部通信方式、集群合作管理机制、监控工具和失效切换功能等,主要分为以下几大部分。1、 heartbeat:节点间通信检测模块。2、 ha-logd:集群事件日志服务。3、 CCM(Consensus Cluster Membership):集群成员一致性管理模块。4、 LRM(Local Resource Manager):本地资源管理模块。5、 Stonith Daemon:使出现问题的节点从集群环境中脱离。6、 CRM(Cluster Resource Management):集群资源管理模块。7、 Cluster policy engine:集群策略引擎。8、 Cluster transition engine:集群转移引擎。Heartbeat结构如下图所示Cluster infrastructure management集群公共接口管理CCM集群资源管理模块Ha-logd集群事件日志服务Heartbeat节点间通信检测模块Local resource management本地资源管理模块stonith daemon节点监护进程local resource manager daemonLRM守护进程(lrmd)Cluster resource management集群资源管理模块Cluster transition engine集群转移引擎Cluster policy engine集群策略引擎Cluster resource management daemonCRM守护进程(crmd)Heartbeat仅仅是个HA软件,它仅能完成心跳监控和资源接管,不会监视它控制的资源或应用程序。要监控资源和应用程序是否运行正常,必须使用第三方的插件,例如ipfail、Mon和Ldirector等。Heartbeat自身包含了几个插件,分别是ipfail、Stonith和Ldirectord,介绍如下。ipfail的功能直接包含在Heartbeat里面,主要用于检测网络故障,并做出合理的反应。为了实现这个功能,ipfail使用ping节点或者ping节点组来检测网络连接是否出现故障,从而及时做出转移措施。Stonith插件可以在一个没有响应的节点恢复后,合理接管集群服务资源,防止数据冲突。当一个节点失效后,会从集群中删除。如果不使用Stonith插件,那么失效的节点可能会导致集群服务在多于一个节点运行,从而造成数据冲突甚至是系统崩溃。因此,使用Stonith插件可以保证共享存储环境中的数据完整性。Ldirector是一个监控集群服务节点运行状态的插件。Ldirector如果监控到集群节点中某个服务出现故障,就屏蔽此节点的对外连接功能,同时将后续请求转移到正常的节点提供服务。这个插件经常用在LVS负载均衡集群中。关于Ldirector插件的使用,将在后续章节详细讲述。同样,对于操作系统自身出现的问题,Heartbeat也无法监控。如果主节点操作系统挂起,一方面可能导致服务中断,另一方面由于主节点资源无法释放,而备份节点却接管了主节点的资源,此时就发生了两个节点同时争用一个资源的状况。针对这个问题,就需要在Linux内核中启用一个叫watchdog的模块。watchdog是一个Linux内核模块,它通过定时向/dev/watchdog设备文件执行写操作,从而确定系统是否正常运行。如果watchdog认为内核挂起,就会重新启动系统,进而释放节点资源。在Linux中完成watchdog功能的软件叫softdog。softdog维护一个内部计时器,此计时器在一个进程写入/dev/watchdog设备文件时更新。如果softdog没有看到进程写入/dev/watchdog文件,就认为内核可能出了故障。watchdog超时周期默认是一分钟,可以通过将watchdog集成到Heartbeat中,从而通过Heartbeat来监控系统是否正常运行。2)Heartbeat的工作原理1、集群成员一致性管理模块(CCM)CCM用于管理集群节点成员,同时管理成员之间的关系和节点间资源的分配。Heartbeat模块负责检测主次节点的运行状态,以决定节点是否失效。ha-logd模块用于记录集群中所有模块和服务的运行信息。2、 本地资源管理器(LRM)LRM负责本地资源的启动、停止和监控,一般由LRM守护进程lrmd和节点监控进程Stonith Daemon组成。lrmd守护进程负责节点间的通信;Stonith Daemon通常是一个Fence设备,主要用于监控节点状态,当一个节点出现问题时处于正常状态的节点会通过Fence设备将其重启或关机以释放IP、磁盘等资源,始终保持资源被一个节点拥有,防止资源争用的发生。3、 集群资源管理模块(CRM)CRM用于处理节点和资源之间的依赖关系,同时,管理节点对资源的使用,一般由CRM守护进程crmd、集群策略引擎和集群转移引擎3个部分组成。集群策略引擎(Cluster policy engine)具体实施这些管理和依赖;集群转移引擎(Cluster transition engine)监控CRM模块的状态,当一个节点出现故障时,负责协调另一个节点上的进程进行合理的资源接管。4、heartbeat集核心模块在Heartbeat集群中,最核心的是Heartbeat模块的心跳监测部分和集群资源管理模块的资源接管部分。心跳监测一般由串行接口通过串口线来实现,两个节点之间通过串口线相互发送报文来告诉对方自己当前的状态。如果在指定的时间内未受到对方发送的报文,就认为对方失效,这时资源接管模块将启动,用来接管运行在对方主机上的资源或者服务。安装和配置集群软件安装前准备工作准备四台服务器,都安装centos6.5操作系统,其中两台做Director Server,另外两台做Real Server服务器,Director Server服务器是双网卡。一根交叉网线连接Director Server两台服务器的网卡。网络及IP地址规划:Director Server节点类型IP地址规划主机名类型主用节点eth0 : 15h1public ipeth1 : private ipeth0:0 : 95virtual ip备用节点eth0 : 94h2public ipeth1 : private ip修改eth1网卡IP地址修改 /etc/sysconfig/network-scripts/ifcfg-eth1。修改前可以先备份一下,在文件输入DEVICE=eth1HWADDR=6C:92:BF:07:93:B9TYPE=EthernetUUID=bd2f490a-f115-465a-9807-8a026f571576ONBOOT=yesNM_CONTROLLED=yes#BOOTPROTO=dhcpBOOTPROTO=staticBROADCAST=55IPADDR= #h2改成 NETMASK=重启网络: service network restart 和 互ping 一下,如果通了就ok安装和配置heartbeatheartbeat是实现 Director Server 核心主备软件,实现Director Server单点失效和服务器主备互换功能,这个软件安装到Director Server服务器,主备都需要安装。安装heartbeat安装heartbeat比较简单,执行下面命令可以安装到服务器yum -y install heartbeat* #主备都要执行注:如果执行 yum -y install heartbeat* 将显示找不到包,需要下载EPEL包和安装,按下面方法解决。yum -y install wget #安装wget,如果已经安装则跳过wget /pub/epel/6/i386/epel-release-6-8.noarch.rpm #下载epel包 rpm -ivh epel-release-6-8.noarch.rpm#安装epelyum -y install heartbeat* 出现如下图所示表示安装成功配置heartbeat配置heartbeat只需要配置三个文件,ha.cf;authkeys;haresources。拷贝配置文件到指定目录cd /usr/share/doc/heartbeat-3.0.4/cp ha.cf authkeys haresources /etc/ha.d/修改ha.cf文件vim /etc/ha.d/ha.cf在文件中修改下列选项,加上#号就是不开启#debugfile /var/log/ha-debug #用于记录 heartbeat 的调试信息,加上#号就是不开启logfile /var/log/ha-log #指名heartbeat的日志存放位置。logfacility local0 #如果未定义上述的日志文件,那么日志信息将送往local0(对应的#/var/log/messages),如果这 3 个日志文件都未定义,那么 heartbeat 默认情况下 将在/var/log 下建立 ha-debug 和 ha-log 来记录 相应的日志信息。bcast eth1 #指明心跳使用以太网广播方式,并且是在eth1接口上 进行 广播。 keepalive 2 #发送心跳报文的间隔,默认单位为秒,如果你毫秒为单位, 那么需要在后面跟 ms 单位,如 1500ms 即代表 1.5s deadtime 30 #指定若备用节点在30秒内没有收到主节点的心跳信 号,则立即接管主节点的服务资源。 warntime 10 #指定心跳延迟的时间为10秒。当10秒钟内备份节点不能接收到主节点的心跳信号时,就会往日志中写入一 个警告日志,但此时不会切换服务。发出最后的心跳 警 告 信息的间隔。initdead 120 #在某些系统上,系统启动或重启之后需要经过一段时 间 网络才能正常工作,该选项用于解决这种情况产生 的时 间间隔。取值至少为deadtime的两倍。 udpport 694 #设置广播/单播通信使用的端口,694为默认使用的端口号 #baud 19200 #设置串行通信的波特率。这里不启用 #serial /dev/ttyS0 #选择串行通信设备,用于双机使用串口线连接的情 况。如果双机使用以太网连接,则应该关闭该选 项。 #ucast eth0 32 #采用网卡eth0的udp单播来组织心跳,后面跟的IP地址应为双机对方的IP地址。 #mcast eth0 694 1 0 #采用网卡eth0的Udp组播来组织心跳,如果采用组 播通讯,在这里可以设置组播通讯所使用的接口,绑定 的组播 ip 地#址(在 - 55 间),通讯端口,ttl(time to live)所能经过路由的跳数,是否允许环回(也就是本地发出的数据包时候还接收) 一般在备用节点不止一台时使用。Bcast、ucast和mcast分别代表广播、单播和组播,是组织心跳的三种方式,任选其一即可。 auto_failback off #用来定义当主节点恢复后,是否将服务自动切回。如 果不想启用,请设置为off,默认为on。heartbeat 的两台主机分别为主节点和备份节点。主节点在正常情况下占用资源并运行所有的服务,遇到故障时把资源交给备份节点并由备份节点运行服务。在该选项设为on 的情况下,一旦主节点恢复运行,则自动获取资源并取代备份节点;如果该选项设置为off,那么当主节点恢复后,将变为备份节点,而原来的备份节点成为主节 点。 #stonith baytech /etc/ha.d/conf/stonith.baytech #stonith的主要作用是使出现问题的节点从集群环境中脱离,进而释放集群资源,避免两个节点争用一个资源的情形发生。保证共享数据的安全性和完整性。 #watchdog /dev/watchdog #该选项是可选配置,是通过Heartbeat来监控系统的 运行状态。使用该特性,需要在内核中载入softdog 内核模块,用来生成实际的设备文件,如果系统中没 有这个内核模块,就需要指定此模块,重新编译内 核。编译完成输入insmod softdog加载该模块。 然后输入grep misc /proc/devices(应为10),输 入cat /proc/misc |grep watchdog(应为 130)。最后,生成设备文件:mknod /dev/watchdog c 10 130 。即可使用此功能。 node h1 #主节点主机名,还需要在/etc/hosts 文件加入15 h2,不然会出错 node h2 #备用节点主机名,还需要在/etc/hosts 文件加入94 h2,不然会出错 ping #选择ping的节点,ping节点选择的越好,HA集群就 越强壮,可以选择固定的路由器作为ping节点,或者 应用服务器但是 最好不要选择集群中的成员作为ping 节点,ping节点 仅仅用来测试网络连接。如果指定了多个ping节点如ping 那么只有当能ping通所有ping节点 时才认为网络是连通的,否则则认为不连通修改authkeysvim /etc/ha.d/authkeys加入如下内容auth 11 crc最后还要把文件权限改成600chmod 600 /etc/ha.d/authkeys修改haresourcesvim /etc/ha.d/haresources加入如下内容h1 05/24/eth0 #备的要改成 h2 05/24/eth0启动heartbeatservice heartbeat start出现如下图所示表示启动成功验证我们的安装是否成第一步:ping 虚拟IP是否通,如果不通,失败。第二步:用putty通过虚拟IP登陆系统,查看连接了哪台前端服务器。第三步:停掉刚刚连接的前端服务器,再用putty通过虚拟IP连接前端服务器,查看是否登陆了另一台前端服务器。如果上述步骤都成功,heartbeat安装和配置成功。安装和配置LVSlvs(Linux Virtual Server )是由章文嵩博士发起的开源项目,可实现服务节点的动态添加或删除,并且添加或删除不会对其它节点造成影响。当访问量高峰来时,可以方便的增加服务器,当访问量少时,可以方便的移除服务,操作过程方便简单。到Linux内核2.6以后,lvs成为内核的一部份,成功Linux的核心功能,不需要重新安装。但配置和使用lvs需要通过ipvsadm接口软件,需要安装ipvsadm并且通过ipvsadm配置和使用lvsipvsadm和heartbeat一起装在前端服务器上,并通过ipvsadm配置使用前端机的lvs功能。安装ipvsadm在前端服务器执行下成命令安装ipvsadm,前端主备服务器都要装。yum -y install ipvsadm出现如下图所示表示安装成功配置lvs本教程配置 lvs的LVS-DR模式,需要在前端服务器和实际服务器配置配置实际服务器(Real Server)实际服务器只需要增加一个lo:0网络地址,IP是我们的虚拟地址05,向自己广播,不能响应外部的arp请求。创建一个ifcfg-lo:0文件cd /etc/sysconfig/network-scripts/cp ifcfg-lo ifcfg-lo:0修改文件内容vim ifcfg-lo:0修改后的文件内容如下DEVICE=lo:0IPADDR=05NETMASK=55#NETWORK=# If youre having problems with gated making /8 a martian,# you can change this to something else (55, for example)BROADCAST=05ONBOOT=yes#NAME=loopback按顺序执行如下命令:service network restart #重启网络,让配置生效route add default gw #指向默认网关echo 1 /proc/sys/net/ipv4/conf/all/arp_ignoreecho 1 /proc/sys/net/ipv4/conf/eth0/arp_ignoreecho 2 /proc/sys/net/ipv4/conf/all/arp_announceecho 2 /proc/sys/net/ipv4/conf/eth0/arp_announceroute add -host 05 dev lo:0 #添加路由,指定报文必须经过lo:0所有实际服务各执行一次。配置前端服务器(通过ipvsadm)ipvsadm -C#清除lvs配置ipvsadm -A -t 05:80 -s rr #rr是轮叫算ipvsadm -a -t 05:80 -r 98 -gipvsadm -a -t 05:80 -r 96 -gipvsadm -S #保存配置配置信息ipvsadm -ln结果显示如下图所示备用前端机也执行相关的命令上面的方法当ipvsadm停止或机器重启后会丢失数据,这里我们写入配置文件,让机器重启后,配置也不会丢失vim /etc/sysconfig/ipvsadm输入下面数据-A -t 05:80 -s rr-a -t 05:80 -r 98 -g-a -t 05:80 -r 96 -g

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论