锐捷网络 数据中心 云计算_第1页
锐捷网络 数据中心 云计算_第2页
锐捷网络 数据中心 云计算_第3页
锐捷网络 数据中心 云计算_第4页
锐捷网络 数据中心 云计算_第5页
已阅读5页,还剩48页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

1、锐捷网络:三层面看数据中心建设历程 大中小 数据中心(Data Center,DC)是数据大集中而形成的集成IT应用环境,是各种IT应用业务的提供中心,是数据计算、网络传输、存储的中心。数据中心实现了IT基础设施、业务应用、数据的统一、安全策略的统一部署与运维管理。 数据中心是当前运营商和各行业的IT建设重点。运营商、大型企业、金融证券、政府、能源、电力、交通、教育、制造业、网站和电子商务公司等正在进行或已完成数据中心建设,通过数据中心的建设,实现对IT信息系统的整合和集中管理,提升内部的运营和管理效率以及对外的服务水平,同时降低IT建设的TCO。 数据中心建设的三个层面 基于锐捷网络在数据通

2、信领域的长期研发与技术积累,纵观数据中心发展历程,数据中心的发展可分为三个层面: 1.数据中心端到端网络整合:根据业务需求,基于开放标准的IP协议,完成对企业现有异构业务系统、网络资源和IT资源的整合,解决如何建设数据中心的问题。数据中心端到端网络的设计以功能分区、网络分层和服务器分级为原则和特点。通过多种高可用技术和良好网络设计,实现数据中心可靠运行,保证业务的永续性; 2.数据中心虚拟化:传统的应用孤岛式的数据中心模型扩展性差,核心资源的分配与业务应用发展出现不匹配,使得资源利用不均匀,导致运行成本提高、现有投资无法达到最优化的利用、新业务部署难度增大、现有业务持续性得不到保证、安全面临威

3、胁。虚拟化通过构建共享的资源池,实现对网络资源、计算计算和存储资源的几种管理、规划和控制,简化管理维护、提高设备资源利用率、优化业务流程部署、降低维护成本。 3.数据中心应用安全与资源智能:基于TCP/IP的开放架构,保证各种新业务和应用在数据中心的基础体系架构上平滑部署和升级,满足用户的多变需求,保证数据中心的持续服务和业务连续性。各种应用的安全、优化与集成可以无缝的部署在数据中心之上。通过智能化管理平台实现对资源的智能化管理,资源智能分配调度,构建高度智能、自动化数据中心。 云计算对数据中心基础架构挑战 云的基本特征是动态、弹性、灵活,按需计算,传统的网络架构与技术虽然也能构筑云计算的基础

4、平台,但是因此而形成的传统运行架构却无法支撑如此动态化的IT业务要求。它必然要求一种新的数据中心IT运行模式,将大量的计算资源以动态、按需的服务方式供应和部署。 传统业务结构下,由于多种技术之间的孤立性(LAN与SAN),使得数据中心服务器总是提供多个对外IO接口:用于数据计算与交互的LAN接口以及数据访问的存储接口,某些特殊环境如特定HPC(高性能计算)环境下的超低时延接口。服务器的多个IO接口导致了数据中心环境下多个独立运行的网络同时存在,不仅使得数据中心布线复杂,不同的网络、接口形体造成的异构还直接增加了额外人员的运行维护、培训管理等高昂成本投入,特别是存储网络的低兼容性特点,使得数据中

5、心的业务扩展往往存在约束。 由于传统应用对IT资源的独占性(如单个应用独占服务器),使得数据中心的业务密度低,造成有限的物理空间难以满足业务快速发展要求,而已有的系统则资源利用效率低下。而且,传统业务模式下,由于规模小,业务遵循按需规划,企业应用部署过程复杂、周期漫长,难以满足灵活的IT运行要求。 在云计算这种变革性运营与服务模式下,必须能够解决成本、弹性、按需增长的业务要求,并改进与优化IT运行架构。因此:云计算服务必然要求一种大规模的数据中心IT运行方式,在极大程度上降低云计算基础设施的单位建设成本,大幅降低运行维护的单位投入成本。通过网络与I/O的整合来消除数据中心的异构网络与接口环境,

6、云计算中心需要优化、简化的布线与网络环境。 由于其业务集中度、服务的客户数量远超过传统的企业数据中心,导致了高带宽的业务流,亚马逊对外公布其2008年提供云计算服务后,云服务的带宽增长速度远高于其WEB服务的带宽增长。 总的来说,为满足云计算的业务要求,统一的基础网络要素必然包括:超高速交换、统一交换、虚拟化交换、透明化交换。 优化、简化的布线与网络环境 I/O整合,统一交换 高性能交换 弹性、灵活,按需计算,虚拟化的应用服务器虚拟化带来网络接入层的变化 大中小 现有解决方案及问题 由于一个虚拟机上可能存在多个虚拟后的系统,系统之间通讯就需要通过网络,但和普通的物理系统间通过实体网络设备互联不

7、同,虚拟系统的网络接口也是虚拟的,因此不能直接通过实体网络设备互联。 目前流行的一种解决方案是:vSwitch技术。vSwitch作为最早出现的一种的网络虚拟化技术,已经在Linux Bridge、VMWare vSwitch等软件产品中实现。所谓的vSwitch,就是VEB技术,即将虚拟网桥完全在服务器(终端)硬件上实现,不涉及外部交换机的协作。 参考虚拟机的实现方式,将网络设备也虚拟化,并绑定在虚拟机中,这样虚拟机上的网络接口可以不需要经过实体网络,直接在虚拟机内部通过虚拟交换机等虚拟的网络设备进行互联。 如上图所述,跟普通服务器设备一样,每个虚拟机有着自己的虚拟网卡(virtual NI

8、C),每个virtual NIC有着自己的MAC地址和IP地址。Virtual Switch(vSwitch)相当于一个虚拟的二层交换机,ABCDE便是交换机上的虚拟端口,该交换机连接虚拟网卡和物理网卡,将虚拟机上的数据报文从物理网口转发出去。根据需要,vSwitch还可以支持二层转发、安全控制、端口镜像等功能。物理主机(服务器)虚拟交换机,用于虚拟机互访(本质上就是一种“软”交换机的行为,软件虚拟出来交换机): 性能低,特性少; 模糊了主机和网络管理界面; 带来的问题: 1、流量无法监控 ,存在安全隐患 从虚拟机到物理服务器之外的流量可以通过交换机镜像、网流分析设备进行监控;虚拟机之间的流量

9、无法进行监控; 2、无法实施安全策略 数据中心服务器之间采用了矩阵式的访问控制策略。问题: 不同的虚拟机之间需要通过ACL实现访问控制; 传统的VSwitch 实现ACL需要消耗CPU资源,对服务器性能有影响; 安全策略与VM的迁移紧绑定问题需解决; 3、管理边界不清 (模糊了主机和网络管理界面,服务器和网络管理员的管理界面) 物理服务器中的逻辑网络由谁管?相似的情况:刀片服务器中的交换机模块由谁管?在管理权限上,网络管理员基本不能管理到vSwitch,而主机管理员也不愿意在网络配置上花太多的时间,这样导致vSwitch游离于网络整体管理之外,不利于整体网络策略以及网络安全的实现。 4、影响服

10、务器性能 考虑到在一台物理服务器上可能运行数十个虚拟机,再掺杂上数据中心的交换时,情况会非常复杂。给虚拟机增加这样一种智能,会给服务器额外增加大量的网络处理负载,并且由于虚拟交换机仅仅是通过一种软件实现,在功能和性能上必然无法与传统的实体网络设备相媲美。既然实体交换机已经实现了所有这些功能,就没有必要在虚拟机上进行这些重复操作。 数据中心接入层虚拟交换 物理主机(服务器)虚拟交换机,用于虚拟机互访(本质上就是一种“软”交换机的行为,软件虚拟出来交换机)。 采用一种“硬”交换机的思路,将虚拟机的交换能力回归到交换机 ,性能保证,特性丰富 ,管理界面清晰 。 指定一种Edge Virtual Br

11、idging(EVB)标准,该标准基于一个名为Virtual Ethernet Port Aggregator (VEPA) 的技术。通过VEPA,来自于VM的所有流量都会被转发到邻近的物理接入交换机,或者当目标VM也位于同一个服务器时被转回到相同的物理服务器。 部署方案: 在数据中心接入层部署支持EVB国际标准的数据中心交换机,与服务器端虚拟化软件联动即可支持将流量上引至交换机上。 通过VEPA和VSI发现功能,将VM的流量统统转移到交换机上来进行传输,可以实现基于VM的流量控制。例如,网络管理员可以应用安全策略阻断某个VM和其他VM的通讯,或者控制该VM只能和某些指定的VM通讯。 带来的好

12、处 提升性能、降低复杂性 ,实现:将高级复杂的网络功能从VM转移到外部网络。 保持NIC(网卡)的低成本电路 ,实现:将高级网络功能调整到外部网络。 一致性控制策略实现 ,实现:将所有流量转发到外部网络,网络实现更加完备的的强制控制策略。 VM间流量可视性 ,实现:外部网络提供完善的管理工具。 清晰管理边界 ,降低服务器管理人员的网络配置要求 ,降低网络管理人员的配置复杂性。服务器虚拟化与动态迁移基本概念 大中小 服务器虚拟化的基本概念:借助虚拟化软件在一台物理服务器上运行多个操作系统。 虚拟化前: 每台主机一个操作系统; 软件硬件紧密地结合; 在同一主机上运行多个应用程序通常会遭遇沖突; 系

13、统的资源利用率低; 硬件成本高昂而且不够灵活; 虚拟化后: 解除了操作系统和服务器硬件的互相依赖; 每个虚拟机(逻辑服务器)被封装成一个大文件,可拷贝/克隆; 每个系统间逻辑隔离,故障隔离; 虚拟机独立于硬件, 可在其他服务器上运行; 服务器虚拟化的两个术语 在虚拟化中有两个常用的术语:Virtual Machine 、 virtual machine monitor。 Virtual Machine(VM)是指运行在Hypervisor之上,拥有CPU、IO、内存等虚拟硬件资源并可支撑操作系统运行的一个完整的系统平台。 virtual machine monitor(VMM)或叫做Hyper

14、visor,是支持虚拟机运行的软件平台,负责虚拟机(VM)的托管和管理,它直接运行在服务器硬件上,因此其实现直接受底层体系机构的约束。 VMM,有两种典型的实现: 主机实现方案(hosted),也叫做主机虚拟化,实现: VMware Server (GSX)、 VMware Workstation、 VMware Fusion。 Microsoft Virtual PC 、 Microsoft Virtual Server。 裸金属实现方案(bare-metal ),也叫做裸金属虚拟化(当前市场主流产品),实现: VMware ESX Server。 Citrix XenServer。 Mic

15、rosoft Hyper-V。 服务器虚拟化的典型实现 主机虚拟化的结构: VMM 作为一个应用程序运行在通用操作系统之上,操作系统管理资源。 多个虚拟机的OS间相互独立,一个虚拟机宕机不影响其他虚拟机。 操作系统支持的硬件,虚拟机就能支持。 性能低。 裸金属虚拟化的结构: VMM 负责硬件资源的管理。 VM应用层、VM内核、Hypervisor处于不同的CPU特权等级。 多个虚拟机的OS间相互独立,一个虚拟机宕机不影响其他虚拟机。 处理性能高,接近非虚拟化运行模式。 服务器虚拟化的关键特性 分区,在单一物理服务器上同时运行多个虚拟机。 隔离,在同一服务器上的虚拟机之间相互隔离。 封装,整个虚

16、拟机都保存在文件中,而且可以通过移动和复制这些文件的方式来移动和复制该虚拟机。 动态迁移,运行中的VM可实现动态迁移到不同物理及的虚拟平台上。 服务器虚拟化的关键特性动态迁移 1.动态迁移可在 X86架构的 VMWARE ESX上实现,以可以在IBM P6 小型机上实现; 2.在不中断服务的情况下,将VM迁移到其他的物理服务器上; 3.可用在灾备、资源调整、服务器维护等场合; 4.实现迁移的服务器必须在一个二层网络内,VM的GW(网关)在相同设备上。 动态分区迁移技术,允许将正在运行的生产应用程序从一个物理服务器移动到另一个物理服务器动态分区迁移有助于实现连续的可用性目标: 通过动态地将应用程

17、序从一个服务器移动到另一个服务器,减少计划停机时间。 通过允许您将工作负载从负载较重的服务器移动到具有空闲容量的服务器,可以应对不断变化的工作负载和业务需求。 通过允许您简单地整合工作负载,并关闭不使用的服务器,减少能量的消耗。虚拟化在云计算的数据中心 大中小 虚拟化技术最早来自IBM大型机的分区技术,这种操作系统虚拟机技术使得用户可在一台主机上运行多个操作系统,同时运行多个独立的商业应用。 随着X86架构服务器使用越来越广泛,基于X86架构服务器的虚拟化技术一经问世,便开始引导了通用服务器的虚拟化变革历程。VMWare、XEN、微软等厂家在软件体系层面开始引领服务器虚拟化潮流。此前,虚拟化技

18、术在 x86 架构上进展缓慢的主要原因有二:x86 架构本身不适合进行虚拟化;另一个原因则是 x86 处理器的性能不足。随着Intel和AMD在X86架构上的不断修改、X86处理器在性能上的飞速提高,虚拟化的的基本局限得到了解决。 服务器虚拟化的直接效果是导致数据中心具有更高的应用密度,在相同物理空间内逻辑服务器(虚拟机)数量比物理服务器大大增加。由此,服务器的总体业务处理量上升,使得服务器对外吞吐流量增大。 虚拟化计算技术已经逐步成为云计算服务的主要支撑技术,特别是在计算能力租赁、调度的云计算服务领域起着非常关键的作用。 在大规模计算资源集中的云计算数据中心,以X86架构为基准的不同服务器资

19、源,通过虚拟化技术将整个数据中心的计算资源统一抽象出来,形成可以按一定粒度分配的计算资源池,如下图所示。虚拟化后的资源池屏蔽了各种物理服务器的差异,形成了统一的、云内部标准化的逻辑CPU、逻辑内存、逻辑存储空间、逻辑网络接口,任何用户使用的虚拟化资源在调度、供应、度量上都具有一致性。 虚拟化技术不仅消除大规模异构服务器的差异化,其形成的计算池可以具有超级的计算能力(如下图所示),一个云计算中心物理服务器达到数万台是一个很正常的规模。一台物理服务器上运行的虚拟机数量是动态变化的,当前一般是4到20,某些高密度的虚拟机可以达到100:1的虚拟比(即一台物理服务器上运行100个虚拟机),在CPU性能

20、不断增强(主频提升、多核多路)、当前各种硬件虚拟化(CPU指令级虚拟化、内存虚拟化、桥片虚拟化、网卡虚拟化)的辅助下,物理服务器上运行的虚拟机数量会迅猛增加。一个大型IDC中运行数十万个虚拟机是可预见的,当前的云服务IDC在业务规划时,已经在考虑这些因素。数据中心高可用对网络基础设施的需求 大中小 网络的正常运行离不开基础设施,基础设施的可用性同样关键。 需要基础设施同样的高可用 国家标准中对于B、C类机房的场地设施有着明确的冗余或容错设计要求; 电力的冗余供应; 精密空调的备份; 需要一个确保设备长期稳定运行的环境 电力供应; 温度、湿度、洁净度; 防火、防水、防电磁干扰、防震、防雷、防鼠、

21、防虫; 需要一个便于维护的运行环境 完善可靠的供电系统 对主设备负载的可靠不间断供电; 对于辅助设备负载的供电; 后备电力系统与主用电力系统的衔接; 精密空调系统部署 精密空调的冗余性部署; 机房整体的通风散热布局; 机房整体温度与局部热点的处理; 完善可靠的防雷和接地系统 建筑物的防雷设计; 机房的防雷设计; 整个机房和建筑物的综合接地设计; 清晰明了的综合布线系统 选择上走线还是下走线; 选择EOR还是TOR方式布线; 如何建设易于维护、便于扩展、美观的综合布线系统; 可靠的电信线路接入 可靠冗余的ISP线路选择; 完善的ISP线路接入区设置; 便于维护、扩展的接入线路选择; 网络基础设施

22、的其他方面 通过新风送风系统保持机房洁净度; 通过集中监控系统和门禁系统确保机房的安全; 良好的照明系统; 完善的消防系统确保机房的防火等级;数据中心接入层布线设计 大中小 1.接入层形态End-Of-Row 这传统的布线方式,在数据中心的机房中服务器机柜都是成排的摆放,每排服务器机柜的最边缘摆放1到2个网络设备机柜。 所有的服务器是一种比较机柜的上部安装有配线架,这些配线架直通每排机柜最边端的网络机柜上的配线架。网络机柜中安装接入交换机,服务器通过机柜中的配线架接入到网络机柜中的交换机。 这种布局通常用在服务器机柜中的服务器密度不是很高的情况。比如说,服务器都是IBM的2U、4U的小型机,一

23、个机柜42U,也就摆放6-12台左右。 当前大部分机房都按这种方式布线,这种布线的主要问题是从各机柜到列头柜需要铺设大量的铜缆,尤其是从离列头柜最远端的服务器机柜,会拉出一大捆网线。因此对Eod of roW还有一种改进的方法叫做middle of row。也就是在一排服务器机柜的中间摆放1-2个网络机柜,这样的布局可方便网线的铺设和维护。 End of Row: 这是比较传统的布线方式。 网线直接从服务器拉到汇聚/接入交换机,这种方式面临着服务器群接入密度的挑战: 从最远端机架到列头柜的距离比较远,网线拉的比较长; 每排机柜的数量由于列头柜上接入交换机的端口密度限制而有限制。 特点: 比较典

24、型的应用是在机架是交换机做接入; 网线在机房建设的时候就铺好了; 每个服务器机柜6-12服务器。每个服务器机柜4-6KW。每个网络机柜10-20KW; 每台交换机上有多个VLAN/子网; 数据中心的接入交换机设备数量少,管理维护方便; 端口可扩展性较差。 2.接入层形态Top-Of-Rack 如图,这种方式就是在标准的42U的服务器机柜的最上面安装接入交换机。服务器的网口都接入到机柜上部的交换机上。这个接入交换机再通过铜缆或光线接入到网络机柜的汇聚或核心交换机上。这种组网的好处是简化布线,从服务器机柜到列头柜只有很少的电缆。 这种布局要求每个服务器机柜的服务器密度比较高,一般来说都采用1RU的

25、服务器,对于一个42U的机柜,可接入20到30台1RU服务。这种布局可以用在一些对接入密度比较高的IDC机房。 从网络设计上看,TOR布局中每台交换机上的VLAN/子网不会太多,在网络规划的时候也尽量避免让一个VLAN跨了多台交换机,所以TOR布局时一个VLAN范围不会太大,所包含的端口不会太多。但对于EOR来说,一个VLAN范围可能会更大,包含的端口更多。 还有一点,TOR布局的交换机数量多,EOR布局的交换机数量少,所以两者的维护管理工作量也不同。 Top of Rack: 这种组网一般用在大量IRU服务器接入的机房。 一般是每个机架上放一台接入交换机,但有时候根据具体情况也会放多台(还可

26、能堆叠),通常是每机柜15-30台服务器。 布线: 机架内的服务器拉网线到机架内的交换机上; 上联汇聚交换机的链路可以是铜缆双绞线(CAT5E,CAT6),也可以是光线(GE/10G),建议用光纤(易扩展)。 子网和VLAN问题: 可以在一个接入交换上部署多个VLAN/子网,但通常每个交换机上的VLAN/子网较少。 网络端口的可扩展性好。锐捷网络数据中心高可用解决方案 大中小 随着市场竞争的日益加剧,客户对信息系统的依赖性和要求越来越高,保证数据中心的高可用性,提供724小时网络服务成为建网的首要目标,也是数据中心建设关注的第一要素。 导致网络不可用,即网络故障的原因主要有两类: 不可控因素,

27、如自然灾害、战争、大停电、人为破坏等。 通过建设生产中心、本地备份中心、异地容灾中心,即“两地三中心”模式,通过良好的整体规划设计,保证不可控因素影响下数据中心的高可用。 可控因素,如设备故障、链路故障、网络拥塞、维护误操作、恶意攻击等。 锐捷网络在相关产品设计上考虑了诸多因素,提供了全系列的解决方案,包括物理设备、链路层、IP层、传输层和应用层,全方位的提高网络可用性。 硬件设备冗余,如设备双主控、单板热插拔、冗余电源、冗余风扇。 物理链路冗余,如以太网链路聚合等。 环网技术,如:REUP、RERP等技术。 二层路径冗余,如:MSTP、REUP。 三层路径冗余,如:VRRP、ECMP、动态路

28、由快速收敛。 快速故障检测技术,如:BFD等。 不间断转发技术,如GR等。 除了产品高可用性外,锐捷网络在数据中心整体设计上提供完整的高可用方案,具体可分为:服务器接入高可用设计,接入层到汇聚的高可用设计,汇聚层的高可用设计。 1.服务器接入高可用 常见1RU机架式服务器最少三个网口: 两个业务网口; 一个管理网口; 可能带存储网络接口。 也称服务器多网卡接入。为了实现接入高可用,服务器通常采用多链路上行,即服务器的两块甚至多网卡接入,服务器中的网络驱动程序将两块或者多块网卡捆绑成一个虚拟的网卡,如果一个网卡失效,另一个网卡会接管它的MAC地址,两块网卡使用一个IP地址,而且必须位于同一广播域

29、,即同一子网下。 服务器和接入交换机之间的连接方式有几种方式: 服务器采用网卡/链路容错模式接入到盒式交换机; 服务器采用网卡/链路容错模式接入到堆叠交换机组; 服务器采服务器采用交换机容错方式模式分别接入到两台交换机上; 将VLAN Trunk到两台汇聚层设备上用网卡/链路容错模式接入到交换机的不同接口板,交换机采用双主控; 网络可用性从左至右依次升高。推荐采用第四种接入方式。第四种连接方式服务器采用交换机容错模式分别接入到两台机柜式交换机上,并且将VLAN Trunk到两台设备上,实现服务器的高可靠接入。 2.接入层到汇聚的高可用(未采用虚拟化) 接入到汇聚层共有四种连接方式,分别为倒U型

30、接法、U型接法、三角型接法和矩形接法,这里所谓不同类型的接法是以二层链路作为评判依据,比如说矩形接法,从接入到接入,接入到汇聚、汇聚到汇聚均为二层链路连接,因此形成了矩形的二层链路接法。 2.1二层无环路设计,倒U型组网、不使能STP 方案优点: 不启用STP,好管理(网络络接入层不存在二层环路,接入层交换机可以不启用生成树协议,因此网络的配置管理简单)。 VLAN 可以跨汇聚层交换机,服务器部署灵活(服务器的接入VLAN可以跨汇聚交换机,因此能实现VLAN跨不同的接入层交换机,服务器可实现跨接入交换机的二层互联,服务器接入扩展性好)。 必须通过链路聚合保证高可靠性(接入交换机上行汇聚交换机采

31、用捆绑链路,因此上行链路可靠性高,链路的带宽利用率高)。 方案缺点: 汇聚交换机故障时,服务器不可达,无法实现高可靠接入(当汇聚交换机与接入交换机之间的链路中断时,服务器不能感知这种故障,服务器上行流量仍然发送到出现故障的接入交换机,从而形成了“流量黑洞”;)。 机架式服务器适用性分析: 由于存在“流量黑洞”的问题,因此不建议在机架式服务器接入时采用这种组网。 刀片服务器适用性分析: 刀片交换机可通过上行捆绑链路的状态监测机制解决“流量黑洞”问题:刀片交换机在正常运行状态时,周期性的对上行汇聚层交换机的接口进行状态检查,当发现上行接口故障时,该刀片交换机将shutdown其上所有端口。此时,接

32、入到该刀片交换机上的服务器将把流量切换到与另一个刀片交换机相连的网卡上,从而避免了“流量黑洞”。 这种方案配置管理简单,如刀片交换机具备防 “流量黑洞”的特性,则适用于刀片交换机的网络接入。 2.2二层无环路设计,U型组网、不使能STP 方案优点: 不启用STP,好管理(网络络接入层不存在二层环路,接入层交换机可以不启用生成树协议,因此网络的配置管理简单),双active链路,接入交换机密度高。 方案缺点: VLAN不能跨汇聚层,服务器部署不灵活。(服务器的接入VLAN不能跨汇聚层,服务器不能实现跨交换机的二层互联,网络的二层扩展能力有限)。 接入交换机间链路故障,VRRP心跳报文无法传递,整

33、机做VRRP主备切换,故障收敛时间长(服务器网关指向汇聚交换上VRRP的VIP地址,但VRRP心跳报文的传输路径必须经过两台接入交换机,当两台接入层交换机之间的链路发生中断时,两台汇聚交换机都变为VRRP主设备,网络进入三层不稳定状态 )。 机架式服务器适用性分析: 网络接入不具备高可用性,且二层扩展能力有限,因此不建议在机架式服务器接入时采用这种组网。 刀片服务器适用性分析: 网络接入不具备高可用性,二层扩展能力有限,不建议在刀片服务器接入时采用这种组网。 2.3矩形组网,使能STP 方案优点: 双active链路,接入交换机密度高(接入交换机到汇聚交换机间有冗余链路,网络接入层具备高可用性

34、)。 VLAN可以跨汇聚层交换机(服务器接入VLAN可以跨汇聚交换机,能实现VLAN跨不同的接入交换机,服务器可实现跨接入交换机的二层互联,服务器接入扩展性好)。 方案缺点: 一半的接入流量通过汇聚之间的链路。 接入交换机上行链路故障,流量将从一侧的交换机上行,收敛比变小,网络易拥塞,降低网络高可用性 (正常情况时,两台接入交换机之间的链路被生成树协议阻塞。当某台接入交换机上行链路故障时,交换机之间的链路变为转发状态。此时,发生故障的交换机一侧的所有服务器上行流量,将经过另一侧交换机上行到汇聚交换机,该交换机的上行收敛比增加一倍,导致网络发生拥塞,网络转发性能降低)。 机架式服务器适用性分析:

35、 服务器接入具备高可用性和高可扩展性。当一侧接入交换机发生故障时,另一侧交换机拥塞加重,网络转发性能降低,因此不建议在机架式服务器接入时采用这种组网。 刀片服务器适用性分析: 刀片交换机模块需要配置生成树协议,不利于刀片系统的管理维护。且同样存在一侧刀片交换机故障时,网络转发性能下降的问题,因此不建议在刀片服务器接入时采用这种组网。 2.4三角形组网,使能STP 方案优点: 链路冗余,路径冗余,故障收敛时间最短(接入交换机到汇聚交换机有冗余链路,接入网络具备高可用性,且通过MSTP可实现上行流量分担)。 VLAN 可以跨汇聚层交换机,服务器部署灵活(服务器接入VLAN可以跨汇聚交换机,能实现V

36、LAN跨不同的接入交换机,服务器可实现跨接入交换机的二层互联,服务器接入扩展性好)。 方案缺点: 网络配置管理较复杂,为提高二层网络的高可用性与安全性,在接入交换机与汇聚交换机上使能“BPDU保护”、“环路保护”、“根保护”等特性。 机架式服务器适用性分析: 服务器接入网络具备高可用性、高可扩展性,建议在机架式服务器接入时采用这种组网。 刀片服务器适用性分析: 刀片交换机上的配置复杂,可管理性较差,不建议在刀片服务器接入时采用这种组网。 VLAN跨汇聚层带来的灵活性: VLAN可以跨机架,扩展性好。 图中两台黄色的服务器可以配置在一个VLAN中。 这种部署需要管理的设备较多,管理工作量大。 3

37、.汇聚设备高可用 汇聚交换设备之间的VRRP: VRRP协议实现虚拟网关的冗余备份机制,配置多个VRRP组实现网关的负载分担,但要注意当一个网关出现故障时,这种负载分担就失去作用了; 可以通过配置调整网关的优先级来控制VRRP组内master的选举; 合理配置master发送hello报文的时间,这会影响master失效时,backup接替master的响应时间(通常是3个hello时间),但当VRRP组很多时,hello timer设置的过小会增加网关设备CPU的负担; 使用非抢占模式时,可以保持业务流量的稳定、减少倒换次数,避免不必要的中断; 使用抢占模式时,建议配置抢占delay时间,避

38、免网络不稳定时引起VRRP组内master的频繁变化,严重影响业务; 建议在VRRP组内配上对上行端口的监控功能,以提高网络的可用性。 安全、应用优化设备之间的VRRP:可以内置或者旁挂到汇聚交换机上(推荐旁挂,而不是串连到网络中,消除性能瓶颈)。利用HA实现在Master和Backup防火墙设备之间备份关键配置命令和会话表状态信息的备份。通过指定的负载均衡算法,对指向服务器的流量做负载均衡,保证服务器群能尽最大努力向外提供服务,提升服务器的可用性,提升服务器群的处理性能。 4.锐捷网络数据中心交换机设备高可用 接入单机高可用 接入层设备锐捷网络RG-S6200/6000系列支持电源冗余,支持

39、内置冗余电源模块和模块化风扇组件,所有接口板,电源模块以及风扇模块均可以热插拔而不影响设备的正常运行。此外整机还支持电源和风扇的故障检测及告警,可以根据温度的变化自动调节风扇的转速,更好的适应数据中心的环境。还具备设备级和链路级的多重可靠性保护。采用过流保护、过压保护和过热保护技术。 良好的散热及可靠性工业设计: 4风扇设计(红框),有效保证设备内部温度恒定。 双电源设计(篮框),保证数据中心设备正常。 设备前端的散热设计(详见右下图红框),4风扇后端抽风,前端散热。符合数据中心要求。 均支持热插拔。 核心单机高可用 锐捷网络RG-S12000在产品硬件设计上充分考虑了高可靠性的设计。所有的硬

40、件部件均采用了冗余设计的方式。 双引擎热备设计实现数据不间断转发: 设备启动时,主引擎将设备中的配置信息、系统信息以及线卡、风扇、电源等信息全局同步给备份引擎。此后运行过程中,主引擎以增量的方式将信息同步给备份引擎。主引擎出现故障后,备份引擎接替主引擎工作,线卡维持FIB转发表不变,同时备份引擎保留了主引擎同步的各种信息,保证数据的不间断的转发 电源采用1+1冗余设计方式: 单个电源可负载整个交换机的供电,采用1+1备份的方式,当一个电源出现问题时,另外一个电源可接替主电源,保证设备供电。 双电源同时开启时,支持负载均衡式供电。这样原本一个电源承载的符合分担到两个电源上,减少了耗电量。当一个电

41、源出问题时,另外的电源也可负荷整台设备的供电。 6风扇冗余设计,良好的散热设计: 采用6风扇设计,风扇分布在机箱背部左、中、右三部分。对机箱进行散热,保证机箱内部温度均衡。此种设计非常有利于设备安置在没有空调设备的配线间中(设备放置在楼宇做汇聚)。在左、中、右三部分,6个风扇均为上下两个1+1备份(同时工作)的方式,即使1个风扇坏掉,备份风扇也可进行散热,保证设备内部温度均衡 无源背板设计: 传统的背板采用有源设计,一旦有源背板上的ASIC芯片或时钟模块等有源部件出现问题,则影响了整个系统数据传输。 一旦背板上的部件出现故障则整个系统将停止工作。因此高可靠性的系统设计通常要求背板实现无源设计。

42、 数据不间断转发 可靠性特性设计GR/NSF。在没用完美重启技术的时候,因各种原因出现的主备切换,都会造成短时间转发中断(例如如问题设备引入大量外部路由,外部路由需要重新学习),并在全网造成路由振荡。 GR运行过程: 本地路由重启中,不备份路由,保持转发表数据,依赖邻居路由器刷新路由表。 主板故障倒换/重启后需要相邻接点发送完整路由信息。 转发不中断、路由重新学习。 可靠性特性设计NSR(不间断路由): 主备倒换保持路由协议的不间断。 单点部署,无需邻居节点配合。 避免路由协议震荡,网络可用性提升。 通过GR完美重启,或者NSR不间断路由技术,真正实现了在网络核心引擎切换时的0丢包,真正实现了

43、数据的不间断转发。 5.面向云计算:整网虚拟化多变一提升可靠性 随着数据集中在企业信息化领域的展开,新一代的企业级数据中心的建设当前成为行业信息化的新热点。而数据中心建设过程中,随着应用的展开,服务器、存储、网络在数据中心内的不断增长、集中,引起较多的问题。如数据中心有限空间内物理设备数量不断增长,面临巨大的布线、空间压力,而持续增长的高密IT设备功耗、通风、制冷也不断对能耗提出更高要求。服务器、网络、存储等IT设备的性能与容量不断增强,但是总体系统利用率低下,统计显示当前服务器平均利用率为15%,存储利用率在30%-40%。而企业IT的投入仍在不断增加。 因此,对数据中心的资源进行整合、进而

44、虚拟化,以提高数据中心的能效、资源利用率、降低总体运营费用,成为当前IT业内最为令人关注的技术领域。同时,虚拟化对IT 基础设施进行简化、优化。它可以简化对资源以及对资源管理的访问,为新的应用提供更好的支撑。 Gartner信息显示,从当前到2012年,虚拟化应用将在大型企业IT基础设施和日常运营中发挥主导作用,从而给企业IT基础架构的部署、运营、管理带来变革。 数据中心是企业IT架构的核心领域,不论是服务器部署、网络架构设计,都做到精细入微。因此,传统上的数据中心网络架构由于多层结构、安全区域、安全等级、策略部署、路由控制、VLAN划分、二层环路、冗余设计等诸多因素,导致网络结构比较复杂,使

45、得数据中心基础网络的运维管理难度较高。 使用锐捷网络VSU虚拟交换单元虚拟化技术,用户可以将多台设备连接,“横向整合”起来组成一个“联合设备”,并将这些设备看作单一设备进行管理和使用。多个盒式设备整合类似于一台机架式设备,多台框式设备的整合相当于增加了槽位,虚拟化整合后的设备组成了一个逻辑单元,在网络中表现为一个网元节点,管理简单化、配置简单化、可跨设备链路聚合,极大简化网络架构,同时进一步增强冗余可靠性。 网络虚拟交换技术为数据中心建设提供了一个新标准,定义了新一代网络架构,使得各种数据中心的基础网络都能够使用这种灵活的架构,能够帮助企业在构建永续和高度可用的状态化网络的同时,优化网络资源的

46、使用。网络虚拟化技术将在数据中心端到端总体设计中发挥重要作用。 端到端虚拟化数据中心网络架构传统的L2/L3网络设计相比,提供了多项显著优势: 1)运营管理简化。数据中心全局网络虚拟化能够提高运营效率,虚拟化的每一层交换机组被逻辑化为单管理点,包括配置文件和单一网关IP地址,无需VRRP。 2)整体无环设计。跨设备的链路聚合创建了简单的无环路拓扑结构,不再依靠生成树协议(STP)。虚拟交换组内部经由多个万兆互联,在总体设计方面提供了灵活的部署能力。 3)进一步提高可靠性。虚拟化能够优化不间断通信,在一个虚拟交换机成员发生故障时,不再需要进行L2/L3重收敛,能快速实现确定性虚拟交换机的恢复。

47、锐捷网络数据中心交换机,从核心RG-S12000到接入RG-S6200/6000均支持VSU虚拟化,可以再网络中的核心和接入分别进行虚拟化,从而实现网络的整体虚拟化提升网络可靠性。 提升可靠性: 传统网络,网络拓扑复杂管理困难,故障恢复时间一般在秒级。为了增加可靠性,设计了一些冗余链路和设备,网络拓扑变得复杂。同时核心设备一旦不稳定或链路中断,则会导致VRRP或路由协议的震荡,故障恢复一般都在秒级。 使用VSU后,两台核心设备逻辑上变成1台,如下图。此时汇聚到核心双链路上联,等同于双链路连接到1台核心上,实现跨设备链路聚合。 当上联1条链路中断时,也只是聚合链路的一条成员链路出现故障,切换到另

48、一条成员链路的时间是50到200毫秒。即使其中一台核心down机,也不会影响到整网震荡。因为VSU单元(有两台核心)无任何感受。 简化管理: 接入层交换机使用VSU虚拟化,网卡C-Teaming部署大大简化(服务器上网卡部署IP等网络相关配置时极大简化)。 简化路由设计,核心层使用VSU虚拟化,只需2个网段,消耗11个IP(含Loop back接口),物理链路变化不影响路由振荡。 传统方式共需9个网段,消耗42个IP(含Loop back接口),9条链路任一变化将引起路由振荡。 多个路由区域,域内设备节点多,路由设计复杂,有数据流往返路径不一致问题。 6.面向云计算:绿色环保设计 云计算以虚拟

49、化资源池的方式使多用户共享IT设备,可以显著提高IT设备的利用率,降低数据中心的功耗,因此成为绿色数据中心发展趋势中的重要力量。同时,云计算的服务模式也对数据中心的软硬件架构和运维提出了新的要求。如何建设云计算时代的绿色数据中心,成为业界共同探讨的话题。 数据中心是能耗大户,这已经得到了业界一直的认可。有数据显示,随着数据中心的迅速发展,如果不加以控制,未来数据中心能耗将直线上升,23年的能耗将超过数据中心自身建设成本,因此,减少数据中心能耗不单单为企业降低运营成本,更是企业社会责任心的一种体现。 中心绿色的变革(随着在云计算网络中,数据中心的规模变得越来越大,对绿色的要求也越来越高): 早期

50、数据中心建设目标:能够满足高密度、高容量、高安全性,并且具有高可靠性、可扩展性。 新型数据中心对绿色的要求:能够节省成本、节省空间、能够在节能方面做得更好,而且使应用的稳定性更高。 锐捷网络数据中心级产品完全采用了绿色的设计方案,适合数据中心对绿色的要求。 低功耗设计 锐捷网络数据中心交换机系列交换机在芯片选择时,大都采用65nm工艺设计的芯片,从源头上降低系统功耗。 同时,在电路设计时,将节能省耗设计理念应用于每个电路,例如以太网端口的隔离变压器中心抽头电压采用1.8V(旧版使用2.5V),甚至主板上的LED电路的电阻和工作电压选择也考虑了节能。仅以太网口一项,即可节省28%的能耗,对于48

51、 GE Port的设备而言,可以节省的功耗约为4W。同时核心芯片的制程改进,电压从普遍的1.25V、1.5V降低到1.0V,这种电压的降低可以节省20%以上的能耗。 核心与接入设备采用了最新的低功耗设计的芯片,48口万兆功耗370W,比业界同类产品低一倍。RG-S12000核心数据中心设备最低配置环境中,如千兆配置,只需要不到800W的功耗即可实现网络的正常运行。 智能温控系统 锐捷网络数据中心交换机系列交换机采用智能温度检测系统,实时控制系统风扇的转速。保证系统风扇可以根据实际温度进行转速调整,避免了风扇一直高速运转,降低风扇能量消耗。 25摄氏度常温下,风扇转速基本可保持为半转速(约半功率

52、)状态即可满足整机的散热,风扇系统的能耗可降低40%,比如一般的9风扇系统的能耗为54W,常温工作中能耗节省24W,相当于一张低功耗线卡的功率。 良好的散热设计 核心设备区间式风道设计(业界第一家): 锐捷网络数据中心交换机使用区间式风道设计,具有独立的电源风道、板卡风道,提升每路风扇的散热能力和风压利用效率。其风道设计特点显著,每组板卡具有独立的分区风扇,并可以进行分区调整。 锐捷网络接入层数据中心交换机面向数据中心的散热方案: RG-S6200系列交换机支持两种散热方案: -F前后风道模型和-R后前风道模型。适用于大型数据中心的标准散热设计。 -F前后风道模型的散热方案采用前后风道及电源后

53、向散热相结合, -R后前风道模型的散热方案采用后前风道及电源前向散热相结合,以保障设备能在规定的环境下正常工作。锐捷网络云计算数据中心设计:扁平化/100G组网 大中小 如果说提供云计算这种巨型计算服务的IT架构必然是集结了大规模基础资源的数据中心“超级航母”,它也必然要求大规模计算网络与其相适应。 云计算IT资源的大规模集中运营,可极大优化基础资源的分布与调度,下图所示为理想的业务模型。对于使用云计算服务的企业或个人而言,能够满足IT业务的最佳方式为计算能力按需增长、应用部署快速实现、工作负载可动态调整、投入成本规划可控;对于云计算服务供应商而言,为满足大量客户(个人或企业)的IT资源需求,其运营的IT基础架构需要有一个大规模的资源池,可基于服务客户数量的增长、客户业务负载增长的需求变化情况提供匹配的IT资源支持能力。 虚拟化计算技术已经逐步成为云计算服务的主要支撑技术,特别是在计算能力租赁、调度的云计算服务领域起着非常关键的作用。 虚拟化技术不仅消除大规模异构服务器的差异化,其形成的计算池可以具有超级的计算能力(如下图所示),一个云计算中心物理服务器达到数万台是一个很正常的规模。一台物理服务器上运行的虚拟机数量是动态变化的,当前一般是4到20,某些高密度的虚拟机可以达到100:1的虚拟比(

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论