EMC双活数据中心方案_第1页
EMC双活数据中心方案_第2页
EMC双活数据中心方案_第3页
EMC双活数据中心方案_第4页
EMC双活数据中心方案_第5页
已阅读5页,还剩62页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

EMC2

whereinformationlives

存储虚拟化系统方案

书目

第1章项目介绍..........................................................4

1.1项目建设背景.....................................................4

1.2本项目技术需求..................................................5

第2章本项目整体解决方案...............................................6

2.1VPLEX存储虚拟化解决方案.........................................6

第3章项目实施方案....................................................28

3.1EMCVPLEX存储实施规划..........................................28

存储部署.....................................................31

设备安装前管理..............................................31

系统安装调试管理............................................33

安装后管理...................................................36

第4章售后服务方案....................................................37

4.1亿海扬天售后服务方案...........................................37

售后服务支配.................................................37

维护服务对象.................................................37

技术服务范围.................................................37

亿海扬天服务承诺............................................39

保密承诺.....................................................41

技术服务方式承诺............................................42

技术支持及维护服务规范......................................45

技术支持和服务的响应时间....................................51

技术沟通.....................................................52

4.2EMC售后服务方案................................................52

宗旨.........................................................52

安装及调试...................................................53

售后技术支持.................................................58

备件供应.....................................................66

服务期限及服务内容..........................................66

弟1-i早,~?r.项目介绍

1.1项目建设背景

XXXIT数据中心当前有存储四套,服务器若干,应用主要是数据库和视频文件。

由于存储的分散和应用平台的多样性,提高了IT管理困难性、且大大降低了业务

部属的敏捷性。

另外随着电子信息化的发展,越来越多的数据以电子数据的形式保存在各项存

储系统中。因而数据平安也越来越引起人们的关注,一旦数据丢失,对任何一家

单位来说都会产生重大的影响。XXX数据中心目前在数据平安爱护措施上主要依靠

本地的磁带备份,这无法满足日益增长的数据及服务级别提高的耍求。

综上所述,对现有数据中心进行改造,建设成一套集中管理、能快速备份并复

原业务数据的数据中心已燃眉之急。

为了能够更好的将XXX数据中心建设成为一个高牢靠、高平安、可扩展、易维

护、容灾功能完善的数据中心,我们认为必须要明确一个重要的核心定位,这就

是我们设计灾备系统的“一个核心、二个目的”一一建设数据爱护及灾难备份的

服务平台;该服务平台是一个可管理、易管理,并能够便利的为内部业务部门供

应按需部署的数据爱护及灾难备份服务:

■以服务平台的要求来建设数据爱护及灾难备份系统是设计的核心思想

-易于统一管理、能够按需为各业务系统供应数据爱护和灾备服务是系统建

设的主要目的

■另外,建成的数据中心还须要具有较高的敏捷性和可扩展性以适应将来TT

业务的快速发展。

依据用户n前数据中心的现状,我公司结合多年从事高端数据爱护系统集成项

目的阅历,同时对该项目进行深化调研•,对用户的需求深化剖析,已经完全了解

项目的重点及难点,并且完全有信念为用户供应一套完善高效的数据容灾解决方

案。

1.2本项目技术需求

为了整体系统建设的长远发展,我们建议在XXX的数据中心建立起统一数据存

储平台,对现在存储进行集中整合、集中管理,同时在采纳磁盘备份的方式将整

合后存储系统的数据进行快速备份。将来将考虑对本地业务系统数据实现异地容

灾备份,实现牢靠的大型数据平台建设,整体的建设分为三步骤:

1)统一存储数据平台建设

利用高端虚拟化存储建设高可用、可无缝横向扩展、异构存储利旧的数据存储

平台,实现统一集中的数据中心。并可支持本地及远程生产数据的快速备份复原。

2)本地灾备系统

建立起高效、快速的本地数据容备系统。基于存储层面的本地灾备系统,实现

怠外故障宕机快速、刚好复原业务应用系统。爱护关键应用数据零丢失或少丢失。

3)异地容灾系统

通过存储底层的容灾技术,建立起异地数据中心灾备系统,实现异地系统应用

牢靠切换,极短时间内复原业务正常运常,并保证数据不丢失或少丢失。

第2章本项目整体解决方案

2.1VPLEX存储虚拟化解决方案

XXX灾备系统的建设需求不同于传统意义上的“主备”模式的容灾系统,而是

“双活”模式的新一代系统架构。“双活”模式的的架构要求两个中心能够同时处

理业务数据,可以实现对同一个业务系统的负载均衡,当随意一个中心出现故障

时,另一个中心将全面接管业务系统,基本实现业务系统的“零切换”。

在实现“双活”系统时,须要在不同层面加以协作:

•存储层:存储层须要将位于不同数据中心的磁盘阵列系统整合在一起,

首先实现数据在底层的完全同步,其次让位于不同中心的主机识别到一个逻辑

单元(LUN)o

・主机层:主机层包含数据库主机和应用主机。数据库主机须要实现远程

集群,位于两个中心的主机可以识别到同一个LUN,同时集群中的心跳信号也

可以通过IP网络进行传输;应用主机可以分别部署在两个中心,通过网络负

载均衡设备进行应用的负载均衡。

・网络层:网络层的关键在于网络负载均衡设备和其策略的制定,该设备

将负责处理来自不同运营商接口的数据分流到不同的数据中心进行处理,已达

到“双活”中心同时处理业务的目标。

我们将同一个RAC的集群中的两台主机分别放置在生产和备份节点上,这两台

主机形成一个跨数据中心的集群系统,如图中RAC1-1和RAC1-2,RAC2-1和RAC2-2。

这种设置保证了正常状况下,两节点的主机同时工作;一旦其中一个节点的主机

出现故障,业务会无缝的被另外一个节点的主机所接管。此时,RAC的心跳线须要

通过网络来进行连接。主机通过EMCVPLEX系统将数据同时写入到两个节点的存

储系统中,实现数据同步和数据零丢失。

双活数据中心可以实现业务系统同时在两个节点同时工作,达到负载均衡的H

的。当生产节点出现故蹿时,业务系统还能够在备份节点上正常工作,实现业务

零切换。

系统架构设计

通过对XXX公司具体需求的分析,我们建议客户采纳双活中心的容灾架构,o

在这个架构中,存储层除了采纳EMCVPLEX存储系统外,还引进了EMC全新

代数据整合系统VPLEX,由VPLEX实现存储系统高牢靠性和范围内数据高效共享。

本地存储高牢靠性保证

在本方案中,首先我们要满足客户对生产中心存储系统高牢靠性的需求。目前

的TT系统架构中,从应用服务器、数据库服务器到网络等各个部分都已经供应了

高牢靠性的设计,唯独存储系统很少有高牢靠性方案的设计,这主要基于两个缘

由:

•存储系统自身已经有高牢靠性设计,限制器、电源、链路等都是冗

余设计,牢靠性较高,一般状况下很少会发生整体故障,导致数据不行访

问。

•没有特别合适的技术来实现存储系统的高牢靠性保证

现在EMC推出了全新架构的数据整合解决方案一一VPLEX云存储限制整合系

统,VPLEX首先实现了本地存储系统的整合及高牢靠性设计,而且是硬件级别的解

决方案。

在本项目中,生产中心VPLEX首先将两台EMCVPLEX整合在一起,实现存储级

别的HA系统;原有的VPLEX系统也将采纳这一方式实现存储级别的HA。如下图显

示:

1)在两台VPLEX中分别划出两个LUN,LUN-A和LUN-B

•LUN大小一样

•RAID的爱护方式一样

•为了保证性能所分布的硬盘类型和数量最好也一样

将这两个LUN同时映时给VPLEX(通过图中虚线链路),VPLEX可以将这些LUN

进行再次RAID爱护,目前VPLEX支持的RAID爱护级别为:

•RAID0

•RAID1

•分布式RAID1

在实现本地存储HA系统时,运用RAID1爱护方式,形成一个虚拟LUN(V-LUN)o

2)VPLEX通过光纤链路(图中实线链路)将V-LUN安排给主机,主机

可以进行读写操作

3)当主机向Y-LUN写入I/O时,先写入V-LUN,然后再接着写入到两

台VPLEX存储系统中

4)当其中一台存储设备发生故障,整个存储系统能够接着工作,主机

访问存储不会受到任何影响

双活数据中心数据爱护

本次项目客户要求首先实现本地存储高牢靠性爱护外,还须要实现双活数据中

心,既两个数据中心的业务同时运行,任何一个数据中心出现问题,业务都会接

着运行。

通过VPLEX进行数据读写

首先在备份节点上,VPLEX存储系统给VPLEX安排一个LUN,VPELX产生一个

V-LUNo如下图显示:

其次,通过两个节点的VPLEX产生一个分布式虚拟LUN,采纳分布式RAID1

爱护。如下图显示:

两个节点的主机都能够访问到这个虚拟LUN,两节点的主机都能够同时访问这

个分布式虚拟LUN。由于我们供应的是双活数据中心,两个节点中的数据要实时一

样,所以在写入数据时,要确保数据被同时写入到两个节点中,这样才能保证数

据两节点之间的数据一样性。如下图所示:

主机访HVPUX通道VPUh力问存榜通道

1)在生产节点的主机产生I/O;

2)向VPLEX写入I/O,I/O通过VPLEX之间的光纤链路发送到备份节

点的VPLEX上,

3)I/O同时写入到两个节点中的4台存储系统中;

4)备份节点的VPLEX向生产节点VPLEX发出写I/O完成的确认信息

(ACK);

通过VPLEX进行数据读取

EMCVPLEX是一个集群系统供应分布式缓存一样性保证,能够将两个或多个

VPLEX的缓存进行统一管理,从而使主机访问到一个整体的缓存系统。兰主机向

VPLEX的摸一个缓存区域写I/O时,VPLEX缓存将锁定这个缓存区域,同一时刻其

他主机是无法向这个缓存区域写入I/O的。但是,当主机读取I/O时,VPLEX缓存

允很多个主机访问一个缓存区域,尤其是主机访问其他VPLEX集群中其他VPLEX

所管理的数据时,统一个缓存管理睬将这个I/O的具体位置告知主机,主机干脆

访问。如下图显示:

主机故障切换

我们将1个RAC的集群中的两台主机分别放置在生产和备份节点上,这两台主

机形成一个跨数据中心的集群系统,如图中RAC1T和RAC1-2,RAC2-1和RAC2-2。

这种设置保证了正常状况下,两节点的主机同时工作;一旦其中一个节点的主机

出现故障,业务会无缝的被另外一个节点的主机所接管。此时,RAC的心跳线须要

通过网络来进行连接。

存储故障切换

主机故障切换由RAC集群保证,存储系统故障切换则由EMCVPLEX保证。

•EMCVPLEX中设计了一个重要的部件——VPLEXWitness

Witness安装在客户供应的VMwareESXServer上运行的虚拟机,Witness最

好及两个VPLEX集群不在同一地点,针对XXX的状况,建议将Witness放置在办

公机房内。VPLEXWitness运用IP连接监视两个VPLEX群集之间的系统“心跳”

信号。通过监视这些心跳信号,VPLEXWitness可以区分站点故障和站点分区。

VPLEXWitness让应用程序能够承受任何存储故障的影响,包括同时影响整个

存储设备机架的故障。VPLEXWitness及服务器群集软件和AccessAnywhere相

结合,形成了一套端到端的解决方案,允许在服务器出现故障时自动重启。对于双

活数据中心的部署,VPLEXWitness能为客户供应具有零复原点目标(RTO)的高

可用性解决方案。

•由于在生产节点已经通过VPLEX实现存储的HA,所以一个存储系统

出现故障,不会影响到整个系统的正常运行。如图所示:

-主机访问VPIEX通谟VPLEX访问存储通道

•备份节点存储系统出现故障,不会影响到整个系统的正常运行。如

图所示:

•VPLEX系统故障

VPLEX系统自身是全冗余设计,可用性能够达到99.999%,但是为了防止VPLEX

自身出现故障,VPLEX自身有一整套放置系统故障的处理流程,在这个过程中就要

结合上面我们提到的Witness。如下图所示:

WtnewWitnessffMinWitne»5正常工作Witnessajtin

rvr-

V-1iEminV4故».IV-1iDB工作

v-iiEutin

:VQ一停止工作.修

V-2宣・•我”口V-2正常工作V・2―IiEHtffF

.Ia»in■多

正常工体业州iintin

Witnew.

v・i:~~♦件I-

V-2•MW.总锋9

**:*停工作

业力i.停工秀—一»inn.n

Q%一*一*仲工吧作

上图中,①一⑦种状况中,业务正常工作;⑧一⑩种状况中,业务暂停,须要

少量人工干预将业务复原,时间不会超过10分钟。

生产节点发生灾难

假如生产节点发生灾难,则全部业务要切换至备份节点,其过程如上图所示状

况⑨,须要少量人工干预,在这种状况下人工干预是指将V-2短暂中断的工作重

新启动,主机能够重新访问存储系统,最终业务复原。

主机访问VPlEXiS道——VPIEX访问存储涵道

生产节点复原

生产节点修复后,须要重新将生产节点和备份节点的VPLEX关联起来。

主机访问VPLEX通道-----VPLEX请问存健遇道

在VPLEX上重新通过两个节点的VPLEX产生一个分布式虚拟LUN,采纳分布式

RAID1爱护,此时业务可以正常运行,备份节点及生产节点之间的数据在后台进

行复制,直到两边数据一样。在这个过程中,我们还须要将VPLEX的Witness修

复,在其中定义生产节点为主节点。

备份策略

传统备份策略

备份策略一般分为三种:

•完全备份就是拷贝给定计算机或文件系统上的全部文件,而不管它是否被

变更。

•增量备份就是只备份在上一次备份后增加、改动的部分数据。增量备份可

分为多级,每一次增量都源自上一次备份后的改动部分。

•差分备份就是只备份在上一次完全备份后有变更的部分数据。假如只存在

两次备份,则增量备份和差分备份内容一样。

一般在运用过程中,这三种策略常结合运用,常用的方法有:完全备份、完全

备份加增量备份、完全备份加差分备份、完全备份加累加备份。

完全备份会产生大量数据移动,选择每天完全备份的客户常常干脆把磁带介质

连接到每台计算机上(避开通过网络传输数据)。这样,由于人的干预(放置磁带

或填充自动装载设备),磁带驱动器很少成为自动系统的一部分。其结果是较差的

经济效益和较高的人力花费。

完全备份加增量备份源自完全备份,不过削减了数据移动,其思想是较少运用

完全备份。比如说在周六晚上进行完全备份(此时对网络和系统的运用最小)。在

其它6天(周日到周五)则进行增量备份。增量备份会问这样的问题:自昨天以

来,哪些文件发生了变更?这些发生变更的文件将存储在当天的增量备份磁带上。

运用周日到周五的增量备份能保证只移动那些在最近24小时内变更了的文件,

而不是全部文件。由于只有较少的数据移动和存储,增量备份削减了对磁带介质

的需求。对客户来讲则可以在一个自动系统中应用更加集中的磁带库,以便允很

多个客户机共享昂贵的资源。然而,当复原数据时,困难产生了。

在完全+增量方法下,完整的复原过程首先须要复原上周六晚的完全备份。然

后再覆盖自完全备份以来每天的增量备份。该过程最坏的状况是要设置7个磁带

集(每天一个)。假如文件每天都改的话,须要复原7次才能得到最新状态。

由于完全+增量方法中复原很困难,后来有了完全+差异方法。差异成为备份过

程考虑的问题。增量备份考虑:自昨天以来哪些文件变更了?而差异方法考虑:

自完全备份以来哪些文件发生了变更?对于完全备份后马上的备份过程(本例中

周六),因为完全备份就在昨天,所以这两个问题的答案是相同的。但到了周一,

答案不一样了。增量方法会问:昨天以来哪些文件变更了?并备份24小时内变更

了的文件。差异方法问:完全备份以来哪些文件变更了?然后备份48小时内变更

了的文件。到了周二,差分备份方法备份72小时内变更了的文件。

尽管差分备份比增量备份移动和存储更多的数据,但复原操作简洁多了。在完

全+差异方法下,完整的复原操作首先复原上周六晚的完全备份。然后,差异方法

不是覆盖每个增量备份磁带,而是干脆跳向最近的磁带,覆盖积累的变更。

方案优势

双活数据中心优势

基于EMCVPLEX系统所构建的双活数据中心,能够实现双中心零时间切换的终

极目标,使客户的业务持续运行。

技术领先:EMCVPLEX引入了一种新的体系结构,它汲取了我们在20年设计、

实施和完善企业级智能缓存和分布式数据爱护解决方案的实践中取得的阅历教

训。以可扩展、高可用的处理器引擎为基础,EMCVPLEX设计为可从小型配置无

缝扩展到大型配置。VPLEX驻留在服务器和异构存储资产之间,运用独特的群集

体系结构,此体系结构允很多个数据中心的服务器具有对共享块存储设釜的读/

写访问权限。此新体系结构的独特特征包括:

•横向扩展群集硬件,允许您从小配置起先并以可预知的服务级别逐步扩展

•高级数据缓存,它利用大规模SDRAM缓存提高性能并削减I/O延迟和阵列

争用

•分布式缓存吻合性,可跨整个群集自动执行I/O的共享、平衡和故獐切换

•跨VPLEX群集的一个或多个LUN的统一视图,这些群集可以是在同一数据

中心内相距几英尺,也可以跨同步距离-从而实现新的高可用性和工作负载移置

模式凭借独特的纵向扩展和横向扩展体系结构,VPLEX高级数据缓存和分布式缓

存吻合性供应了工作负载弹性、存储域的自动共享、平衡和故障切换,并帮助实

现了有可预知服务级别的本地和远程数据访问。

可扩展性:VPLEX群集可通过添加更多引擎进行纵向扩展,通过将群集连接到

同步-Plex中进行横向扩展(两个VPLEX同步群集在大都市距离内连接起来)

VPLEX同步有助于透亮地移动和共享工作负载(包括虚拟化主机),整合数据中心,

和跨数据中心优化资源利用率。

此外,它供应了无中断数据移动、异构存储管理和改进的应用程序可用性。

VPLEX同步支持最多两个群集,这两个群集可以位于同一数据中心中两个在同步

距离内的站点(大约相距60英里或100公里)。

无论位于单个站点还是在站点之间,VPLEX系列都提高了数据和存储的弹性。

VPLEX使客户能够在同一位置内和跨不同位置镜像卷,从而在出现组件故障时供

应连续的应用程序可用性。此功能可提高关键应用程序的爱护和可用性,同时又

能利用您现有的存储资源,而无需主机资源。

业界最先进的互操作性:EMC公司供应的VPLEX能够为系统供应最佳的互操作

性,充分保证系统的连续。在将来的扩展中,不同平台的主机系统都能够平滑连

接EMCVPLEX系统中。

远程数据级灾备

■“带外”数据传输,对生产系统“零”影响

RecoverPoint是一种基于SAN网络的持续数据爱护方案,无需在主机上安装任

何代理软件,生产数据传输不经过RecoverPoint设备,对主机性能不产生任何影

峋;一旦RecoverPoint系统出现故障,也不会影响生产系统接着访问存储系统。

在RecoverPoint安装实施过程中,同样不会影响生产系统正常运行。

■远程数据复制成本低

在远程容灾或数据复制系统中,广域网络的运用成本往往占到系统总体成本的

40%以上或者更高,RecoverPoint利用自身的压缩技术,能够大幅度降低数据复制

对网络带宽的需求,从而大幅度降低整个系统的成本。通过第三方的测试结构显

示,针对Oracle数据库RecoverPoint能够供应大约7.9:1的压缩比,针对Exchange

系统能够供应大约5:1的压缩比。

•存储系统

EMC中端存储VNX系列在中端存储市场中占据最大的市场份额。VXX系列是第

一个向市场推出闪存驱动器技术、光纤通道驱动器和低成本高容量SATA的中端

存储系统,同时还是第一个也是唯一一个供应了按阵列管理和存储系统内在线数

据移动的系统。

VNX系列有大量针对虚拟化环境的独特软件功能,同时还有及VMware集成的

解决方案,使该平台成为虚拟化环境的首选平台。

如今,VNX系列安装量已超过300,000套。客户依靠MS系列网络存储系统来

整合、爱护和管理虚拟化MicrosoftExchange>MicrosoftSQLServerOracle

以及其他多种关键的应用环境。

■敏捷的存储配置和资源调配

VNX系列存储的UltraFlex技术使前端连接能够按需扩展,并允许客户在须要

时采纳新的技术,如以太网光纤通道。VNX系列存,诸虚拟资源调配允许客户按需为

其虚拟基础架构增加存储容量。这就使他们可以合理地调配将来须要的资源,但

只购买当前急需的资源。当某些虚拟机变得不太重要时,可以运用虚拟LUN技术

无中断地将这些虚拟机迁移到更经济高效的存储层。

■针对虚拟环境而简化的管理

支持虚拟化的UnisphereManager可自动发觉全部由VMwarevCenterServer

管理的虚拟机并为存储管理员供应虚拟环境的端到端映射信息。此新功能有一项

嵌入式报告功能,让存储管理员能够检查现有的虚拟机存储安排以及将来的虚拟

机存储规划,以解决性能和合规性问题。EMCStorageViewer插件通过VMware

vCenterServer发觉EMC存储设备,并显示EMC存储平台虚拟到物理的映射。

结合支持虚拟化的UnisphereManager,这意味着VMware管理员和存储管理员

第一次能够以互补方式查看存储和虚拟服务器环境。

■最高级别的系统级和站点级可用性

VNX系列存储利用旨在最大程度地提高系统复原实力的技术(UltraPoint、高

级系统诊断等),实现了经客户群评估的“5个9”(99.999%)可用性。EMC

RecoverPoint/SE和MirrorView供应了及VMwarevCenterSiteRecovery

Manager的紧密集成,以简化并自动化虚拟化数据中心的灾难复原。EMC

ReplicationManager支持虚拟机的应用程序一样性快照,以实现即时映像级复

原。

及其他厂家产品的竞争分析

•双活数据中心产品

VPLEX的体系结构、远程数据管理和通过云实现的功能都是独一无二的。全部

其他竞争对手可能会将自身的产品及VPLEX进行比较和比照,我们务必要让客户

明白,VPLEX从移动性、可用性和协作方面变更了竞争格局。对于将来战略和构

想中包括这三个要点的客户,VPLEX供应巨大的竞争优势。

■IBMSANVolumeController(SVC)

移动性:除了在一个SVC节点对中以外,IBYSVC缺少跨任何距离进行真正

的无中断移动的实力。IBM声称进行移动要么要求停机(在园区内或跨异步距离

分布的一对SVC节点之外移动LUN),要么拉伸SVC的体系结构,导致增加延迟

并减弱冗余性(拆分一个SVC节点对中的节点,试图在像园区这样的距离内实现

VPLEX的AccessAnywhere实力)。

可用性:TBMSVC不能承受多个故障的影响,出现一个节点故障就会导致节点

对I/O功能下降50%oIBMSVC的双限制器体系结构,再加上无法在SVC节点

对之外执行无中断迁移,限制了其宣称的可用性。

协作:IBMSVC无法供应从多个地理上分散的位置进行的实时数据访何,无法

实现双活数据中心架构。

■HitachiUniversalStoragePlatformV(USPV)/Virtual

StoragePlatform(VSP)

移动性:Hitachi缺少在单个USPV/VSP及其虚拟化的存储之外执行无中断

移动的实力。此外,Hitachi目前无法无中断地远程移动应用程序,甚至简洁的

本地技术更新都会造成中断;Hitachi的HighAvailabilityManager软件仍旧

不能发挥作用,而目前距最初推出此软件已近两年了。

可用性:HitachiUSPV和VSP不能像VPLEXMetro或Geo那样跨远距离

拉伸群集,而且宣称的可用性也比不上VPLEXoHitachi采纳了多限制存储体系

结构,供应的冗余性比IBMSVC更好,因此可以宣称其可用性优于IBMSVC,但

仍旧不能及VPLEX高可月性解决方案同日而语。

协作:HitachiUSPV和VSP不能供应从地理位置分散的多个地点对单个数

据集的实时数据访问实力,无法实现双活数据中心架构。

・远程数据级容灾系统产品

特性EMCRecoverPointIBMSVC

是,以秒为单位的数据爱

本地和远程持续数据爱护本地快照

是,随意时间点的即时复

即时复原有限

是,每个I/O都会加入

时间标记无

一个时间标记,便于复原

无法进行目标

是,在目标的可以访问随端访问,必需停止

目标端处理意时刻的数据,无需进行快数据复制后,才能

照设置进行目标端数据访

是,可以追溯到损毁点前

针对逻辑损坏供应爱护有限

的随意时刻的数据进行复原

广泛,同时EMC供应具

异构兼容性有限

有法律效力的兼容性列表

•存储系统

功能EMCVNX系列其他同类产品

UltraFle可热插拔、可扩展的前端I/OEqualLogicsIBM和HP未供应向

X模块,支持10千兆以太网和8现有系统添加附加接口技术的实力。

Gb/s光纤通道。NetApp须要打开顶部机箱以添加新

卡。

虚拟资源高效的分层提高了容量利用IBM、HI\Hitachi和3PAR未供

调配率,优化了跨全部驱动器类型进应精简资源调配功能。EqualLogic虽

行分层的功能。这样就允许在以然供应精简资源调配,但没有高级监

虚拟方式调配的和以传统方式调控和管理工具。NetApp为客户供应传

配的LUN之间移动数据。统或精简资源调配,但两者之间不能

转换。

虚拟LUN依据应用程序性能要求在阱NetApp,HP和IBM无法在阵列内

列内敏捷地迁移虚拟机无中断地迁移数据。他们须要拷贝服

务和应用程序停机才能完成迁移。

支持虚拟自动发觉全部虚拟机并供应没有一种竞争产品在阵列管理层

化的端到端的虚拟到物理映射信息。供应类似功能。

Navisphe

re

Manager

EMC适用于VMwarevCenter非EMC所独有;大多数竞争产品

StorageServer的插件,它可发觉EMC都支持此VMware集成点。当及

Viewer存储设备并显示EMC存储阵列Navisphere结合运用时,此总体解决

插件的端到端虚拟到物理映射。方案将是一项强大的独特优势。

最高的系VNX系列存储实现了经客户HP和NetApp声称具有“5个9”

统级可用群评估的“5个9”可用性。的可用性,但是现场测试数据未包括

性一些常常遇到牢靠性问题的部分。

NetApp的测试数据未包括部署之后

第一个月的信息,而这段时间正是问

题多发期。

最高的站•RecoverPoint/SE供应大多数竞争产品供应了VMware

点级可用了及VMwarevCenterSitevCenterSiteRecoveryManager支

性RecoveryManager的紧密集持和映像级虚拟机复原解决方案。不

成,以简化并自动化虚拟化数过,只有EMC能够在客户所需的每一

据中心的灾难复原。个粒度级别供应单一供应商爱护解决

•ReplicationManager支方案(站点级、映像级和文件级复原)。

持虚拟机的应用程序一样性快

照,以实现即时映像级复原。

•任何供应商都未能供应

像EMCAvamar这样的文件级

自动复原功能。

端到端服只有NavisphereQualityofHP、IBM和EqualLogic都没有供

务级别管ServiceManager可为虚拟化应服务质量功能。Hitachi和NetApp

理环境供应基于LUN的服务级只供应特别初级的服务质量功能,而

别协议管理且没有GURHitachi可以分割缓存

VMwareDistributedResource和调整每段的插槽大小,但是在须要

Scheduler和Navisphere更改时会造成中断。NetApp的服务质

QualityofServiceManager量产品只供应初级的I/O队列重新

为虚拟环境供应端到端、基于排序功能,而没有支配功能。

策略的应用程序服务级别管

理。

双协议,•全部VNX系列存储出厂IBM和HP都没有供应集成的光

可扩展,时均配置了双协议(光纤通道纤通道/iSCSI解决方案,这意味着客

可适应将和iSCSI)oVNX系列存储户必需购买多台设备。NetApp供应的

来要求的UltraFlex技术允许在业务须iSCSI阵列支持将光纤通道作为额外

I/O要时通电联机热插拔扩展方式附加项。EqualLogic只供应iSCSI

提高连接实力。连接。

混合驱动•混合高性能和高容量驱Hitachi.IBM和NetApp都没有

器动器可优化性能、密度、成本供应第0层闪存驱动器支持或低能

类型和能效。包括对超高性能闪存耗SATA驱动器。EqualLogic虽然供

驱动器和节能型低能耗SATA立SAS和SATA驱动器,但须要客户

驱动器的支持。购买专用阵列才能获得两者。而且,

EqualLogic不支持闪存驱动器或低

能耗SATA驱动器。

扩展容量•及前一代VNX系列存储运用1TB驱动器时,IBM的上限

和产品相比,VNX系列存储体系结是224个驱动器(224TB),HP是

性能构还供应了2倍的容量规模240个驱动器(240TB)O由12个

(最多960个驱动器)、2倍EqualLogic单元(最大数量)组成的

的内存和2倍的LUN数量。群集的容量上限是192TB。假如运用

FLARE操作系统也己经从32IBM的最佳做法和相同设置,VNX系列

位升级至64位。从EMC应用存储CX4-240可支持多达30,000

程序工作负载的测试中可以看个Exchange用户,而IBMDS4800-88

出,同类竞争产品的扩展性能只能支持23,000个用户。

是无法及VNX系列存储CX4EqualLogic声称能够在由12个单

阵列同日而语的。元组成的单个群集上支持多达

60,000个Exchange用户(事实上可

在4个单独的群集上实现)。对于磁

盘备份应用,VNX系列存储CX4-960

每分钟可处理1,114条事务,而IIP

EVA8100每分钟只能处理503条事

务。

高效的磁•基于最佳做法,VNX系列运用针对MicrosoftExchange>

盘存储具有30:1的全局热备SQL和Oracle等应用程序的最佳做

利用率盘比率、较小的FLARE空间占法时,HPEVA仅能达到46%的可用

用开销,以及高效的快照保留。容量,而VNX系列存储能够达到的可

VNX系列存储的可用数据空间用容量则远高于70%(数据的可用容

可占实际购买容量的70%o量及总购买容量减去RAID开销、快

照保留空间、备盘和操作系统开销后

的容量之比)。NetApp运用RAID-DP,

利用率仅为34%,EqualLogic则只有

33%o

数据就地•数据就地升级允许将N-HP在EVA系列之间以及新的路

升级1和N-2技术转换为最新的径管理和VMwarevCenterSite

VNX系列存储,仍利用现有的系RecoveryManager软件之间升级时,

统组件和软件。须要长时间的中断。EqualLogic须要

重新启动每个独立单元才能应用软件

的升级,这使得每个单元在升级时,

多单元磁盘池中的全部卷均不行用。

NetApp在应用新微码以及在Data

0NTAP发行版(6.x-7.x)之间进行

中断式数据迁移时,须要重新启动文

件服务器。

第3章项目实施方案

3.1EMCVPLEX存储实施规划

EMC存储规划(SIP)方法

EMC依据自身长期在存储及信息管理上的阅历,依据用户的需求,从以上IT管理

和信息生命周期管理的最佳实践和标准动身,总结出了一套“面对服务的方法”

来帮助用户绽开存储规划建设:

面向服务的存储规划方法(SIP)EMC

、管理和运维

①定标准④优化整合实施⑤持续性管理

业务需求1

现状调研实施设计

H录设计流程评估流程设计

设计存储

管理框架架构规以实施设计

.②找差距

存储服务监I

控管理规划级别映射

存储服务报告

存储服务数据迁移

改造规划实施

©Copynghl2009EMCCorporaoonAJIrgnisressW20

图1EMC存储规划(SIP)建设方法

①定标准

在存储规划起先阶段,首先进行业务调研和需求分析,梳理业务对存储的耍

求;其次将业务要求转化为存储的IT服务要求,设计存储服务书目。存储书目中

将定义存储可供应的服务分类,不同类别服务需供应的类型,不同服务类型须要

供应的服务指标;然后依据客户方的业务应用要求对存储的服务要求进行业务应

用分级,定义不同级别业务应用对存储的服务类别、类型和服务指标的要求,定

义实现不同级别服务须要的技术和运维管理手段和措施;最终定义满足这些服务

要求的存储参考架构,即满足这些服务要求的可能的技术手段定义。

②找差距

将目前客户方各业务应用同存储服务书目和参考架构定义进行映射和比较,

找出支撑当前业务应用的存储手段和技术、存储管理手段和技术的差距。

③依据找出的差距,结合客户方的实际状况和IT建设规划,制定可行的存储

基础架构优化整合改造支配。

④依据优化整合的改造支配,具体进行存储架构优化整合的技术实施方案设

计,进行具体的数据迁移实施方案设计,然后依据方案进行存储架构优化整合和

数据迁移的实施。

⑤及其它IT建设一样,存储规划和优化整合不是一次性过程,而是一个持续

管理的过程,对定义的存储服务标准和优化整合的结果,须要进行持续的管理和

监控,并依据业务的发展和变更不断的优化存储服务标准,以满足业务的须要,

因此须要从存储的运维管理流程、存储的监控和管理技术手段以及日常运维的操

作管理上规范存储的管理和运行,依据存储服务标准考量存储的服务水平,同时

依据考量结果优化存储服务标准,形成良性的存储规划机制。

EMC存储规划(SIP)方法概念及要点

存储规划服务标准

建立存储规划服务标准的目的在于将合理的业务要求量化的映射到对存储的

服务需求上,明确业务对存储服务要求的范围、内容及属性指标,定义符合业务

需求的存储服务及其相关的服务内容和服务级别;建立将业务需求转换成存储服

务需求的工具和过程,并将现有的业务应用依据其服务级别需求映射到合理的存

储架构上,并建立全行统一的存储服务架构管理的服务规范及标准,为后续的应

用及系统建设服务供应依据,同时依据标准建立业务需求和存储实力的内在联系,

使提出的业务需求更精确合理。

存储服务的服务级别

通过存储服务的服务性能和性能指标,可以明确为业务供应的每个存储服

务应当完成和管理哪些服务内容,这些服务内容又通过什么指标来衡量。但是

由于应用业务需求、成本考量等因素的不同,造成不同应用对同一存储服务相

同服务指标的要求和服务级别是有偏差的,所乂我们对存储服务的每一个服务

指标都定义了不同的服务级别。

存储服务技术和运维说明

要供应一个高质量的存储服务,首先须要高品质、高性能、高牢靠性和可用

性的技术平台,更重要的是须要能够保障存储服务能够正常运转以满足业务服务

需求的运维管理,因此我们将从技术需求和运维管理两个方面来阐述满足存储服

务性能的性能指标的每一个服务级别。

其中每一个存储服务都有相关的服务性能来说明该服务应具备那些服务功

能,而每一个服务性能又通过不同的性能指标来细化和体现,针对每一特性能指

标(KPI)供应各种量化的服务级别来满足不同的业务需求,为实现每一个服务级

别,必需从技术和运维管理两个方面给出要求和说明。

存储参考体系架构

存储参考体系架构是依据业界的最佳实践并结合客户方的现状,为满足服务

书目中定义的不同服务级别及技术需求给出的存储参考架构。生产存储服务具有

生产存储的参考体系架构,备份复原服务具有备份复原的参考体系架构。

3.1.1存储部署

在本项目中,配置了2台EMCVPLEX。以下存储部署技术描述如有误差,将以

最终及客户实际沟通后的最终沟通信息为准.并修改形成最终的部署支配文件.

3.1.2设备安装前管理

(1),设备安装场地检查

时间:签定购买合同后即可进行

人员:用户同亿海扬天工程师共同进行,EMC工程师供应技术支持

文件:Prc-SitcSurvcy,SystemHostForm及《EMC设备场地及环境要求》

主要内容:

卸货场地检查:是否满足货车停靠及装卸设备作业;

搬运通路检查:检查台阶门槛并同用户协商处理方法,电梯及其载量,沿途

全部门的高度及宽度,拐弯处的空间等;

机房场地检查:按《EMC设备场地及环境要求》执行,确定安装位置到主机

的距离,以便符合购买合同配备的电缆。

(2),打算实施所需配置文件

时间:安装前2周或更早

人员:用户同亿海扬天工程师或EMC工程师共同进行

文件:NewInstallationForm

主要内容:

确定EMC设备的具体配置及同主机的连接方式,依据原始设计方案所确定的磁

盘卷的爱护方式(RAIDT或RAID-5),安排磁盘地址及哪些通道可以访问哪些卷;

卷的数量、大小等等。此项工作完成后,EMC设备的配置即正式确定下来,不行

轻易更改。请留意:申请配置的表格须要提前至少5个工作日送达EMC配置小组

(ConfigurationGroup)o考虑到探讨和填表的时间,时差及可能的节假日,提前

2周送达比较稳妥。

(3)日程安排

探讨配置并填写NewInstallationForm:1个工作日

创建配置文件:1个工作日

由美国总部ConfigurationGroup确认:5个工作日

请用户特殊留意:磁盘配置经美国总部确认后,EMC客户工程师现场无权更改,

以确保生产系统无任何技术隐患。假如用户的确须要更改配置,除需另外5个工

作日由美国总部确认配置外,用户还将担当相应的费用。

(4)上报安装支配

时间:安装前1周

人员:用户同EMC公司共同确定时间,由EMC工程师完成

文件:ScheduledChangeActivityForm

主要内容:

确定安装日期及持续时间,以便EMC公司支配技术人员到场。如须要,预定

由EMC总部供应远程支援°

(5)场地设施就绪

时间:安装起先前完成

人员:由用户负责

主要内容:

使电源就位、电话线就位。如须要,完成活动地板的加固及搬运通路的加固。

关于电源容量、地板承重等具体内容,请参照设备场地环境章节。

(6)设备到货

到货时客户要有负责人在现场协调卸货及搬运时可能发生的各种问题;

通知EMC公司设备已运到,确定安装时间,并说明安装前尚需解决的问题;如

可能,将EMC设备放置24小时,使其渐渐适应机房环境。

(7)现场点货

1.在设备到达用户安装现场后,亿海扬天将依据订货合同及发货单,检查包装

箱外观,点验包装箱件数.外观检查和箱数点验时,应做到发货单和包装箱相符,

外包装应无损坏和碰伤。

2.亿海扬天及用户双方确认外观检查和箱数点验无误后,方可开箱进行检查,

开箱后首先检查箱内设备有无损坏,如有问题,待双方协商好解决方法后,再行

处理。

3.全部设备应及合同订货清单一样。亿海扬天将及用户一起逐一清点,验证登

记,在安装验收过程中发觉设备、插件、文档资料有遗漏或故障,亿海扬天保证

刚好完成更换和补充工作,一切费用由亿海扬天担当。

3.1.3系统安装调试管理

亿海扬天负责所供应设备的连接和安装调试,由用户派遣技术人员参及整套设

备的安装和调试,使所连系统及设备运转正常。在安装调试过程中,亿海扬天的

技术人员将向用户说明设备的安装步骤和应当留意的事项,安装的每一件设备将

作安装具体记录。在安装、调试过程中造成的设备损坏,由亿海扬天负责。

(1)硬件安装调试

时间:依据安装支配所确定的时间执行

人员:用户,亿海扬天工程师共同完成

主要内容:

对EMC设备进行安装调试,并及用户及系统供应商协作同主机进行连接。

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

最新文档

评论

0/150

提交评论