深入了解IP存储.doc_第1页
深入了解IP存储.doc_第2页
深入了解IP存储.doc_第3页
深入了解IP存储.doc_第4页
深入了解IP存储.doc_第5页
已阅读5页,还剩18页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

深入了解IP存储来源: 作者:网络世界 2007-10-08 一、IP存储详解 从用户观点看,存在两大问题。第一个问题,如何将已经部署的分离SAN互联起来?第二个问题,如何将来自运行在IP网络上的多台服务器的存储整合在一起? 解决第一个问题(即互联已经部署的SAN)的简单答案是光纤通道。但是,当涉及到分布在不同园区和另一个网络上的SAN时,最佳的解决方案是具有较低性能和基于TCP的重试功能的FCIP与iFCP。 FCIP被提议为通过现有的IP网络连接光纤通道SAN“孤岛”的一种标准方法。FCIP还可用来克服光纤通道目前存在的距离限制因素,能够跨越大于光纤通道支持的距离连接SAN孤岛。FCIP具有实现纠错和检测的优点:即如果IP网络错误率高的话,它就重试。这是在一条低性能、高错误率的IP网络上连接SAN的理想途径。 iFCP是一项在TCP/IP网络上传送光纤通道传输流的标准。作为网关的iFCP在使用户可以将光纤通道RAID阵列、交换机和服务器连接到IP存储网络上的同时,保护了基础设施的投资。iFCP运行时将光纤通道数据封装在IP包中并将IP地址映射到不同的光纤通道设备上。每一台光纤通道设备在IP网络上都有自己的身份标识,因此它可以单独地向IP网络中其他节点发送存储流和接收来自其他节点的存储流。iFCP在网关终结光纤通道信令,然后在IP网络上传送存储传输流,突破了传统光纤通道距离只能达到6.2英里的限制。 第二个问题的答案是iSCSI。iSCSI协议定义了在TCP/IP网络发送、接收block(数据块)级的存储数据的规则和方法。发送端将SCSI命令和数据封装到TCP/IP包中再通过网络转发,接收端收到TCP/IP包之后,将其还原为SCSI命令和数据并执行,完成之后将返回的SCSI命令和数据再封装到TCP/IP包中再传送回发送端。而整个过程在用户看来,使用远端的存储设备就像访问本地的SCSI设备一样简单。支持iSCSI技术的服务器和存储设备能够直接连接到现有的IP交换机和路由器上,因此iSCSI技术具有易于安装、成本低廉、不受地理限制、良好的互操作性、管理方便等优势。200多家开发iSCSI解决方案的公司的影响以及大量的已有IP网络,将使iSCSI能够对SAN产生真正的影响。二、IP存储“三部曲” IP存储解决方案应用可能会经历三个发展阶段。 阶段一: SAN扩展器。随着SAN技术在全球的开发,越来越需要长距离的SAN连接技术。IP存储技术定位于将多种设备紧密连接,就像一个大企业多个站点间的数据共享以及远程数据镜像。这种技术是利用FC到IP的桥接或路由器,将两个远程的SAN通过IP架构互联。虽然iSCSI设备可以实现以上技术,但FCIP和iFCP对于此类应用更为适合,因为它们采用的是光纤通道协议(FCP)。 阶段二: 有限区域IP存储。 在第二个阶段的IP存储的开发主要集中在小型的低成本的产品,目前还没有真正意义的全球SAN环境,随之而来的技术是有限区域的、基于IP的SAN连接技术。可能会出现类似于可安装到NAS设备中的iSCSI卡,因为这种技术和需求可使TOE设备弥补NAS技术的解决方案。在这种配置中,一个单一的多功能设备可提供对块级或文件级数据的访问,这种结合了块级和文件级NAS设备可使以前的直接连接的存储环境轻松地传输到网络存储环境。 第二个阶段也会引入一些工作组级的、基于IP的SAN小型商业系统的解决方案,使得那些小型企业也可以享受到网络存储的益处,但使用这些新的网络存储技术也可能会遇到一些难以想象的棘手难题。 iSCSI协议是最适合这种环境的应用的,但基于iSCSI的SAN技术是不会取代FC SAN的,同时它可以使用户即享受网络存储带来的益处,也不会开销太大。 阶段三: IP SAN。完全的端到端的、基于IP的全球SAN存储将会随之出现,而iSCSI协议则是最为适合的。基于iSCSI的IP SAN将由iSCSI HBA构成,它可释放出大量的TCP负载,保证本地iSCSI存储设备在IP架构上可自由通信。一旦这些实现,一些IP的先进功能,如带宽集合、质量服务保证等都可能应用到SAN环境中。 上图显示了一个真正的全球IP SAN。将IP作为底层进行SAN的传输,可实现地区分布式的配置。如SAN可轻松地进行互联,实现灾难恢复、资源共享,以及建立远程SAN环境访问稳固的共享数据池。 三、IP存储仍需解决的问题 IP存储是一个新兴的技术,尽管其标准早已建立且应用,但将其真正广泛应用到存储环境中还需要解决几个关键技术点。 TCP负载空闲 由于IP无法确保提交到对方,而将TCP作为底层传输的三种IP存储协议则需要在拥挤的、远距离的IP空间中确保传输的可靠性。由于IP包可以打乱次序传送,因此,TCP层需要重新修正次序,以提交到上一层的协议中(如SCSI)。TCP完成这一任务的典型操作是使用重调顺序缓冲器,将数据包的顺序完全整理为正确方式,完成这一操作后,TCP层将数据发送到下一层。 这些处理都需要消耗主机的CPU资源,同时增加事务处理的延时,事实上,与典型的FC或SCSI块传输相比,需要更多的I/O处理,一种称之为TCP负载空闲引擎TCP Off-loading Engine (TOE)的设备可将主机的处理器负载降低,随着新技术的应用,TOE将可以帮助解决这一问题。 性能 工作组和一些分析人士把相当多的注意力放在了确保IP存储协议可以非常快的运行上,因为目前硬盘驱动器的运行速度已经很快。专家们预测IP存储产品将以高速运行。然而,也有一些分析人员认为,IP存储令人心往的最大优势是IP的灵活性,而高速性能则排在第二位。 尽管IP技术很有可能得以应用,但如果对性能较为看重的话,不推荐使用标准的以太网卡。如前所述,TOE可以减少服务器的处理负载,但由于TOE设备较新,其硬件成本及复杂程度都比标准网卡更高。其广泛应用可能会由于性能价格比过高而受阻。像那些增强的iHBA都需要进一步改进,已达到光纤通道的技术水平。 安全性 当存储设备通过IP架构进行远距离连接时,安全性变得愈加重要。生产厂家必须明确产品的安全级别,并确保其安全性。在IP存储产品广泛应用之前,这一问题是IETF需亟待解决的。 当标准得到批准时,明确要求IP存储协议的所有实施都必须包括可靠的安全性(实现加密数据完整性和保密性)。如果用户不愿使用这些安全措施的话,他们不必使用,但是产品中必须具有启动安全技术的功能,只有这样厂商才能说他们的产品符合标准的要求。相当多的工作组成员非常不喜欢这项要求:他们认为这些协议的主要用武之地将是数据中心或其他一些受防火墙保护的领域。但是,一旦人们将应用放在IP上,这个应用没有什么办法确定自己的使用环境,例如在防火墙后使用。这是IP的一个重要特性。 IETF认为,如果将存储区域网(SAN)放在IP上是符合逻辑的(绝大多数人认可这点),那么利用IPSec保护这些SAN才有意义。 IETF的Internet工程指导小组(IESG)要求在三种IP存储协议中使用IPSec: iSCSI、FCIP和iFCP。负责IETF IP存储工作组传输领域的人员认为,窃听是IP协议存在的安全漏洞,而这正是IESG坚持加密能力的原因。还有一些厂商认为,依靠IPSec解决IP存储安全问题并没有抓住问题的关键。尽管IPSec可以保护在IP网络上传输的存储数据的安全,正如它保护IP VPN上传输的数据那样,但是它没有采取任何保护存储设备上数据的措施。保护存储设备上的数据需要使用采用3DES 或高级加密标准(AES)的加密芯片。 互联性 基于IP的技术并没有被所有厂家共同使用,虽然这个协议的标准早已被IETF公布,但并不能保证厂家X与厂家Y使用相同的协议或技术。为了保证这些产品能够相互配合得更好,必须保证厂家之间采用相同的协议,使各厂家产品具有良好的互联性。 还有一个问题引起了大家的关心,那就是之所以有这么多的厂商热衷于iSCSI解决方案原因在于他们不必掌握复杂的光纤通道技术而直接进入高速增长的网络存储领域。笔者以为,作为iSCSI解决方案的提供商,没有光纤通道领域的坚实基础是很难取得成功的。现实总是残酷的,对于专注于此领域的小厂商来说也许会在成功以后被大型厂商所收购,然而现在正经历严峻考验。四、存储厂商观点 不同的存储厂商,由于专注的领域不同,对IP存储的支持程度(或者是希望程度)有着一定的差别。 IBM与思科 iSCSI是由IBM下属的两大研发机构加利福尼亚Almaden和以色列Haifa研究中心共同开发的,是一个供硬件设备使用的可以在IP协议上层运行的SCSI指令集。而iSCSI是IP存储各协议中发展最“成熟”的一个,因此,IBM对iSCSI的贡献是很突出的,自然对IP存储支持有佳。 思科在传统IP网络的地位无需多提,在IP网络拥有的丰富经验使得思科公司进军存储市场具有很大优势。除了很早就推出了存储路由器,在一个月以前,思科推出了MDS 9000系列多层导向器和光纤通道交换机,全面进入存储领域。对于思科来说,若能够将传统IP网络与存储网络的优势结合起来自然会获得巨大的机会,而这个机会就是IP存储。 NetApp NetApp原本是专注于NAS产品的厂商,后来又提供了SAN架构产品,并将两者有机地结合在其光纤网络存储(FAS)解决方案中。如果IP存储能够得到广泛的应用,对于NetApp来说是个巨大的利好消息,NetApp认为,应用IP存储时,只是在其FAS解决方案增加支持,而不会像其他厂商那样需要分别在NAS和SAN产品增加对IP存储的支持。 HP与HDS 目前惠普已经推出了iSCSI路由器,但没有在中国发布。随着市场的发展,惠普还会陆续推出iSCSI的产品。在iSCSI的推动上,惠普声称会跟着市场的需求走,但不会太超前,iSCSI市场并不成熟,产品太超前,对企业来说是没有意义的。HDS也表示,由于在可靠性方面还存在一些问题,暂时还没有推出支持iSCSI的产品。 博科通讯 博科认为,iSCSI可以在一定程度上回应把低端服务器连接到SAN的这样一个新市场。博科将在SilkWorm FAP(博科最近收购的Rhapsody的一个产品)上提供iSCSI及FCIP的桥接器功能。博科正密切关注着存储市场的变化,以决定是否或何时将“iSCSI刀片”(iSCSI功能模块)集成到SAN光纤通道交换机里。同时,博科也指出,光纤通道是一种为实现高性能、高可用、高可靠存储网络而研发的协议,它把并行SCSI技术和以太网技术的优点结合起来。它以为光纤通道在存储网络方面有明显优势,已被广泛应用,适应了服务器到存储设备之间高流通量的苛刻要求。在实现服务器与服务器之间或者客户端与服务器之间的连接上,IP网表现非常优秀,但在服务器与存储设备之间的连接方面,IP网难以做到低延迟、高性能、高可靠。iSCSI可以通过软件实现,所以在服务器方面不需太多的设备成本,但需要耗费额外的CPU处理能力,较适合不太需要高性能的存储应用。总之,博科认为iSCSI不适合、不应当配置于类似数据中心的关键存储应用上。 并行向左 串行向右构建磁盘网络世界来源: 作者: 2005-12-07 出处: 磁盘接口是磁盘与主机系统间的连接部件,不同的磁盘接口决定着连接速度,接口的优劣直接影响着程序运行快慢和系统性能好坏。磁盘接口技术主要有两种,即并行和串行,按照目前的情况分析,“串行”大有取代“并行”之势。 我们接触到的磁盘接口技术有很多,在串行技术出现之前,从整体的角度上硬盘接口分为ATA、SCSI和光纤通道三种,ATA磁盘多用于个人产品中,也部分应用于服务器,SCSI硬盘则主要应用于服务器,而光纤通道只应用在高端服务器上,价格昂贵。 ATA和SCSI分别定位于低端、高端应用领域,它们也有一个共同点,那就是并行,因为它们都按照并行的方式来传输数据。 随着时间的推移,这种并行技术的不足逐渐显现:尽管ATA和SCSI均是并行总线接口,但是它们之间却不兼容;ATA现有的传输速率已经逐渐不能满足用户的需求,SCSI磁盘价格昂贵;传输数据和信号的总线是复用的,如果要提高传输的速率,那么传输的数据和信号往往会产生干扰,从而导致错误。 于是串行技术应运而生,与并行技术不同,串行按照串行方式传输数据,它是一种完全崭新的总线架构。去年SATA(Serial ATA)磁盘开始大规模应用,为串行磁盘技术的革命运动拉开了序幕。同ATA和SCSI相对应的是SATA和SAS(Serial Attached SCSI)两种技术,它们克服了原先并行接口技术中的不足。串行技术提高了性能、降低了价格,还采用兼容的架构,在低端(SATA)和高端(SAS)之间架起了沟通的桥梁。 SATA磁盘已经获得了广泛的应用,而SAS的情况却有所不同,其标准虽在几年前就已确定,但是产品却迟迟没有面世。3月31日,迈拓公司推出SAS磁盘,串行技术正式吹响了向高端进军的号角。记者预言,在不久的将来,磁盘世界将是串行一统天下。 现在,网络存储的概念已经深入人心,NAS和SAN、FC和IP之争都是细节问题,关键是大家都明白将磁盘阵列等存储设备直接连到网络上可以提高利用率和效能。不过,对于磁盘阵列内部的状况,了解和关心的人就没有那么多了,但实际上,那些通常被我们当作“黑匣子”看待的钢筋铁骨,其“五脏六腑”的构造也直接影响着容量的利用率和性能的发挥。 拓扑:从总线到星形 近二十年来,与ATA相比,SCSI一直以高端的形象自居。然而,随着2003年Serial ATA(以下简称SATA)工作组先后公布属于SATA 第二阶段的Port Multiplier(端口倍增器)和Port Selector(端口选择器)规范,并行SCSI的优势已经不复存在。 请注意,SCSI和并行SCSI不是一个概念,两者之间不应划等号,如果非要划一个标志的话,也应该是大于号。广义的SCSI是一大堆标准的集合,像并行SCSI接口(SCSI Parallel Interface,SPI)、光纤通道协议(Fibre Channel Protocal,FCP)和iSCSI(Internet SCSI)都包括在SCSI标准架构之中。由于最初的SCSI标准(SCSI-1和SCSI-2)确实只有并行这一种实现方式,所以不加前缀的提起SCSI通常是指并行SCSI、SATA与SAS接口。 在串行接口大行其道的今天,并行接口的不是之处简直随便挑,譬如需要的信号线太多导致高频时信号同步困难,从而限制带宽和连接距离,换言之,就是发展空间有限。 同样是受制于信号线过多,并行SCSI只能选择共享传输介质(线缆)的总线型拓扑结构。虽然宽(Wide,16位)SCSI理论上能够连接多达15个设备,但如果真这样做的话每个设备所能分配到的带宽将非常有限,而且总线的仲裁(避免低优先级的设备“饿死”)问题也会十分棘手。因此,实际应用中上一个16位SCSI通道(一条总线)连接的硬盘数量通常不超过4个,从而在性能和连接能力之间取得平衡。 抛开连接器和软件协议都不兼容的表象,在功能上并行ATA可说是并行SCSI的子集后者有的毛病前者都有,后者没有的缺点前者也有(精简所以不够完善)。线缆长度不超过半米、同一通道只能连接2个设备(且为独占式访问)、接口带宽达到133MBps就已十分勉强等都是并行ATA明显不及并行SCSI之处。 正是由于并行ATA(Parallel ATA,以下简称PATA)更早地碰到了瓶颈,ATA率先开始了彻底放弃并行、转投串行怀抱的革命。2000年春季IDF上Intel公布了串行SATA接口的开发计划,并在2001年秋季IDF上联合APT、Dell、IBM、Seagate及Maxtor,正式发布了SATA 1.0规范。 与连接器针脚多达40根的PATA相比,SATA仅有2对数据线(一对发送,一对接收,250mV LVD信号),加上3根地线也不过才7个接脚,连接器十分小巧,线缆也柔软易于弯曲,实现了每个设备独享全部带宽、没有总线仲裁/冲突开销的点对点连接。串行接口必备的LVDS(低电压差分信号)技术将连接距离提高了一倍,1米的长度完全能够满足PC机内存储的要求;每个端口可连接的设备数目虽然从2个减少为1个,但同样面积所能容纳的端口数量却成倍增加,何况PATA在实用中每端口连接的硬盘通常也只有1个;点对点连接构成相对先进的星形拓扑,可以显著改善并发操作能力。此外,SATA的带宽从150MBps(1.5Gbps,8b/10b编码)起步,后续将会提高到300MBps和600MBps。 不过,SATA 1.0的先进架构只是全面超越了PATA,在并行SCSI面前却未必能占尽上风。就以连接大量设备的能力来说,一个并行SCSI端口上挂接4块硬盘很稀松平常,SATA达到同样的水准却要耗费4个主机端口。 SATA的缔造者们显然也意识到了这个问题,于是他们在SATA 中引入了Port Multiplier的概念。Port Multiplier的作用是把一个活动主机连接多路复用至多个设备连接,它采用4位(bit)宽度的PM端口字段,其中控制端口占用一个地址,因此最多能输出15个设备连接与并行SCSI相当。Port Multiplier的上行端口只有1个,在带宽为150MBps的时候容易成为瓶颈,但如果上行端口支持300MBps的带宽,就与Ultra320 SCSI十分接近了。 换句话说,Port Multiplier本身就是星形拓扑架构的体现,对网络略知一二的朋友都明白它比总线拓扑架构更为优秀。遗憾的是,由于ATA的定位是“廉”(价)字当头,其软件(包括指令集)功能有限,Port Multiplier仅处于星形拓扑的初级阶段,只相当于一个SATA的Hub,而且还不是一个好的Hub不允许级联。 兼容:师夷长技以制夷 看到SATA 不断地扩充功能,不免让人感叹,2001年冬季Compaq、IBM、LSI Logic、Maxtor和Seagate未雨绸缪,宣布开发Serial Attached SCSI(串行连接SCSI,简称SAS)的确是明智之举。 SAS吸纳了SATA的物理层(包括连接器、线缆)设计,增加了第二端口,同时还具备FC的某些特征。与SATA相比,SAS在物理架构上的增强主要包括: 双端口 SAS的数据帧基于FCP(FC Protocol),并在外围设备端添加了第二端口支持,形成符合高可用性要求的双端口(dual port)这一点也类似于FC。 全双工 并行ATA和SCSI都是发送和接收共用一组数据线,因此发送和接收不能同时进行,即所谓的半双工。SATA数据线由两条传送方向相反的差分信号对(LVDS,共4根)组成,发送(Tx)和接收(Rx)各走一路,为全双工提供了物理上的可能。不过,由于ATA协议是半双工的,因此SATA在一对信号线上传送数据的同时只是用另一对信号线返回流控信息,仍然是半双工;SCSI协议则是支持全双工的,SAS通过将一路数据所需的流控信息与反向传送的数据混合在一起,从而能在同样的数据线上实现全双工。 宽链接 物理链接是SAS中的一个基础概念,一条物理链接包括两对差分信号线(Tx和Rx,即一条SATA线缆),传输方向相反。两个SAS端口之间可以建立起由多个物理链接构成的wide link(宽链接),相应的端口也被称作wide port(宽端口),可以表示为N-wide link和N-wide port,N取值在14之间,代表物理链接的数量。SAS支持宽链接的主要出发点是获得成倍的带宽,而设备端双端口的设计则是为了提供冗余链路,增强可用性。 带宽 或许是考虑到第一批SAS产品问世时SATA很可能已推出3.0Gbps的第二代规格,SAS 1.0/1.1采取了直接支持3.0Gbps并向下兼容1.5Gbps的策略。虽然某些初期原型产品的确运行在1.5Gbps,但都是在FPGA和现货供应PHY(物理层)芯片基础上开发的,目前采用完全集成3Gbps PHY芯片和ASIC设计的设备已经出现,并逐渐被业内接受。 连接距离 为了提高连接距离,SAS发送和接收信号的电压范围都比SATA大为提高。在具体的连接距离指标上,最初宣称是10米,新的资料则是大于6米(外部线缆),似乎与信号速率从1.5Gbps提高到3.0Gbps有关。需要指出的是SAS规范里面并没有严格限定线缆长度,而是靠发送水平和接收敏感度来考察,制造商通过检测线缆特性来判定其所能达到的距离高质量线缆可以连接得更远,当然成本也更高。现在SAS线缆连接距离的要求已经提高到8米,通过3个扩展器(Expander)之后,SAS的连接距离能够超过32米,与Ultra160/320 SCSI的12米(15个设备)或25米(点对点)相比虽没有明显提高,但也足以应付机内存储设备连接和近距离DAS的要求了。 上述规划都很不错,可是第二端口怎么实现呢?通过将原本分离的SATA端口和电源插头相连,并将SAS第二端口设置在连接处的背侧(插座则是对侧,见图),就得到了SAS连接器。第二端口比这块跨接区域略宽,但也只有SATA端口(也即SAS第一端口)的2/3,因此其7个接脚及间距均明显变窄。与SAS插头的“铁板一块”相对应,SAS插座也“全线贯通”(SATA插座在SAS第二端口的位置有一突起),这样既可以保证SATA设备插入SAS插座,又能避免误将SAS设备插入SATA插座。 升华:交换和路由 与SATA一样,SAS也可以让主机端口与设备端口点对点直接相连,但不同的是,后者从设计之初就引入了类似于Port Multiplier的中间设备,以达成大量设备连接能力并实现更为复杂的拓扑结构。 这个中间设备叫做扩展器(Expander),不过与并行SCSI中的同名设备不是一个概念。如果把SATA的Port Multiplier比做Hub,那么SAS的扩展器就是交换机(Edge Expander,边沿扩展器)和路由器(Fanout Expander,扇出扩展器)。 扩展器利用可多达128个的PHY(发送器和接收器各一、能够接受1个物理链接的最小单元,譬如1个4宽度端口即由4个PHY组成)连接主机/设备或其他扩展器,组成星形拓扑架构。SAS还引入了“域”的概念,扇出扩展器是SAS域的核心,一个SAS域只能有一个扇出扩展器,它可以随意连接边沿扩展器;一个边沿扩展器只能连接到一个扇出扩展器上,而在没有扇出扩展器的情况下最多仅允许两个边沿扩展器互连;在不超过数目上限的前提下,扩展器可以随意连接发起者/目标设备。也就是说,在一个SAS域中,任意两点(主机或设备)之间最多可以有3个扩展器。 SAS制订初期的目标是每个扩展器可连接64个设备,一个SAS域最多4096个(6464)设备;后来规范制订者们意识到没有必要把扩展器的端口数目限制在64个,于是便改为每个扩展器能够寻址128个PHY,整个SAS域形成一个物理连接数目可达16K(12812816384)的点对点交换式拓扑架构。 扩展器强大的连接能力不仅是为设备数量服务的,它还可以用多达4个的物理链接组成宽链接来获得成倍的带宽。以4宽度内部串行附属连接器为例,SATA只能通过4根相互间没有逻辑联系的线缆获得4个独立的SATA链接,SAS却可以得到一个4宽度链接(在一个扩展器上)、两个2宽度链接(在两个扩展器上)、四个1宽度链接(在四个独立的扩展器或设备上),甚至还能够是一个3宽度链接和一个1宽度链接性能与灵活度都远胜于SATA。 不过,扩展器引入的复杂度也不尽是优点,譬如它将原本直接相连的两个设备分隔开就隐藏着潜在的风险。为此,SAS在链路层引入了速率匹配(rate matching)的概念,即在高速连接一侧(视需要)降低实际数据速率,维持扩展器吞吐量的平衡。这一功能对SAS主机控制器(3.0Gbps)通过扩展器连接SATA外围设备(1.5Gbps)的应用显得尤为重要。 说到SAS主机控制器连接SATA外围设备,我们还得颇费些口舌。SAS支持3种协议,分别是串行SCSI协议(Serial SCSI Protocol,SSP),全双工,让SCSI运行在增强的SATA物理层上;串行ATA隧道协议(Serial ATA Tunneled Protocol,STP),为SATA增加多目标寻址和多发起者访问,以适应SAS环境的需要;串行管理协议(Serial Management Protocol,SMP),用于发现和管理扩展器。 扩展器把SATA的点对点连接扩展至SAS的多发起者/多目标,然而SATA协议仅支持单发起者/单目标,STP的任务就是让发起者能够通过扩展器访问SATA目标。STP在发起者与最远的、也就是连接SATA设备的扩展器端口(STP目标端口)之间建立起一条通路(隧道),传输标准的SATA 1.0帧,因此在SATA设备看来,自己连接的就是SATA主机适配器。如果发起者端口识别出与其直接相连的是一台SATA设备,则只使用SATA协议通信。 那么SAS主机控制器端口怎么知道自己连接的是SATA设备还是SAS设备呢?这就要借助于带外(Out of band,OOB)信号来识别了。在连接初始化时,主机控制器端口送出OOB慢速脉冲信号,检测目标对COMSAS脉冲的响应情况如果目标也返回COMSAS脉冲,就是SAS设备,反之即为SATA设备。需要注意的是,由于在SAS协议中发起者和目标是对等的,外围设备也可以主动送出COMSAS脉冲,向主机适配器表明自己的身份。以硬盘为例,能否生成COMSAS脉冲即是辨别SAS与SATA的依据。 STP发起者端口经过OOB协商确认与自己相连的是SATA设备后即进入SATA模式,严格遵循SATA主机适配器的行为规范。STP并不关心SATA FIS(Frame Information Structure,帧信息结构)的内容,SATA命令排队可以在FIS中传输前提当然是STP发起者端口和SATA设备必须支持命令排队功能。 传输完成后由SAS主机适配器或扩展器决定是否用STP断开与SATA设备的连接,以后需要时再重新连接。整个过程中该SATA设备始终以为自己通过正常的流控机制直接连在某个SATA主机适配器上,实际情况却是SAS主机适配器进行了SATA“翻译”工作。在Windows操作系统中,这个SAS主机适配器将与使用Miniport驱动程序的SATA主机适配器一样被归类为SCSI控制器。 结语:融合促进分层存储 由于单端口的带宽(3.0Gbps,甚至1.5Gbps)已经能够满足硬盘的要求,SAS硬盘增加第二端口并不是为了支持宽链接(2-wide),而是通过给它们赋予不同的SAS地址(World Wide Name,WWN),让双端口分属两个(冗余的)域以防系统出现单点故障,从而提高可用性。 在SAS环境中,SATA设备同样有高可用性需求,即允许两个主机适配器连接到一台SATA硬盘上,避免主机适配器成为单点故障源。与SAS的双端口不同,在任何时刻都只能由一个主机适配器独享此SATA硬盘的控制权(由系统软件检测哪个主机适配器处于“活动”状态,即不是active-active的)。这种通路切换机制由两端口到单端口的适配器(也称Port Selector端口选择器)实现,目前Port Selector 1.0规范已经公布。在任何时刻只有一个端口处于活动状态,在切换端口之前硬盘的所有行为都必须停止(队列中无请求)。端口选择器的设计取决于子系统厂商,可以两边分别是SAS(双端口)和SATA连接器,也有可能把端口选择器放在背板上,或者干脆将其集成到硬盘上配合统一的背板连接器使用。此外,端口选择器还可以用于静态负载均衡。不过,这样一来也对该SATA硬盘的工作周期(724)和平均无故障时间(MTBF)提出了更高的要求。 SAS的整个架构,比同样以串行方式运行SCSI协议的FC-AL更为完善,有望引起高端硬盘接口一场革命。这里我们要着重指出的是SAS兼容SATA的重大意义。长期以来,高端的FC和并行SCSI接口与低端的PATA接口互不兼容,而随着近几年ILM(信息生命周期管理)概念的提出,企业级存储系统对参考数据应用的需求不断增长,PATA及其继承者SATA开始打入企业级存储市场,系统制造商希望能够通过混用高端磁盘和低端磁盘在单个存储设备内部实现分层存储,为应用提供更高的灵活性。这种混用最初是在磁盘柜级别的,即磁盘柜内部全都是一种接口的硬盘,外部统一为FC接口(如EMC CLARiiON),后来FATA(Fibre Attached Technology Adapted)的出现将混用级别推进到了单个磁盘,灵活度大为提高。 然而,作为一种高端接口(FC)与低端盘体相结合的产物,FATA磁盘专为高低端磁盘混用而生,市场空间相对有限,成本和灵活性不会很理想。反观SAS与SATA的兼容,可谓自然而然,SATA在取代PATA之后一统低端市场,SATA硬盘随手可得,与SAS配合起来,相得益彰。 编看编想:谁的寿命更长? 随着SAS磁盘的推出,用户有了更多的选择,同样,用户也就更关心哪种磁盘技术的寿命长的问题。当我们对各种磁盘技术进行比较时,用户首先关心的是它们的故障率,于是有观点认为,谁的故障率最低谁的寿命最长。然而,事情远非如此简单! 由于SAS产品刚刚推出,其各种影响力还没有展现,但是,从SATA磁盘的应用来看,其获得成功的关键并不是更低的故障率,相反,其故障率甚至高于SCSI和光纤通道磁盘。记者认为,用户拥有RAID技术,拥有热插拔技术,它们的结合很大程度上补偿了磁盘肯定会发生的故障。另外,有些公司的特定技术(RAID 6以及类似技术)还做到了同时有两块磁盘发生故障而不丢失数据。 就目前情况来看,还没有一种技术可以完全替代其他所以类型磁盘,但是在用户进行分层次存储选择磁盘时,用户的有些选择已经发生了很大的变化,勿庸置疑,串行技术的优势已经逐渐显现出来,并且会发扬光大。 IT经理应当了解所有这些问题,然后考虑价格、厂商因素以及其他许多问题。选择SATA或者SAS磁盘会更便宜吗?这取决于用户的需要。在大多数问题得到充分了解后,企业IT经理可以根据IT的经济性而不仅仅是技术,做出决定。 来源:CNW 在网络的主要属性被确定之后,就要评估和选择建造SAN 的构件了。只需要较小型SAN 的应用系统,通常用一种Switch 构成即可,这样实施较为简便。要连接的存储器和服务器较少(少于50)时,一到数个Switch 足以支持环境需要。 如果是支持大型企业应用,就需要多类型Switch 。每种Switch 在基础设施中承担不同的任务。有些Switch 承担到存储库的主要连接,因此需要非常高的可用性。其它Switch 用于支持服务器集群的整合,只需要高性能和较少端口数量。 另外,我们设计存储网络系统时,还需要考虑如下几个因素:Switch 类型 广义来说,有三种光纤信道Switch:Director 、网络Switch 和判优环路Switch( 或称环路Switch) 。企业不能想当然,以为所有厂商的产品都相同。某个厂商的Director 完全有可能是另一厂商的网络Switch 。 Director-Director 是一个多端口、高带宽网络Switch ,用于提供最高的可用性。Director 中某个部件的失灵不会影响正常应用,对SAN 性能和可用性都无影响。Director 有全冗余、热插拔部件(电源、冷却、处理器和交换部件),能将宕机时间最小化。此外,Director 支持在线错误探查、隔离、修理和恢复。 Director 提供99.999% 的可用性,或每年少于5 分钟的宕机时间。Director 的高端口数和无堵塞结构使它能提供高性能带宽,允许所有端口同时交流,并能保持性能不变,没有额外延时。 Director 主要用于下列应用系统中: 不允许宕机的关键任务系统 企业SAN 骨干网,是自身的关键任务资源,提供永远畅通的数据传输路径 应用密集型系统,必须保证任意端口间的高带宽通信 一个Director 结构包括内置冗余,即使部件失灵,也能确保数据流的连续性。 网络Switch :网络Switch 用于在Switch 所有端口间高速传输数据,不受任何干扰和阻碍。与Director 类似,网络Switch 定义一条通过其它Switch 的数据传输路径,“编织”Switch 构成的网路,这些网路对连接设备来说是透明的。这种Switch 是一大类,各个厂商的产品及其属性(冗余、端口数目等)有很大不同。McDATA 提供的16 和32 端口网络Switch 包含冗余电源和冷却功能。单个网络Switch 提供99.9% 的可用性-年平均宕机时间8.8 小时。网络Switch 通常担任小型SAN 中的骨干“承重墙”,在较大的企业SAN 中,它可作为整合点。 网络Switch 主要用于下列应用系统中: 部门级连接 分布式存储占主导地位的应用 小型SAN 的标准构件 环路Switch :判优环路(FC-AL)Switch 的连接成本最低,适用于低带宽设备,并支持磁带等传统判优环路设备。环路Switch 自身不能构成完整网络,它们是用于扩展原有网络的连接设备。McDATA 的ES-1000 环路Switch 的独特之处在于它包含一个内置的网络端口。这样,它只需一个专用连接设备与网络Switch 相连,就能很方便地被纳入较大的SAN。大多数环路Switch 支持环路内端口之间的同步全速数据传输。但是,如果出现多个连接争抢一个端口的情况,环路内就会出现竞争。由于这个问题,大多数环路Switch 都保持较少的端口数量(8),将带宽竞争控制在最小程度。 环路Switch 主要用于下列应用系统中: 适用于低带宽设备的低成本网络连接 NT 服务器整合 磁带整合 交换网络和传统环路的连接 不同类型Switch 对比 不同类型Switch 在可用性、性能、可扩展性和成本等方面均有不同。下面就这些方面做一些对比。对比证明没有一种Switch 可以在所有应用中都有最佳表现。每种Switch 都有独特的功能特性。因此,它们分别适用不同的应用。 可用性-可用性用于衡量Switch 正常运行时间,也用于衡量满足应用系统和基础网络需要的能力。由于SAN 提供用户(或应用系统)和信息间的唯一存取路径,因此每条路径的可用性至关重要。 Switch 的可用性是以正常运行时间所占百分比来表示的,数值通常在每年99%( 宕机时间3.6 天)到99.999%( 宕机时间少于5 分钟)之间。高可用性网络由Director 和冗余网络Switch 支持购买哪种Switch 可以很容易地通过计算宕机成本和随之导致的业务损失来衡量。 Director-单一Director 提供的可用性最高,达99.999% 。如果有全冗余部件,一次故障不会造成任何连接损失。所有部件均可热插拔,因此替换起来非常方便、迅速。不同Director 端口插板通常采用双路径服务器和存储连接,以便将连接可用性最大化。 网络Switch-单一网络Switch 的可用性最高可达99.9%(年平均宕机时间8.8 小时),取决于不同厂商的功能设置。有些部件故障是可以在线排除的,例如替换风扇或电源。 其它部件故障可能导致Switch 下线、中断连接或需要替换。替换一台Switch 至少需要1 小时。所有主机和存储设备均通过双路径连接到冗余网络Switch 后,网络Switch 组成的网络可用性可以高达99.99%( 年宕机时间少于53 分钟)。不过要求各主机都安装路径恢复软件。由于配置不同,一台Switch 出现故障,仍然可能造成性能问题,如网络瓶颈增多和延时。为保持99.99% 的可用性,现场需要一台备用Switch,这样如果主Switch 出现故障,宕机时间可以缩短到最短。 环路Switch-如果附带冗余电源和冷却装置,单一环路Switch 的可用性最高可达99.9%( 年平均宕机时间8.8 小时)。这些产品主要用于工作组区域连接。如果将所有设备双路径连接到冗余环路Switch ,环路Switch 的可用性可达到99.99% 。 确定业务所需最低可用性是正确选择产品的重要基础。在有些环境中,可用性是最重要的目标,因此选用高可用性Director 物有所值。其它环境对可用性的要求没有这么高。 对于工作组和部门级办公应用来说,一定时间的宕机是可以容忍的,所以网络Switch 和环路Switch 已能够满足需要。 性能-无论是只安装一台Switch ,还是要建立完整网络,这个问题都不能回避。Switch 的性能特性取决于Switch 的结构。结构性能实际上取决于整体网络设计和网络内的传输模式。 Director 和网络Switch-单一Director 或Switch 的性能取决于其结构。大多数Director 和网络Switch( 如McDATA 的产品)都提供高性能、所有端口上任意设备的连接-不论Switch 上别处的传输情况如何,都能保证每个端口的完美性能表现。但是,市场上也有一些产品提供高端口数量,但不提供高性能的任意连接。这类产品实际上是一些小Switch 的集合,它们相互连接起来,象一个大Switch 的样子。 环路Switch-Switch 上的各个端口分享带宽,而所有端口都通过一个通用连接反向连入整体网络。这种Switch 提供低成本、低带宽的连接。对于不需要高性能的应用,或者没有I/O 功能,因而不能高速运行的主机,这是一个不错的选择。 当多个Switch 连接起来构成一个大网络后,性能评估变得更加复杂,因为Switch 间的链接(ISL) 很容易成为网络瓶颈,即堵塞。当一个链接上用户过多,就会导致性能下降和延时(从源点往目的地发送信息所需时间)加长。由于许多需要存取数据的应用系统对延时非常敏感,堵塞就成为一个需要解决的重要问题。 必须采取措施确保所有设备在所有潜在数据传输路径上反向通讯时不受带宽限制,甚至在部件发生故障时也不会受到影响。必须审慎确定ISL 数量,确保它们不会成为瓶颈。还需进一步考虑,某一部件发生故障后,正常运行的连接势必承担更多的传输量,在这种情况下,SAN 会受到什么影响。 为了充分发挥网络作用,尽量减少ISL 数量非常重要。减少ISL 的最好办法是在SAN 中采用端口数量多的Director 和Switch ,由于所有端口都可进行任意设备无障碍通信,因此可以减少Switch 的数目。在设计阶段,企业必须将预计的SAN 规模(用户端口数)与Switch 规模相匹配。 例如,一个预计有64 个用户端口的SAN 可以采用16/24/32 或64 端口的Switch 作为构件。但是如果采用16 端口Switch 建设SAN,其性能和未来的扩展能力都不理想。可用性最高、性能最好的解决方案是单一64 端口Director 。 扩展性-扩展性指的是SAN 能以对业务损害最小的方式增大规模。Director 和网络Switch 都支持网络连接,并可通过增加Switch 扩展网络。在原有SAN 设计中就考虑进增长因素,并将需增加的Switch 数量控制在最少是提高可扩展性的关键。这之所以成其问题是因为当Switch 一台台被加进网络时,新Switch 上的端口以及原有Switch 上的端口必须重新分配到Switch 的多个链路上。如果加进网络的是端口数量少的Switch ,就意味着要不断添加新的Switch ,势必降低网络中可用端口的数量。 Director-由于采用的是底盘式设计,因此Director 比较独特。企业可以购买只带有部分端口插板的Director,然后随业务增长逐渐加大容量,同时不影响正常运作。此外,由于Director 的端口较多,不需要频繁增加新的Switch 。 网络Switch-在网络Switch 中,所有端口都被固定在一块母板上,所以不能分开购买,尽管企业一开始可能用不了那么多端口。与Director 一样,端口数越多,为系统扩展而增加Switch 的频率就越低。 环路Switch-在单一环路Switch 中,增加端口会降低其它所有端口的性能,因为环路Switch 中所有端口共享带宽。尽管光纤信道环路最多可容纳126 个环路连接,能保证正常性能的实际连接数要小得多。通常,每个端口只负责一个节点。因此要扩展系统就需增加新的环路Switch 。每台新的环路Switch 都需要额外占用一个Director 或网络Switch 端口。 成本-所有网络基础设施的采购,成本都是最重要的考虑因素。不同Switch 具有不同功能和不同成本。必须在网络层就进行初步成本估算,因为SAN 的整体拥有成本(TCO) 是最重要的衡量尺度,相比之下,特定Switch 的费用是微不足道的。SAN 的管理成本也必须考虑到。由端口少的Switch 组成的大型网络的管理成本要高于由多端口Director 和Switch 组成的小型网络的管理成本。 不同型号Switch 的区别就在于每端口的价格。其实,只要运行环境合适,每种Switch 都能提供低成本连接。例如,比起网络型Switch 结构,Director 在大型高可用性网络中的运行成本更低廉。相反,在较小的部门环境,16 端口或32 端口的网络Switch 就已足够。 Director-由于Director 支持99.999% 可用性,所以其端口成本较其他Switch 高。另外,Director 的端口比网络和环路Switch 多,其总成本也高于其他Switch

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论