


版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
1、h3c oaa之wan优化技术白皮书目录目目录录oaa wan 优化解决方案技术白皮书1.1.概述概述1.11.1背景背景广域网的带宽比局域网带宽差很多,并且广域网带宽的增加会带来成本大幅度上升。与此同时还会带来一定影响的网络延迟。广域网应用大幅度增加,除了语音、视频外,传输文件、图片以及海量数据的分析以及处理,这些都是困扰用户正常使用的重要因素。另外信息的集中化管理,对各分部和总部之间的高质量信息转送也提出了越来越高的要求,这就需要增加各地的分支机构。与此同时企业分支网络逐渐出现了数据集中趋势,一般情况下企业会将大部分共享数据库放到总部的数据中心,给每一个分支机构访问, 但随着分支机构的迅速
2、增加且多数员工外出办公时的访问量也在上升, 这种一对多的数据服务给企业总部的服务器和带宽带来了巨大的压力,影响了数据交换的速度。企业虽然也可以向运营商购买更高的带宽,不过成本费用较高并且效果不明显。广域网性能低下对于用户的影响主要包括以下几个方面:大多数企业管理、应用软件均采用 c/s 结构进行编写,虽逐步在进行 b/s 的更改,但是大部分企业的应用仍然基于 c/s 结构,对于 c/s 到 b/s 结构的更改仍然是一个重要的课题增加带宽并不能解决访问及应用慢速的问题,问题存在与 tcp 自身,tcp 自身慢启动问题仍然是阻碍企业业务正常开展的主要问题广域网行业纵向网的分支机构众多,全部采用高带
3、宽连接投资非常巨大,合作伙伴之间带宽一般采取的是临时建立的连接,带宽极低,又要传输大量的数据,造成传输速度难以忍受基本语音视频业务没有最佳的 qos 策略来进行保证,造成质量不佳,最终导致应用开展不起来;大量非法应用堵塞了现有正常应用开展,占据的带宽造成了正常带宽的缩减。1.21.2广域网优化简介广域网优化简介广域网(wan)带宽昂贵,绝大多数用户也因此只能拥有有限的广域网带宽。如何以最小的投入提高网络性能?如何为远程用户提高访问速度和服务效率?怎样确保随时召开异地视频会议而不被打断?一种方式是“扩出口买带宽” ,其实有更合理的方法解决。数据压缩、动态缓存、ip 流量管理以及 qos 等都可以
4、一定程度上解决广域网传输加速的问题。但压缩仅仅解决了带宽资源的问题,对于延迟非常大的链路,仅靠压缩是无法完全解决问题的。为解决系统性能和应用系统数据传输受 wan 通信限制的问题, 相关技术开始浮出水面,并逐渐形成一个细分的市场这就是 wan 优化技术市场。其中包括:应用加速、数据压缩、动态缓存、ip 流量管理、qos 保障、带宽管理、延时缩减、序列缓存、路径优化和应用管理可视化等。 要解决的核心问题是应用和广域网之间的矛盾,因为传统的网络资源限制了多种应用的性能。随着网络优化技术的发展,诸如控制网络应用(控制 qq、msn、im) 、限制 p2p(限制 bt、emule、pplive、edo
5、nkey)软件占用带宽、通过 qos 合理分配带宽、web 缓存、数据压缩、动态缓存等网络加速方法和解决方案已经能够满足多数用户的需要了。为什么广域网优化会受到如此青睐呢?原因是它的确能解决广域网目前存在的几大关键弊病。首先,带宽问题。广域网的带宽比局域网带宽差得太多,如一条 t1 线路的带宽只相当于千兆网的千分之一,许多帧中继线路的带宽只有 256kbps,并且广域网带宽的增加会带来成本大幅度上升。其次,延迟问题。打过跨国 ip 电话的人或许都有这样的体验,当你说完话后,对方的回音总是过一小段时间才能听到,这就是延迟的最好例子,在进行视频通话时就更明显了。目前广域网应用剧增,除了语音、视频外
6、,传输图形或图像文件、海量数据的处理,都是困扰用户的实际应用。再有,协议问题。一些目前采用的协议并不是为广域网而设计的(如 tcp 协议) ,协议效率低下,性能不够理想。2.2.广域网优化原理介绍广域网优化原理介绍广域网优化的技术有很多,但核心的技术主要包括:数据压缩、动态缓存、tcp 加速、应用加速、qos 等几个方面。2.12.1数据压缩原理介绍数据压缩原理介绍迄今为止大多数网络压缩系统都是基于数据包。 基于数据包的压缩系统缓冲数据包都通过解压器引导至远程网络。此后,用户可一次压缩一个数据包, 或一次压缩多个数据包,然后再发送至在其中反向进行该流程的解压器。图1 数据压缩原理基于数据包压缩
7、应用的主要问题是压缩时它将多种数据类型混合在一起。 所有压缩例程在处理同类数据时将获得更大的压缩比。在处理异质数据时(例如,多种协议的大量数据包) ,压缩比率会大大降低。基于数据包的压缩系统会存在其它问题。压缩数据包时, 这些系统必须在网络中编写小数据包,并进行其它工作以集合并封装多个数据包。仅有其中一项操作不可能达到最佳效果。在网络中编写小数据包会增加 tcp/ip 标头的开销。 另外, 集合并封装数据包会为该数据流增加封装标头。先进的压缩算法支持在处理所有应用类型时能够在完全同类的数据之间进行压缩。 随之而来的结果是,与同类基于数据包的系统相比,压缩比更高。图2 同类数据压缩原理2.22.
8、2缓存原理缓存原理2.2.1 基本原理所有压缩例程共同存在的局限性是存储空间有限。 许多例程, 例如 gzip, 只能存储 64 kb 的数据。其它技术,例如基于磁盘的压缩系统,可以存储 1 tb 的数据。为了理解字典大小的作用,需要对高速缓存管理内容有一个基本的了解。请求 web 站点类似,并非所有网络中传输的字节会在同一个频率下重复。有时系统会通过高频率传输一些字节, 因为这些字节是常用文件或通用网络协议中的一部分。其它字节只会出现一次并且不会重复出现。压缩和堆积定律 (zipfs law and heaps law) 中描述了频繁重复字节序列和非频繁重复字节序列之间的关系。所有基于当前字
9、典的压缩系统会通过存储频繁访问的数据并删除非频繁访问的数据以进行不均等的分配。通过这种优化方式,存储少于 10% 的所有字节方式会使命中率超过 50%。这种字节方式的不均等分布效果充分证明了公共压缩程序的效率。gzip 仅存储 64kb 的历史记录,但平均能够压缩近 64% 的内容。 bzip2 能够存储 100kb 至 900kb 的历史记录, 平均压缩了 66%的内容。尽管数据存储空间不足,但 gzip 和 bzip2 仍能出色运行的原因在于频繁出现的字节序列能够表示网络中的大多数字节。2.2.2 数据块缓存原理基于块的系统可存储以前在广域网中传输数据流部分。再次遇到这些块时, 其参考数据
10、会传送到远程设备中,该远程设备继而会重组原始数据。基于块的系统主要缺点是反复出现的数据和块的长度永远不会完全相同。因此, 匹配仅是部分匹配, 还会留下一些重复数据不被压缩。下图详细描述了使用 256 字节块大小压缩 512 字节数据时的情况。图3 基于块的数据缓存为了提高缓存效率,字节级粒度的缓存技术出现了。匹配并发送带有字节级粒度 (bytelevel granularity) 的数据。下图说明了处理数据的过程。图4 字节级数据缓存与基于块的系统相比, 字节粒度级别无论对于文档还是对于应用层协议标头,均能提高其压缩级别。2.32.3tcptcp 加速原理介绍加速原理介绍tcp 协议原理较为复
11、杂,影响tcp 性能的因素很多,但有一个关键的因素是tcp 会降低带宽的利用率, 这对于带宽极其有限的广域网来说是非常致命的。影响 tcp 带宽利用率的主要因素包括以下几个方面:窗口大小通告与滑动窗口拥塞避免慢启动窗口调节技术除了提高带宽利用率之外,减少确认重传次数,缩短 tcp 连接的握手过程时间等也是 tcp加速的重要技术点。选择性确认3 次握手过程的优化下面简单介绍这几个方面的原理。2.3.1 窗口大小通告与滑动窗口通信双方接收模块需要依据各自的缓冲区大小,相互通告还能接受对方数据的尺寸。双方发送模块则必须根据对方通告的接收窗口大小,进行数据发送。这种机制称之谓滑动窗口,它是tdp 接收
12、方的流量控制方法。它允许发送方在停止并等待确认前可以连续发送多个分组(依据滑动窗口的大小) ,由于发送方不必每发一个分组就停下来等待确认,因此可以加速数据的传输。滑动窗口在排序数据流上不时的向右移动,窗口两个边沿的相对运动增加或减少了窗口的大小,关于窗口边沿的运动有三个术语:窗口合拢(当左边沿向右边沿靠近) 、窗口张开(当右边沿向右移动) 、窗口收缩(当右边沿向左移动) 。当遇到快的发送方与慢的接收方的情况时,接收方的窗口会很快被发送方的数据填满,此时接收方将通告窗口大小为 0,发送方则停止发送数据。直到接收方用户程序取走数据后更新窗口大小,发送方可以继续发送数据;另外,因为ack 报文段有可
13、能丢失,发送方可能没有成功接收到更新的窗口大小,因此发送方将启动一个坚持定时器,当坚持定时器超时,发送方将发送一个字节的数据到接收方,尝试检查窗口大小的更新。2.3.2 慢启动如果发送方一开始便向网络发送多个报文段,直至达到接收方通告窗口大小为止。当发送方与接收方在同一局域网时,这种方式是可以的。 但如果在发送方与接收方之间存在多个路由器和速率较慢的链路时,就可能出现问题。一些中间路由器必须缓存分组,并有可能耗尽存储器的空间,将来得降低 tcp 连接的吞吐量。于是需要一种叫“慢启动”的拥塞控制算法。慢启动为发送方增加一个拥塞窗口,记为 cwnd,当与另一个网络的主机建立连接时,拥塞窗口被初始化
14、为 1 个报文段。 每收到一个 ack, 拥塞窗口就增加一个报文段 (cwnd 以字节为单位,但慢启动以报文段大小为单位进行增加) 。发送方取拥塞窗口与通告窗口中的最小值作为发送上限。拥塞窗口是发送方使用的流量控制,而通告窗口是接收方使用的流量控制。发送方开始时发送一个报文段,然后等待 ack。当收到该 ack 时,拥塞窗口从 1 增加到 2,即可以发送两个报文段。当收到这两个报文段的 ack 时,拥塞窗口就增加为 4。这是一种指数增加的关系。2.3.3 拥塞避免慢启动算法增加拥塞窗口大小到某些点上可能达到了互联网的容量, 于是中间路由器开始丢弃分组。这就通知发送方它的拥塞窗口开得太大。拥塞避
15、免算法是一种处理丢失分组的方法。该算法假定由于分组受到损坏引起的丢失是非常少的(远小于 1) ,因此分组丢失就意味着在源主机和目标主机之间的某处网络上发生了拥塞。有两种分组丢失的指示: 发生超时和接收到重复的确认。拥塞避免算法与慢启动算法是两个独立的算法,但实际中这两个算法通常在一起实现。图5 拥塞避免与慢启动拥塞避免算法和慢启动算法需要对每个连接维持两个变量: 一个拥塞窗口 cwnd 和一个慢启动门限 ssthresh。算法的工作过程如下: 1) 对一个给定的连接,初始化 cwnd 为 1 个报文段,ssthresh 为 65535 个字节。 2) tcp 输出例程的输出不能超过 cwnd
16、和接收方通告窗口的大小。拥塞避免是发送方使用的流量控制,而通告窗口则是接收方进行的流量控制。前者是发送方感受到的网络拥塞的估计,而后者则与接收方在该连接上的可用缓存大小有关。 3) 当拥塞发生时(超时或收到重复确认) ,ssthresh 被设置为当前窗口大小的一半(cwnd和接收方通告窗口大小的最小值, 但最少为 2 个报文段) 。 此外, 如果是超时引起了拥塞, 则 cwnd被设置为 1 个报文段(这就是慢启动) 。 4) 当新的数据被对方确认时,就增加 cwnd,但增加的方法依赖于我们是否正在进行慢启动或拥塞避免。如果 cwnd 小于或等于 ssthresh,则正在进行慢启动,否则正在进行
17、拥塞避免。慢启动一直持续到我们回到当拥塞发生时所处位置的半时候才停止(因为我们记录了在步骤 2中给我们制造麻烦的窗口大小的一半) ,然后转为执行拥塞避免。慢启动算法初始设置 cwnd 为 1 个报文段,此后每收到一个确认就加1。这会使窗口按指数方式增长:发送1 个报文段,然后是2 个,接着是 4 个。拥塞避免算法要求每次收到一个确认时将 cwnd 增加 1/cwnd。与慢启动的指数增加比起来,这是一种加性增长。我们希望在一个往返时间内最多为 cwnd 增加 1 个报文段(不管在这个 rt t 中收到了多少个 ack) ,然而慢启动将根据这个往返时间中所收到的确认的个数增加 cwnd。处于拥塞避
18、免状态时,拥塞窗口的计算公式如下(引公式参照 bsd 的实现,segsize/8 的值是一个匹配补充量,不在算法描述当中) : cwnd - cwnd + segsize * segsize / cwnd + segsize / 8。2.3.4 窗口调节技术传输窗口大小,即在收到回应之前一次发送的数据量,会直接影响到tcp 的性能。相反,性能又与回程时间成正比,因为协议需要(通过 ack 包表明数据已被成功接收的信号)确保数据投送到位。在最糟糕的情况下,一个端点会等待另一端点回应数据的传输情况,从而使网络闲置的时间变长。当传输窗口变得很小时,这种现象便会发生,但此现象并不能准确反映线路速度和延
19、迟情况。使情况变得更加复杂的是,tcp 会根据响应速度调整自己的窗口大小。连接的距离越长,窗口就越小。如果响应的速度非常缓慢,tcp 协议就可能永远也不选择最大的窗口尺寸,这意味着许多广域网连接的完整容量永远也不会被完全利用。 因此, tcp 协议可能导致广域网性能的恶化,甚至在带宽 仍然非常充足时,性能的恶化也在所难免。同样,重传也会严重影响 tcp 的性能,要知道 1%的包丢失可能导致最多 80%的性能损失。tcp 应当基于系统可用带宽时延积(bdp,bandwidth delay product)设定合适的接收方窗口大小。 接收方通知窗口应当至少同 bdp 一样大, 否则接收方的 tcp
20、 层将对最大可用带宽造成限制。 该技术可以自行选择 tcp 窗口的大小, 从而实现最高的传输速率并在广域网连接发生包丢失时 将重传数据包的数量减至最小。通知窗口应当尽可能地设大一些,使得所有的可用带宽都有可能使用; 但如果通知窗口比 bdp 大太多, 也可能因为缓存溢出和随后的 tcp 重传导致性能恶化。因而,通知窗口应当比 bdp 稍大,一方面充分使用容量,另一方面也不会损害到网络处理拥塞和丢报恢复的能力。tcp fast start 也是一种算法,它可以加速 tcp 发送窗口的增长速度,从而实现了可用带宽的快速利用。2.3.5 选择性确认tcp 连接期间,接收方将最后一个成功接收报文段的序
21、号包含进 ack 中,此即累积性确认。一般而言,选择性 ack(sack,selective acknowledgement)则是可选项,它允许接收方向发送方通知所有数据段的传输状态。这样,发送方就可以有选择地重传,而不是仅仅重传第一个丢失分组并等待下一个 ack(一个 rtt)来接收新的丢失信息。在具有较大 bdp 通道时, sack 更能发挥作用, 有研究结果表明它适合于具有中等丢失率(低于窗口大小的 50%)的长延迟网络环境。这使得 sack 比较适合于无线链路。但其不足在于它会稍微加大报头的尺寸(最多增添 8byte) ,且其使用需要客户机、服务器两端的支持。2.3.6 split t
22、cptcp 连接跨越广域网时,广域网上跳数多,路由变化频繁,会对tcp 连接的性能造成不良影响。为了提高 tcp 连接的吞吐率,提出 split tcp(即 tcp 代理)的解决思路。具体地说就是在tcp 端到端连接中设置代理,将一条完整的长路经切割成多条段路径,针对每一条短路径分别建立 tcp 连接。 这样可以提高 tcp 连接的吞吐量, 同时也可以改善 tcp 建立的 3 次握手过程的性能。连接建立分要经过三次握手过程:1.客户端发送一个 syn 段到指明客户打算连接的服务器的端口,报文段中要设置客户端初始序号。2.服务器发回包含服务器的初始序号的 syn 报文段作为应答。同时,将确认序号
23、设置为客户的初始序号加 1,并设置 ack 位标志报文段为确认报文段。3.客户端必须将确认序号设置为服务器初始序号加 1,对服务器的 syn 报文段进行确认。全局维护一个初始序号种子, 这个初始序号为随时产生的 32 位整数。 连接建立的超时和重传初始值为 3 秒,超时采用指数退避算法,3 秒超时后超时值为 6 秒,然后是 12 秒,24 秒。连接建立最长时间限制为 75 秒。图6 split tcp2.42.4qosqos 原理介绍原理介绍2.4.1 模型1. best-effort 模型best-effort 是一个单一的服务模型,也是最简单的服务模型。应用程序可以在任何时候发出任意数量的
24、报文,而且不需要事先获得批准,也不需要通知网络。对 best-effort 服务网络,尽最大的可能性来发送报文,但对时延可靠性等性能不提供任何保证。2. interserv 模型该模型使用资源预留(rsvp)协议,rsvp 运行在从源端到目的端的每个路由器上,负责请求/预留资源。interserv 模型能够在 ip 网上提供端到端的 qos 保证。但是,interserv 模型对路由器的要求很高, 当网络中的数据流数量很大时, 路由器的存储和处理能力会遇到很大的压力。3. diffserv 模型区分服务 (diffserv) 是 ietf 工作组为了克服 interserv 的可扩展性差在 1
25、998 年提出的另一个服务模型, 目的是制定一个可扩展性相对较强的方法来保证 ip 的服务质量。 在 diffserv 模型中,业务流被划分成不同的差分服务类。一个业务流的差分服务类由其 ip 包头中的差分服务标记字段(different service code point,简称 dscp)来表示。在实施 diffserv 的网络中,每一个路由器都会根据数据包的 dscp 字段执行相应的 phb(per hop behavior)行为,主要包括以下三类 phb:expedited forwarding (ef):主要用于低延迟、抖动和丢包率的业务,这类业务一般运行一个相对稳定的速率,需要在路
26、由器中进行快速转发;assured forwarding (af):这类业务在没有超过最大允许带宽时能够确保转发,一旦超出最大允许带宽,则允许根据不同的丢弃级别丢弃报文。af确保转发类将转发行为分为4类,每一个确保转发类都被分配了不同的带宽资源,并对应3个不同的丢弃优先级。ietf建议使用4个不同的队列分别传输af1x、af2x、af3x、af4x业务,并且每个队列提供3种不同的丢弃优先级,因此可以构成12个有保证转发的phb。best effort (be):尽力转发,主要用于对时延、抖动和丢包不敏感的业务。目前, 基于 diffserv 模型的 qos 服务是业界主流。 下面将简单介绍一些
27、基于 diffserv 模型的qos 技术。2.4.2 qos 技术介绍1. 流量分类和标记报文分类是将报文划分为多个优先级或多个服务类, 如使用 ip报文头的tos (type of service,服务类型)字段的前三位(即 ip 优先级)来标记报文,可以将报文最多分成 8 类;若使用 dscp(differentiated services codepoint,区分服务编码点,tos 域的前 6 位) ,则最多可分成 64类。在报文分类后,就可以将其它的qos 特性应用到不同的分类,实现基于类的拥塞管理、流量整形等。2. 拥塞管理拥塞管理是指网络在发生拥塞时,如何进行管理和控制。处理的方
28、法是使用队列技术。将所有要从一个接口发出的报文 进入多个队列,按照各个队列的优先级进行处理。不同的队列算法用来解决不同的问题,并产生不同的效果。常用的队列有 fifo、 pq, cq, rtp 优先队列, wfq, cbwfq等。拥塞管理的处理包括队列的创建、报文的分类、将报文送入不同的队列、 队列调度等。在一个接口没有发生拥塞的时候,报文在到达接口后立即就被发送出去,在报文到达的速度超过接口发送报文的速度时,接口就发生了拥塞。拥塞管理就会将这些报文进行分类,送入不同的队列;而队列调度对不同优先级的报文进行分别处理,优先级高的报文会得到优先处理。3. 拥塞避免由于内存资源的有限,按照传统的处理
29、方法,当队列的长度达到规定的最大长度时,所有到来的报文都被丢弃。对于tcp 报文,如果大量的报文被丢弃,将造成 tcp 超时,从而引发 tcp 的慢启动和拥塞避免机制,使 tcp 减少报文的发送。当队列同时丢弃多个 tcp 连接的报文时,将造成多个 tcp 连接同时进入慢启动和拥塞避免,称之为:tcp 全局同步。这样多个tcp 连接发向队列的报文将同时减少,使得发向队列的报文的量不及线路发送的速度,减少了线路带宽的利用。并且,发向队列的报文的流量总是忽大忽小,使线路的上的流量总在极少和饱满之间波动。为了避免这种情况的发生,队列可以采用加权随机早期检测 wred(weighted random
30、earlydetection ) 的报文丢弃策略 (wred 与 red 的区别在于前者引入 ip 优先权, dscp 值, 和 mpls exp来区别丢弃策略) 。采用wred 时,用户可以设定队列的阈值 (threshold) 。当队列的长度小于低阈值时,不丢弃报文;当队列的长度在低阈值和高阈值之间时,wred 开始随机丢弃报文(队列的长度越长,丢弃的概率越高) ;当队列的长度大于高阈值时,丢弃所有的报文。由于 wred 随机地丢弃报文,将避免使多个 tcp 连接同时降低发送速度,从而避免了 tcp 的全局同步现象。当某个 tcp 连接的报文被丢弃,开始减速发送的时候,其他的 tcp 连接
31、仍然有较高的发送速度。 这样, 无论什么时候, 总有 tcp 连接在进行较快的发送, 提高了线路带宽的利用率。4. 流量监管与流量整形流量监管(traffic policing)的典型作用是限制进入某一网络的某一连接的流量与突发。在报文满足一定的条件时,如某个连接的报文流量过大,流量监管就可以对该报文采取不同的处理动作,例如丢弃报文,或重新设置报文的优先级等。通常的用法是使用 car 来限制某类报文的流量,例如限制 http 报文不能占用超过 50%的网络带宽。流量整形(traffic shaping)的典型作用是限制流出某一网络的某一连接的流量与突发,使这类报文以比较均匀的速度向外发送。流量
32、整形通常使用缓冲区和令牌桶来完成,当报文的发送速度过快时,首先在缓冲区进行缓存,在令牌桶的控制下,再均匀地发送这些被缓冲的报文。5. 链路分片与交叉(link fragment & interleave,lfi)对于低速链路,即使为语音等实时业务报文配置了高优先级队列(如rtp 优先队列或 llq) ,也不能够保证其时延与抖动, 原因在于接口在发送其他数据报文的瞬间, 语音业务报文只能等待,而对于低速接口发送较大的数据报文要花费相当的时间。采用 lfi 以后,数据报文(非 rtp 实时队列和 llq 中的报文)在发送前被分片、逐一发送,而此时如果有语音报文到达则被优先发送,从而保证了语
33、音等实时业务的时延与抖动。lfi 主要用于低速链路。6. rtp 报文头压缩(rtp header compression,crtp)crtp 主要在低速链路上使用,可将 40 字节的 ip/udp/rtp 头压缩到 24 个字节(不使用校验和可到 2 字节) ,提高链路的利用率。crtp 主要得益于同一会话的语音分组头和语音分组头之间的差别往往是不变的,因此只需传递增量。rtp 协议用于在 ip 网络上承载语音、视频等实时多媒体业务。3.3.解决方案主要模块介绍解决方案主要模块介绍h3c 的 oaa wan 优化解决方案,主要由 msr(multiple service router)多业务
34、路由器与waam(wan application )模块组成,两者之间通过 acfp(application control forward protocol应用控制转发协议)进行互动连接。3.13.1多业务路由器多业务路由器 msrmsrmsr(multiple services router)多业务开放路由器是 h3c 公司专门面向行业分支机构和大中型企业而推出的新一代网络产品。msr 先进的软件结构与硬件平台,能够在最小的投资范围内为企业边缘网络提供一体化解决方案,更能充分满足未来业务扩展的多元化应用需求,符合企业 it 建设的现状与趋势。企业信息架构正在由 c/s 模式向 b/s 模式
35、转变,msr 具备高数据转发能力与高加密能力,很好的解决了转变过程中凸现的网络带宽压力与安全隐患,保障企业关键业务流可以高速、机密的通过广域网传输。3.23.2waamwaam 模块模块waam 模块的主要功能包括以下 4 个部分:数据压缩应用加速tcp 加速l7qos3.2.1 数据压缩1. 压缩模式waam 有两个压缩模式:ipcomp, rtm。报文的具体压缩封装模式参加下图。图7 ipcomp 和 rtm 压缩模式ipcomp 类似一种隧道封装方式,在两个 waam 模块之间建立一条静态隧道,对于隧道内的数据提供完全的封装,对原始报文头和数据都进行压缩处理,对外不可见,安全性较高。但由
36、于对外屏蔽了原始报文头,使得网络中一些基于报文头特殊字段的处理无法实施,例如:qos,流量分析等等。需要注意的是:如果有明确的需要,可以通过配置保留原始报文头中的部分字段,如:源地址、ttl 或 tos 域。rtm 保留原始报文头,仅压缩原始数据区,安全性较差,但由于保留了原始报文头,可以保证 qos、流量分析等功能的实施。2. 压缩算法waam 的压缩算法主要有 3 个,分别针对不同区域的数据进行压缩。vda(vertical data analysis), 将数据流分割成不同的报头和数据段,并标记可以缓存的部分。sc(selective caching), 缓存重复传输的字节段。apc(a
37、daptive packet compression), 对于不能缓存、不能分割报头的数据进行压缩。1)vda 算法图8 vda 算法vda 可以自动识别报文中的各个协议字段,例如::hdlcip headertcp headerhttp/1.1 headerxmldata通过预定义的规则,vda 能够分析更加细致的报头信息,例如:sequence numberschecksumsprotocol identifiers2)sc 算法图9 sc 算法sc 算法的本质就是数据块缓存,为了提高缓存效率,sc 算法支持字节级粒度的缓存方式。从缓存的角度来看,vda 算法实际上是为 sc 算法服务的。
38、3)apc 算法图10 apc 算法apc 算法属于典型的压缩算法,具体原理与 2.1 小节中描述的原理很相似。不同的数据类型应用不同的压缩算法,例如:下列的数据就用不同的方式压缩处理。这样压缩效果更好。htmlsqljavascript4)压缩处理过程在整个压缩过程中,vda、sc、apc 并不是独立存在的,而是相互配合、相互作用的一个整体,下面是一个完成的压缩过程中,各算法之间的关系。图11 压缩过程 1vda、sc、apc 算法的应用有严格的顺序关系,vda 算法实际上可以看作是 sc 算法的一个准备步骤,而 apc 则是 vda/sc 算法的有效补充。图12 压缩过程 23.2.2 应
39、用加速当前广域网存在的主要问题是时延过大,导致各种应用性能严重降低。针对广域网时延过大的问题,waam 采用应用加速和 tcp 加速。应用加速主要包括:http/ftp/dns 等citrix 的各种应用语音流的加速处理1. http/ftp/dns 加速http/ftp/dns 应用加速的原理是本地代理机制。即在本地应用加速设备上建立代理,通过代理与服务器连接连接,对常用的请求进行缓存。在收到请求时与缓存数据对比,如果匹配则可以直接从本地代理获取应答,有效的减少了穿越广域网的请求、应答过程。因此,可以取得很好的加速效果。图13 http/ftp 应用加速启用 http/ftp 加速时,部分重
40、复的请求与应答不需要穿越广域网,减小时延广域网优化设备终结会话缓存数据,并对重复的请求本地作出应答减少重复数据反复穿越广域网启用 dns 加速时, 广域网优化设备本地应答 dns 请求, 可以将原本需要 200ms 的应答缩短到5ms。图14 dns 应用加速2. citrix 应用加速citrix 应用加速的核心是“小包组大包” ,减少报文头对带宽的消耗citrix 数据流小包居多,平均报文大小是80-100 字节,压缩后40-50 字节,这些小包的报文头对带宽的消耗很可观将报文头相同的多个小包组成一个大包,可以有效的减少报文头部对于带宽的消耗图15 citrix 应用加速3. 语音应用加速
41、语音加速的核心是链路分片与交叉(link fragment & interleave,lfi)语音等实时业务报文配置了高优先级队列(如 rtp 优先队列或 llq)低速接口发送较大的数据报文要花费相当的时间,影响语音时延采用 lfi 以后,数据报文(非 rtp 实时队列和 llq 中的报文)在发送前被分片、逐一发送,而此时如果有语音报文到达则被优先发送,从而保证了语音等实时业务的时延与抖动图16 语音应用加速3.2.3 tcp 加速waam 在实现 tcp 加速技术方面,主要依据 scps(space communications protocol standards)的标准。重点突出
42、以下几个方面的技术内容:1. split tcp突破 tcp 端到端连接的理念: 取消了广域网上 tcp 连接建立的 3 次握手过程。 加快 tcp 连接建立过程。在两端的局域网内建立两个高速的 tcp 连接在两端的 tcp 加速设备之间建立一条优化的 tcp 连接内网隔离,快速启动。本地加速设备回应 syn 报文,同时保证广域网连接启动2. 优化 tcp,增加带宽的使用率取消广域网上 tcp 连接得慢启动过程,广域网两侧的加速设备统一配置带宽参数,通过带宽参数计算拥塞窗口的尺寸取消窗口大小调整过程。窗口尺寸根据带宽计算,相对固定,不再频繁变化。窗口大小调整,扩大 tcp 窗口尺寸:基准值 1
43、6k ,最大值 64k。便于 ack 快速到达,减少不必要的重传。选择性 ack snack,仅对丢弃的包进行重传。不对称链路,例如:减少广域网上 ack 传输的数量取消拥塞避免机制优化容错算法3.2.4 基于应用的 qos 技术基于应用的 qos 的本质还是 qos,不同的是前者增加了一项功能:识别应用。在识别应用的基础上,对不同的应用进行标识,然后基于不同的标志对不同的应用作不同的 qos 处理,就是基于应用的 qos 技术的意义。1. 应用识别waam 识别应用的范围包括以下几个方面:预定义的应用识别支持 60 种预定义的应用识别,保存全部统计信息支持 266 种预定义的应用识别,保存简
44、要信息支持 50 种自定义的应用识别,定义内容包括:7 层应用识别,包括:http 地址,url, mime 等等citrix 发布的应用,客户端名称等等ip 地址和端口号tos/cos入方向或是出方向另外,waam 还能监控所有应用的历史统计数据。2. qos 处理waam 对不同的应用做不同的 qos 处理,主要包括以下几个方面:识别应用后,指定应用的优先级根据应用的优先级,改变报文的 tos/cos 域指定应用的最小占用带宽指定应用的最大占用带宽3.2.5 acfp 协议acfp application control forward protocol,应用控制转发协议,一种设备间的 c/s(客户端
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
最新文档
- 2025年阿托品考试题及答案
- 2025年ptn考试试题及答案
- 护士心包疾病真题及答案
- 2025年湖北省属事业单位考试试卷
- 伊宁简易活动房施工方案
- 象山钢木实验台施工方案
- 河南电影院加固施工方案
- 山东户外警示牌施工方案
- 2025贵州民族大学参加第十三届贵州人才博览会引才60人模拟试卷及答案详解(新)
- 重庆幼师招聘真题及答案
- 2025年衢州编外考试试题及答案
- 2025-2026学年苏少版(2024)小学美术一年级上册教学计划及进度表
- 水务局面试真题及答案解析:水利行业招聘面试实战
- 邮政储蓄网点一点一策实施方案
- 2025年飞行服务站无人机培训行业现状分析报告
- 智慧城市的数据中心基石建设方案
- 2025年中医理疗师考试题库及答案
- 强迫性障碍护理查房
- 物业对中介管理办法
- 骨科病人饮食护理课件
- 2025年财政知识竞赛考试题库及答案(共50题)
评论
0/150
提交评论