详叙CDN的工作原理及工作过程_第1页
详叙CDN的工作原理及工作过程_第2页
详叙CDN的工作原理及工作过程_第3页
详叙CDN的工作原理及工作过程_第4页
详叙CDN的工作原理及工作过程_第5页
已阅读5页,还剩12页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

详叙CDN的工作原理及工作过程简介Internet的高速发展,给人们的工作和生活带来了极大的便利,对Internet的服务品质和访问速度要求越来越高,虽然带宽不断增加,用户数量也在不断增加,受Web服务器的负荷和传输距离等因数的影响,响应速度慢还是经常抱怨和困扰。解决方案就是在网络传输上利用缓存技术使得Web服务数据流能就近访问,是优化网络数据传输非常有效的技术,从而获得高速的体验和品质保证。网络缓存技术,其目的就是减少网络中冗余数据的重复传输,使之最小化,将广域传输转为本地或就近访问。互联网上传递的内容,大部分为重复的Web/FTP数据,Cache服务器及应用Caching技术的网络设备,可大大优化数据链路性能,消除数据峰值访问造成的结点设备阻塞。Cache服务器具有缓存功能,所以大部分网页对象(Webpageobject),如html,htm,php等页面文件,gif,tif,png,bmp等图片文件,以及其他格式的文件,在有效期(TTL)内,对于重复的访问,不必从原始网站重新传送文件实体,只需通过简单的认证(FreshnessValidation)-传送几十字节的Header,即可将本地的副本直接传送给访问者。由于缓存服务器通常部署在靠近用户端,所以能获得近似局域网的响应速度,并有效减少广域带宽的消耗。据统计‘Internet上超过80%的用户重复访问20%的信息资源,给缓存技术的应用提供了先决的条件。缓存服务器的体系结构与Web服务器不同,缓存服务器能比Web服务器获得更高的性能,缓存服务器不仅能提高响应速度,节约带宽,对于加速Web服务器,有效减轻源服务器的负荷是非常有效的。高速缓存服务器(CacheServer)是软硬件高度集成的专业功能服务器,主要做高速缓存加速服务,一般部署在网络边缘。根据加速对象不同,分为客户端加速和服务器加速,客户端加速Cache部署在网络出口处,把常访问的内容缓存在本地,提高响应速度和节约带宽;服务器加速,Cache部署在服务器前端,作为Web服务器的前置机,提高Web服务器的性能,加速访问速度。如果多台Cache加速服务器且分布在不同地域,需要通过有效地机制管理Cache网络,引导用户就近访问,全局负载均衡流量,这就是CDN内容传输网络的基本思想。2.什么是CDN?CDN的全称是ContentDeliveryNetwork,即内容分发网络。其目的是通过在现有的Internet中增加一层新的网络架构,将网站的内容发布到最接近用户的网络"边缘",使用户可以就近取得所需的内容,解决Internet网络拥塞状况,提高用户访问网站的响应速度。从技术上全面解决由于网络带宽小、用户访问量大、网点分布不均等原因,解决用户访问网站的响应速度慢的根本原因。狭义地讲,内容分发布网络(CDN)是一种新型的网络构建方式,它是为能在传统的IP网发布宽带丰富媒体而特别优化的网络覆盖层;而从广义的角度,CDN代表了一种基于质量与秩序的网络服务模式。简单地说,内容发布网(CDN)是一个经策略性部署的整体系统,包括分布式存储、负载均衡、网络请求的重定向和内容管理4个要件,而内容管理和全局的网络流量管理(TrafficManagement)是CDN的核心所在。通过用户就近性和服务器负载的判断,CDN确保内容以一种极为高效的方式为用户的请求提供服务。总的来说,内容服务基于缓存服务器,也称作代理缓存(Surrogate),它位于网络的边缘,距用户仅有"一跳"(SingleHop)之遥。同时,代理缓存是内容提供商源服务器(通常位于CDN服务提供商的数据中心)的一个透明镜像。这样的架构使得CDN服务提供商能够代表他们客户,即内容供应商,向最终用户提供尽可能好的体验,而这些用户是不能容忍请求响应时间有任何延迟的。据统计,采用CDN技术,能处理整个网站页面的70%〜95%的内容访问量,减轻服务器的压力,提升了网站的性能和可扩展性。与目前现有的内容发布模式相比较,CDN强调了网络在内容发布中的重要性。通过引入主动的内容管理层的和全局负载均衡,CDN从根本上区别于传统的内容发布模式。在传统的内容发布模式中,内容的发布由ICP的应用服务器完成,而网络只表现为一个透明的数据传输通道,这种透明性表现在网络的质量保证仅仅停留在数据包的层面,而不能根据内容对象的不同区分服务质量。此外,由于IP网的"尽力而为"的特性使得其质量保证是依靠在用户和应用服务器之间端到端地提供充分的、远大于实际所需的带宽通量来实现的。在这样的内容发布模式下,不仅大量宝贵的骨干带宽被占用,同时ICP的应用服务器的负载也变得非常重,而且不可预计。当发生一些热点事件和出现浪涌流量时,会产生局部热点效应,从而使应用服务器过载退出服务。这种基于中心的应用服务器的内容发布模式的另外一个缺陷在于个性化服务的缺失和对宽带服务价值链的扭曲,内容提供商承担了他们不该干也干不好的内容发布服务。纵观整个宽带服务的价值链,内容提供商和用户位于整个价值链的两端,中间依靠网络服务提供商将其串接起来。随着互联网工业的成熟和商业模式的变革,在这条价值链上的角色越来越多也越来越细分。比如内容/应用的运营商、托管服务提供商、骨干网络服务提供商、接入服务提供商等等。在这一条价值链上的每一个角色都要分工合作、各司其职才能为客户提供良好的服务,从而带来多赢的局面。从内容与网络的结合模式上看,内容的发布已经走过了ICP的内容(应用)服务器和IDC这两个阶段。IDC的热潮也催生了托管服务提供商这一角色。但是,IDC并不能解决内容的有效发布问题。内容位于网络的中心并不能解决骨干带宽的占用和建立IP网络上的流量秩序。因此将内容推到网络的边缘,为用户提供就近性的边缘服务,从而保证服务的质量和整个网络上的访问秩序就成了一种显而易见的选择。而这就是内容发布网(CDN)服务模式。CDN的建立解决了困扰内容运营商的内容"集中与分散"的两难选择。无疑对于构建良好的互联网价值链是有价值的,也是不可或缺的。3.CDN新应用和客户目前的CDN服务主要应用于证券、金融保险、ISP、ICP、网上交易、门户网站、大中型公司、网络教学等领域。另外在行业专网、互联网中都可以用到,甚至可以对局域网进行网络优化。利用CDN,这些网站无需投资昂贵的各类服务器、设立分站点,特别是流媒体信息的广泛应用、远程教学课件等消耗带宽资源多的媒体信息,应用CDN网络,把内容复制到网络的最边缘,使内容请求点和交付点之间的距离缩至最小,从而促进Web站点性能的提高,具有重要的意义。CDN网络的建设主要有企业建设的CDN网络,为企业服务;IDC的CDN网络,主要服务于IDC和增值服务;网络运营上主建的CDN网络,主要提供内容推送服务;CDN网络服务商,专门建设的CDN用于做服务,用户通过与CDN机构进行合作,CDN负责信息传递工作,保证信息正常传输,维护传送网络,而网站只需要内容维护,不再需要考虑流量问题。CDN能够为网络的快速、安全、稳定、可扩展等方面提供保障。IDC建立CDN网络,IDC运营商一般需要有分部各地的多个IDC中心,服务对象是托管在IDC中心的客户,利用现有的网络资源,投资较少,容易建设。例如某IDC全国有10个机房,加入IDC的CDN网络,托管在一个节点的Web服务器,相当于有了10个镜像服务器,就近供客户访问。宽带城域网,域内网络速度很快,出城带宽一般就会瓶颈,为了体现城域网的高速体验,解决方案就是将Internet网上内容高速缓存到本地,将Cache部署在城域网各POP点上,这样形成高效有序的网络,用户仅一跳就能访问大部分的内容,这也是一种加速所有网站CDN的应用。4.CDN的工作原理在描述CDN的实现原理,让我们先看传统的未加缓存服务的访问过程,以便了解CDN缓存访问方式与未加缓存访问方式的差别:由上图可见,用户访问未使用CDN缓存网站的过程为:1) 、用户向浏览器提供要访问的域名;2) 、浏览器调用域名解析函数库对域名进行解析,以得到此域名对应的IP地址;3) 、浏览器使用所得到的IP地址,域名的服务主机发出数据访问请求;4) 、浏览器根据域名主机返回的数据显示网页的内容。通过以上四个步骤,浏览器完成从用户处接收用户要访问的域名到从域名服务主机处获取数据的整个过程。CDN网络是在用户和服务器之间增加Cache层,如何将用户的请求引导到Cache上获得源服务器的数据,主要是通过接管DNS实现,下面让我们看看访问使用CDN缓存后的网站的过程:通过上图,我们可以了解到,使用了CDN缓存后的网站的访问过程变为:1)、用户向浏览器提供要访问的域名;2)、浏览器调用域名解析库对域名进行解析,由于CDN对域名解析过程进行了调整,所以解析函数库一般得到的是该域名对应的CNAME记录,为了得到实际IP地址,浏览器需要再次对获得的CNAME域名进行解析以得到实际的IP地址;在此过程中,使用的全局负载均衡DNS解析,如根据地理位置信息解析对应的IP地址,使得用户能就近访问。3)、此次解析得到CDN缓存服务器的IP地址,浏览器在得到实际的IP地址以后,向缓存服务器发出访问请求;4) 、缓存服务器根据浏览器提供的要访问的域名,通过Cache内部专用DNS解析得到此域名的实际IP地址,再由缓存服务器向此实际IP地址提交访问请求;5) 、缓存服务器从实际IP地址得得到内容以后,一方面在本地进行保存,以备以后使用,二方面把获取的数据返回给客户端,完成数据服务过程;6) 、客户端得到由缓存服务器返回的数据以后显示出来并完成整个浏览的数据请求过程通过以上的分析我们可以得到,为了实现既要对普通用户透明(即加入缓存以后用户客户端无需进行任何设置,直接使用被加速网站原有的域名即可访问),又要在为指定的网站提供加速服务的同时降低对ICP的影响,只要修改整个访问过程中的域名解析部分,以实现透明的加速服务,下面是CDN网络实现的具体操作过程。1) 、作为ICP,只需要把域名解释权交给CDN运营商,其他方面不需要进行任何的修改;操作时,ICP修改自己域名的解析记录,一般用cname方式指向CDN网络Cache服务器的地址。2) 、作为CDN运营商,首先需要为ICP的域名提供公开的解析,为了实现sortlist,一般是把ICP的域名解释结果指向一个CNAME记录;3) 、当需要进行sorlist时,CDN运营商可以利用DNS对CNAME指向的域名解析过程进行特殊处理,使DNS服务器在接收到客户端请求时可以根据客户端的IP地址,返回相同域名的不同IP地址;4) 、由于从cname获得的IP地址,并且带有hostname信息,请求到达Cache之后,Cache必须知道源服务器的IP地址,所以在CDN运营商内部维护一个内部DNS服务器,用于解释用户所访问的域名的真实IP地址;5) 、在维护内部DNS服务器时,还需要维护一台授权服务器,控制哪些域名可以进行缓存,而哪些又不进行缓存,以免发生开放代理的情况。5.CDN的技术手段实现CDN的主要技术手段是高速缓存、镜像服务器。可工作于DNS解析或HTTP重定向两种方式,通过Cache服务器,或异地的镜像站点完成内容的传送与同步更新。DNS方式用户位置判断准确率大于85%,HTTP方式准确率为99%以上;一般情况,各Cache服务器群的用户访问流入数据量与Cache服务器到原始网站取内容的数据量之比在2:1到3:1之间,即分担50%到70%的到原始网站重复访问数据量(主要是图片,流媒体文件等内容);对于镜像,除数据同步的流量,其余均在本地完成,不访问原始服务器。镜像站点(MirrorSite)服务器是我们经常可以看到的,它让内容直截了当地进行分布,适用于静态和准动态的数据同步。但是购买和维护新服务器的费用较高,另外还必须在各个地区设置镜像服务器,配备专业技术人员进行管理与维护。大型网站在随时更新各地服务器的同时,对带宽的需求也会显著增加,因此一般的互联网公司不会建立太多的镜像服务器。高速缓存手段的成本较低,适用于静态内容。Internet的统计表明,超过80%的用户经常访问的是20%的网站的内容,在这个规律下,缓存服务器可以处理大部分客户的静态请求,而原始的WWW服务器只需处理约20%左右的非缓存请求和动态请求,于是大大加快了客户请求的响应时间,并降低了原始WWW服务器的负载。根据美国IDC公司的调查,作为CDN的一项重要指标-缓存的市场正在以每年近100%的速度增长,全球的营业额在2004年将达到45亿美元。网络流媒体的发展还将剌激这个市场的需求。6.CDN的网络架构CDN网络架构主要由两大部分,分为中心和边缘两部分,中心指CDN网管中心和DNS重定向解析中心,负责全局负载均衡,设备系统安装在管理中心机房,边缘主要指异地节点,CDN分发的载体,主要由Cache和负载均衡器等组成。当用户访问加入CDN服务的网站时,域名解析请求将最终交给全局负载均衡DNS进行处理。全局负载均衡DNS通过一组预先定义好的策略,将当时最接近用户的节点地址提供给用户,使用户能够得到快速的服务。同时,它还与分布在世界各地的所有CDNC节点保持通信,搜集各节点的通信状态,确保不将用户的请求分配到不可用的CDN节点上,实际上是通过DNS做全局负载均衡。对于普通的Internet用户来讲,每个CDN节点就相当于一个放置在它周围的WEB。通过全局负载均衡DNS的控制,用户的请求被透明地指向离他最近的节点,节点中CDN服务器会像网站的原始服务器一样,响应用户的请求。由于它离用户更近,因而响应时间必然更快。每个CDN节点由两部分组成:负载均衡设备和高速缓存服务器负载均衡设备负责每个节点中各个Cache的负载均衡,保证节点的工作效率;同时,负载均衡设备还负责收集节点与周围环境的信息,保持与全局负载DNS的通信,实现整个系统的负载均衡。高速缓存服务器(Cache)负责存储客户网站的大量信息,就像一个靠近用户的网站服务器一样响应本地用户的访问请求。CDN的管理系统是整个系统能够正常运转的保证。它不仅能对系统中的各个子系统和设备进行实时监控,对各种故障产生相应的告警,还可以实时监测到系统中总的流量和各节点的流量,并保存在系统的数据库中,使网管人员能够方便地进行进一步分析。通过完善的网管系统,用户可以对系统配置进行修改。理论上,最简单的CDN网络有一个负责全局负载均衡的DNS和各节点一台Cache,即可运行。DNS支持根据用户源IP地址解析不同的IP,实现就近访问。为了保证高可用性等,需要监视各节点的流量、健康状况等。一个节点的单台Cache承载数量不够时,才需要多台Cache,多台Cache同时工作,才需要负载均衡器,使Cache群协同工作。7.CDN示例商业化的CDN网络是用于服务性质的,高可用性等要求非常高,有专业产品和CDN网络解决方案,本文主要从理论角度,理解CDN的实现过程,并利用已有网络环境和开源软件做实际配置,更深刻理解CDN的具体工作过程。Linux是开放源代码的免费操作系统,已经成功应用于许多关键领域。Bind是Unix/FreeBSD/Linux等类unix平台上非常有名DNS服务程序,Internet上超过60%的DNS运行的是bind。Bind的最新版本是9.x,用的比较多的是8.x,bind9有很多新特性,其中一项是根据用户端源地址对同一域名解析不同的IP地址,有了这种特性,能把用户对同一域名的访问,引导到不同地域节点的服务器上去访问。Squid是Linux等操作系统上有名的Cache引擎,与商业Cache引擎相比,Squid的性能比较低,基本功能工作原理与商业Cache产品是一致的,作为试验,是非常容易配置运行起来。以下简要介绍CDN的配置流程。1、要加入CDN服务的网站,需要域名(如[url][/url]地址20)解析权提供给CDN运营商,Linuxaid的域名解析记录只要把www主机的A记录改为CNAME并指向即可。是CDN网络自定义的缓存服务器的标识。在/var/named/域名解析记录中,由:wwwINA20改为wwwINCNAME.2、 CDN运营商得到域名解析权以后,得到域名的CNAME记录,指向CDN网络属下缓存服务器的域名,如,CDN网络的全局负载均衡DNS,需要把CNAME记录根据策略解析出IP地址,一般是给出就近访问的Cache地址。Bind9的基本功能可以根据不同的源IP地址段解析对应的IP,实现根据地域就近访问的负载均衡,一般可以通过Bind9的sortlist选项实现根据用户端IP地址返回最近的节点IP地址,具体的过程为:1)为设置多个A记录,/var/named/的内容如下:$TTL3600@INSOA..(2002090201;Serialnum10800;Refreshafter3hours3600;Retry604800;Expire1800;Timetolive)INNSnswwwINA68nsINA8cacheINA3;有多少个CACHE地址cacheINA0;就有多少个CACHE的A记录cacheINA72)/etc/named.conf中的内容为:options{directory"/var/named";sortlist{#这一段表示当在本地执行查询时#将按照3,0,7的顺序返回地址{localhost;{localnets;3;{0;7;};};};#这一段表示当在202/8地址段进行DNS查询时#将按照3,0,7的顺序返回地址{202/8;{3;{0;7;};};};#这一段表示当在211/8地址段进行DNS查询时#将按照7,3,0的顺序返回地址#也就是7是最靠近查询地点的节点{211/8;{7;{3;0;};};};{61/8;{3;{0;7;};};};};};zone"."{typehint;file"root.cache";};zone"localhost"{typemaster;file"localhost";};zone""{typemaster;file"";};Cache在CDN网络中如果工作在服务器加速模式,因为配置里已经写明加速服务器的url,所以Cache直接匹配用户请求,到源服务器获得内容并缓存供下次使用;如果Cache工作在客户端加速模式,Cache需要知道源服务器的IP地址,所以CDN网络维护和运行一个供Cache使用的DNS服务器,解析域名的真实IP地址,如20,各域名的解析记录与未加入CDN网络之前一样。4、 工作在CDN网络中缓存服务器必须工作在透明方式,对于Squid来说,需要设置以下参数:httpd_accel_hostvirtualhttpd_accel_port80httpd_accel_with_proxyonhttpd_accel_uses_host_headeron标题:作者:kirin时间:2008-01-0913:53什么是服务器加速技术获取信息的速度快慢已经成为制约互联网发展的重要因素。如何在现有的网络资源下提高用户获取信息的速度,已成为困扰众多数据中心、ISP和企业的一大难题。以负载均衡器为代表的互联网加速产品应运而生。它们将成为未来互联网上不可或缺的一部分。为了不再看到“ServerTooBusy”上网过程中用户最不满意的是什么?来自CNNIC的最新调查报告表明,用户认为上网过程中最不能令人满意的地方是速度太慢。电子商务逐步走入众多传统企业时遇到的最大阻力是什么?网络平台的性能和服务水平仍不可靠显然是重要的因素之一。由于用户急剧增长,获取信息的速度快慢已经成为制约互联网发展的重要因素。尤其随着电子商务的迅速发展,企业的信息中心已经从侧重计算与数据处理的计算中心和侧重网络与数据通讯的网络中心发展成为一个将计算中心与网络中心功能平衡优化的集成一体的数据中心。作为企业电子商务网络的基础核心,数据中心将汇集高性能计算、数据通讯、语音通讯等处理功能于一体,成为支持企业未来电子商务系统应用的必然平台。但是,作为企业网的心脏,数据中心面临着众多的挑战。扩展性、灵活性、高性能、可靠性、高密度和安全性无一不是数据中心不可或缺的要求,尤其是在数据流急剧增长的时候还要进行持续稳定的运行。很难想象用户会在屡次遇到“ServerTooBusy”后还能再次访问这个网站;更难以想象正在进行信用卡支付时遇到掉线会有多么严重的后果。那么,如何解决这个瓶颈问题呢?如何才能切实提高网络的服务质量呢?显然,传统的网络结构已经不能满足这种高质量的需求。在仅靠不断增加带宽的方式提高访问速度收效甚微的情况下,想切实提高网络服务质量,就需要在现有网络层次结构中专门增加一层,以专门用于提高网络的响应时间。目前这种用于加速互联网络的产品有许多,代表技术有负载均衡、高速缓存、SSL/XML加速、流量与带宽管理等。目前,此系列产品已经越来越普遍地被各数据中心、ISP、企业网站使用。他们往往分布在应用服务器和路由器/交换机之间,有人称之为“前端基础设施”。所有这些技术都能改善网络速度、提高服务质量,但机理不同,适用的范围也不尽相同。以下详细介绍各个技术的特点和适用范围。负载均衡技术现在互联网上有多少客户?十分钟后客户数目会增长吗?这些问题恐怕谁也回答不了。互联网的快速增长已经使网络服务器面对的访问数量大大增加并且更加不可预知。如今,服务器必须具备提供大量并发访问服务的能力,其处理能力和I/O能力已经成为提供服务的瓶颈。如果客户的增多导致通信量超出了服务器能承受的范围,那么其结果必然是——宕机。显然,单台服务器有限的性能不可能解决这个问题,一台普通服务器的处理能力只能达到每秒几万个到几十万个请求,无法在一秒钟内处理上百万个甚至更多的请求。但若能将10台这样的服务器组成一个系统,并通过软件技术将所有请求平均分配给所有服务器,那么这个系统就完全拥有每秒钟处理几百万个甚至更多请求的能力。这就是负载均衡最初的基本设计思想。最早的负载均衡技术是通过DNS来实现的,在DNS中为多个地址配置同一个名字,因而查询这个名字的客户机将得到其中一个地址,从而使得不同的客户访问不同的服务器,达到负载均衡的目的。DNS负载均衡是一种简单而有效的方法,但是它不能区分服务器的差异,也不能反映服务器的当前运行状态。其实,这种负载均衡的基本设计思想只能算是负载均衡技术的最初应用。现代负载均衡技术除了可以做到合理、平均、实时地均衡系统负载外,还能够确保系统正常运行的高可用性和高可靠性。负载均衡服务能够平衡服务器群中所有的服务器和应用之间的通信负载,根据实时响应时间进行判断,将任务交由负载最轻的服务器来处理,以实现真正的智能通信管理和最佳的服务器群性能。假设每个服务器能响应的请求为每秒10万个。如果不采用负载均衡,那么该系统就只能达到每秒10万个的响应,即使采用三台服务器,也有可能在不到每秒30万个响应的时候就会出现某台服务器由于访问量过大而宕机;如果某台服务器出现故障,则可能导致数万个请求不能得到正确的响应。但如果采用负载均衡,不仅当服务器出现故障时可以自动将指向该服务器上的响应分担到其他服务器,还可以在数据量不太大时也将任务分配到各个服务器中,避免出现有些服务器数据量很小而有的已因数据量接近极限导致性能急剧下降的现象如果数据量超出了服务器的响应能力,只需增加服务器数目就可以平滑升级。也就是说,负载均衡技术不仅可以维持网络系统中负载的均衡分配,还能够维护网络系统的高可用性运行,因而是保证网络系统高性能的重要技术。现代负载均衡技术通常操作于网络的第四层或第七层。负载均衡器可以根据实际的响应时间制定优先级交付决策,从而实现高性能、智能化流量管理,达到最佳的服务器群性能。采用第七层应用控制还可以减少通信高峰期的错误讯息,因为差错控制和流量管理技术可以侦测到一些错误信息并透明地将会话重定向到另一个服务器,使用户顺利地进行使用。例如,图一中服务器A不可用或者数据库出现错误,错误信息将会返回到负载均衡器上,然后会将客户的访问指向服务器B或者将消息重放到其他数据库中去,整个过程对用户是透明的。由于采用了负载均衡技术,自动故障恢复得以实现,服务的时间可以延长,24x7可靠性和持续运行成为可能。另外,负载均衡器一般也支持路径外返回模式,即绕过流量分配器,为那些焦急等待大量数据文件请求响应的客户提供更快的响应时间。在最新的负载均衡产品中,智能化越来越明显。一些智能化的负载均衡器能够侦测到像数据库错误、服务器不可用等信息,从而采取措施使会话恢复和重定向服务器使电子商务能够得以顺利进行。多址负载均衡器可以对客户发来的访问请求进行解析,计算出最佳地址,然后将该地址返回客户,使客户自动连接到对其请求来说最佳的数据中心。负载均衡技术解决了出现大流量数据时服务器的智能化分配,但统计发现,在网络应用的需求中存在着许多冗余的内容,这些重复的需求占用了大量的网络资源。具体地说,在互联网上80%的用户都在访问20%的热门网站,而在这些热门网站中又有一些热门的内容吸引了绝大多数访问者的注意;对于企业局域网而言,员工所发出的网络指令也存在着很大的重复。以上的情况造成了计算机执行的指令具有很高的重复性,这是仅用负载均衡技术不能解决的。缓存技术就是基于以上的情况产生的。缓存设备会监视Web请求,检索它们,然后存储为它的对象。后来的用户将直接从本地的缓存设备而不是真正的目标站点获取该对象,从而达到提高响应性能,减少带宽压力的目的。有效放置的缓存设备可以及时向最终用户传送Web网页,提高Web站点的效率,减少WAN访问费用,甚至可以建立起一道抵御外部黑客攻击的安全防线。因此,不仅对于那些能够迅速地从缓存技术节省下来的费用中盈利的ISP和电信公司,而且对于企业而言,缓存技术也同样具有着越来越大的吸引力。缓存技术的基本概念是:由于从网络的边缘索取对象比从Internet中索取的速度更快、费用更低廉,因此将Web数据靠近最终用户保存,可以使服务提供商保留带宽,节省费用。缓存设备工作在比路由器更高的层次上,能够把用户所要访问的网络信息“抓”到本地,在最短的时间内将信息连续、完整、实时地传递给最终用户,不仅大大缩短了访问响应时间,而且极大地提高了高峰时间网络所能承受的访问容量。可以说,缓存技术降低了目前广域网通讯带宽成本,是提升互联网访问性能的最好方法。早期的缓存技术可用来节省带宽以减少网络拥塞,但它们不可避免地引起了以下问题:一是用户有可能得不到网页的及时更新,因为缓存区不可能自动跟踪网页的变化;二是为得到最新网页,用户访问时需要首先查询真正的服务器上的内容,这将导致访问速度的降低。目前使用最多的缓存技术产品是WebCache。一提Cache,大家自然会想到计算机里面的高速缓存,实际上,WebCache的功用远不止存储和提供数据这么简单。Cache是作为基于软件的代理服务器的一部分或专门的硬件(appliances,容器)出现的,本文主要谈后者。与前者相比,它可以提供更好的性能。不同的生产商提供的产品在许多方面存在着差异,其中包括配置和设置的难易程度、使用的协议、安全性能、远程管理、能够用于缓存的Web传输的类型以及价格、售后技术支持等。Cache设备可在用户端储存最常浏览的网页内容,随时提供给用户存取,还可同时监控内容的来源,以测知网页是否已更新,并同步更新储存的内容。一般来说,在配置了互联网加速设备后,由于很多用户浏览的内容可以从高速缓存中直接调出,网络效能会有明显的大幅提升:网页响应时间最多可以减少90%以上;频宽使用率将增加30%〜50%。SSL/XML加速解决了服务器分配和缓存的问题之后,在网络传输的内容上,由于SSL和XML仍占用相当的服务器资源,仍然会影响网络的传输速度。它们能加速吗?SSL(加密套接字协议层)是一种应用极为广泛的WEB信息安全传送协议。最初由Netscape开发以提供Internet上的安全连接和传送,目前,98%的Web上的安全传送都运用SSL。SSL已经成了安全互联网交易中数据加密的工业标准,采用SSL的网站在1998年和1999年间增加了两倍。由于SSL运用加密算法和密码,其加密/解密过程需大量占用服务器的CPU资源,使CPU利用率接近100%,从而大大降低了服务器性能。当网络用户大大增加后,网络性能将急剧降低,很可能用户会因网络响应欠佳而失去耐心离开网站。电子商务时代,服务器反应速度至关重要,为根本解决SSL给服务器运行带来的不利影响必须采用专门设备处理SSL协议,以使服务器CPU从繁重的加密/解密过程中解脱出来。当使用SSL加速器时,所有非SSL数据流可以未受任何改变地通过加速器;但是当由SSL加密过的数据流经过SSL加速器时,进入的SSL数据流被解密并干净地传给服务器,而外流的SSL数据流被加密并传向客户。这样服务器只需简单地处理SSL请求,原本消耗众多计算资源的HTTP/SSL现在被专用的SSL加速设备负责处理。使用了SSL加速器之后,系统每秒处理的安全连接数可由原来几十个增长到数百个。当然,如果需要最大限度地利用服务器,也可以卸载SSL处理工作。此外,SSL加速器可以实现灵活的动态堆叠,实行自动的“任务分担”以得到最大的扩展能力。一般SSL加速器可以自动与所有类型的服务器协同运行,并可以支持一台或多台服务器。XML(扩展标识语言)是SGML(标准通用标识语言)的一个子集,它已经快速取代EDI(电子数据交换)成为B2B网上交易的统一格式。事实已经证明,XML所采用的标准技术最适合Web开发oXML支持结构化的数据,可以更详细地定义某个数据对象的数据结构,例如,描述产品,详细定义该产品的生产厂、产品名、产品号、产地等信息,这种定义不仅为标记该产品提供方便,而且这种XML数据很容易按生产厂、产品名等排序,使用户的查询变得更方便。XML加速器可以将XML交易进行分类,如按照商业合作伙伴名称或类型、交易价值或数量以及时刻或时区为依据,配置业务优先级,从而提高响应速度,解放服务器资源,更快地处理交易。智能化的XML加速器可以使用多变量分类包括与、或,以满足复杂业务的优先级要求。还有的XML加速器自身提供服务器的负载均衡,以达到快速、安全的目的。带宽的重要性对网络来说不言而喻。但在实际应用中,由于众多数据流同时使用带宽却无法按照任务的关键性和时间的敏感性分级,所以关键应用带宽往往未被高效使用,带宽的使用效率低下,成为网络传输的瓶颈。例如,与Web浏览相比,电子邮件的任务关键性要高一些,但对时间的敏感性并没有过高的要求;而实时的游戏等,对时间非常敏感,但任务的关键性并不大。如果对这些数据流不加分析地传输,必然会影响网络传输的效率。带宽管理器使用户可以高效地管理网络通信、提供差别服务并控制广域网络带宽分配。由于使用带宽管理器可以赋予带宽优先级,因此可以加大关键业务的带宽,限制非关键或大容量应用的带宽,提高众多应用和服务的功能。带宽管理器适用于高速局域网和广域网的交界处,是所有数据流的唯一路径。它根据定制的带宽计划进行网络分析,进行精确的流量控制,智能地将通信进行分类。在大容量数据流的情况下,关键应用得以保证,带宽获得高效应用。由于各种应用、多种服务级别都能得到高质量服务,带宽使用效率达到了最大化。带宽管理器不仅可以分析网络通信状态,还可以提供网络报告,使服务提供商可以根据具体数字进行容量规划并评估配置变化所产生的影响。值得说明的是,以上谈到的负载均衡、高速缓存、SSL加速和带宽管理等各项技术既可以单独使用,也可以相互结合,或者集成到交换机或服务器中去。目前许多厂家已经生产了集合两种或两种以上加速技术的产品。也许几年以后,我们可以看到更为集成的“互联网加速器”或者已经集成所有加速技术的新型互联网服务器。选择适合自己的加速产品随着电子商务开始真正腾飞,网络加速设备的重要性越来越明显,渐渐从服务器中分离出来,成为网络环节中的重要部分。从全球市场上看,从1995年市场开始启动,到目前已经进入快速增长期。预计从明年起到2003年,网络加速市场将进入成熟期。在中国,目前几乎所有的数据中心、大型ISP/ICP都已经采用了一种或数种网络加速设备。相信随着市场的竞争加剧和互联网的进一步发展,此类产品将被越来越多的企业网站和ISP、ICP采用。如前所述,网络加速系列产品种类较多。目前市场上此类设备的主要厂家有Intel、AlteonWebSystems(已被北电收购,现称北电网络内容传输部,下仍简称耀腾公司)、CacheFlow、ArrowPointCommunications(已被Cisco收购)、F5Networks、Foundry等公司。负载均衡产品、流量管理和宽带管理产品主要用于数据中心等数据量非常大的场所,对动态的电子交易尤为重要。国内市场Intel.Cisco和耀腾公司都有相当的份额,如世纪互联、263、中国万网等都采用了他们的产品。此类产品种类较多,从基本的基于响应时间的负载均衡,到可以提供智能会话恢复和服务器错误恢复的智能负载均衡器,以及DNS多址负载均衡,都有相应比较成熟的产品。用户选择负载均衡产品时,需要考虑自己的流量、服务器负载能力和数目等情况,根据自己的需求选择适当的产品。宽带管理器目前产品还不太丰富,许多被集成在其他产品中。Intel公司拥有网络流量管理的全套解决方案,有以上介绍的各种类型的负载均衡产品。耀腾公司的系列Web交换机提供服务器负载均衡和带宽管理,尤其是其防火墙的负载均衡技术被许多数据中心采用。Cisco公司将ArrowPoint的产品更名为Cisco11000系列内容服务转换器,采用负载均衡技术避免服务器的超负荷工作。高速缓存技术可以适用于企业用户、服务提供商和信息提供商,具体说来,DDN用户、有众多分支的单位(如银行、石油、电力、证卷、政府、学校等)以及ISP、ICP(如教育网、科技网、各大型网站等)和电子商务站点都可以从高速缓存中受益。Cache的性能指标有很多,如同时支持的连接数、每秒钟的供应对象数、吞吐量以及平均对象命中率(用户从Cache中取到的对象数与所获得的总对象数包括从Internet上获取的对象数和从Cache中获得的对象数一一的比值)和平均字节命中率(用户从Cache中获取对象的平均字节数和从网上获取的全部对象的平均字节数的比值)等。连接的数目是选择适当容量、确定产品种类的依据,用户可以根据自身环境选择支持数百个连接或者几万个连接的产品;吞吐量是影响性能的另一个重要因素,如果选择不好,Cache反而会成为网络中的瓶颈;对象命中率和字节命中率则显示了Cache的效果,例如某个Cache的命中率是50%,就意味着Cache可以满足一半的数据请求,而另外一半数据则需要通过Inernet得到。目前大多数Cache的命中率都在30%左右,容量大一些的Cache通常可以达到60%到65%。根据性能的不同,用户可以选择适合自身环境的Cache设备。目前市场有CacheFlow、Cisco、耀腾、Intel、联想等数十家厂商提供Cache产品。CacheFlow提供了从入门级到顶级的各种产品0Alteon的系列内容智能交换机能对进入的客户端请求具备智能过滤能力,避免将不可缓存的请求传递给高速缓冲服务器。Cisco、Intel也都有数款系列缓存器。联想iCache是硬件和软件组合的解决方案,它借助Novell公司的高速缓存文件系统,拥有面向各级各类企业、ISP、ICP的产品。由于SSL一般适用在互联网交易中,所以SSL加速产品广泛应用在商业网站服务器上。但这并不意味着其他场合不需要进行SSL加速。在企业的内联网,随着越来越多的资源和工具都开始面向因特网,对潜在的敏感性数据(如工资表或个人信息)进行加密的需求使公司内部网络也在逐渐采用SSL技术。另外远程公司与公司合作伙伴之间的安全通信也通常采用SSL来加密HTTP文件传输。目前在SSL加速器市场上Intel和耀腾都有自己的产品,CacheFlow公司也于今年推出了SSL加速设备。作为一种完整的解决方案,Cicso提出了全面的CDN(内容传播网络)解决方案,包括内容分发和管理、内容路由、内容交换、内容边缘交付、智能的网络服务等。其中CiscoCSS(ContentSmartSwitch)系列交换机是整个体系结构的重要组成部分。除了高速智能Web内容交付、防火墙负载均衡功能、高质量的Cache服务外,CiscoCSS系列还配备了CiscoWebNS软件,它知道用户是谁、希望干什么以及如何在一个全球性的Web网络内最佳地服务于用户的请求,能使Web和应用服务供应商、Web内容供应商以及参与电子商务的企业为电子商务和Web内容交付建立优化的全球Web网络。负载均衡产品IntelNetStructure网擎7175/7185英特尔网擎7175网络应用负载均衡器使用有效的第七层应用进行智能内容决策的制定,对交付进行优先级划分,从而平衡了通信负载并优化了服务器群的性能。该产品可进行第四层至第七层应用/内容流量控制,使用基于实际响应时间的负载均衡进行通信管理,还可检测HTTP400、500和600系列错误,并透明地将通信重新导向至另一台服务器。自动服务器故障切换和冗余特性可以让通信绕过故障点,从而使站点始终保持开放状态。英特尔网擎7185网络智能负载均衡器可以实现安全快速的流量管理并提供SSL加速。它采用机架安装式设计,可以被轻而易举地安装在路由器和服务器群之间。支持安全交易的智能管理技术,同时支持内容驱动处理与优先级划分的第4层到第7层识别。该产品支持SSL环境中的cookies,确保交易安全;可以将处理速度提高到每秒钟多达1200个SSL连接,提高安全交易的响应速度。AlteonACEdirectorACEdirector可同时支持第2、以及4至7层上的交换。与传统数据包交换机不同,ACEdirector在高性能以太网交换机内结合了独有的流量管理服务,为每秒转发数十万个Web会话而进行了优化。本地和全局服务器负载平衡、应用程序重定向、SSL负载平衡、基于URL的重定向和负载平衡以及高级TCP/IP过滤功能等,都集成在同一个

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论