《事服务器》-第2章 细数服务器所需要的硬件_第1页
《事服务器》-第2章 细数服务器所需要的硬件_第2页
《事服务器》-第2章 细数服务器所需要的硬件_第3页
《事服务器》-第2章 细数服务器所需要的硬件_第4页
《事服务器》-第2章 细数服务器所需要的硬件_第5页
已阅读5页,还剩53页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

情境引入某公司已经建构了公司内部的小型网络,为了完善该网络的各种功能与服务,包括网内互发邮件、软件硬件资源共享,以及接入因特网、对外发布网页等,我们需要在该网络中加入和配置相应的服务器,来获得这些功能和服务。在了解了服务器的相关知识,选定了公司需要的服务器之后,还需要根据这些服务器的配置和运行需求弄清楚服务器需要哪些硬件,哪些硬件会影响到服务器的性能,并需要侧重选择哪些硬件。返回本章内容结构返回本章学习目标本章学习目标了解服务器中CPU的性能、作用和具体产品。了解内存的使用以及服务器需要的内存量。了解硬盘驱动器的性能参数及其接口类型。了解服务器带宽的使用与配置。下一页返回本章学习目标第1章讲解了4种服务器必须配置与加强的主要硬件组成部分,以帮助它维持其工作。它们是CPU、内存、硬盘和带宽。制造商意识到了这些需求,他们有一系列被指定为服务器及其性能服务的硬件产品。因为服务器必须配置高性能的硬件来获得其高效的工作能力,所以为服务器制造的硬件产品都必须是高性能的。本章将解读每一个制造商提供的服务器的主要部件的功能,并且简要地比较制造商间的不同。后面几章将更加详细地讲述每个部件,然后介绍几个不同制造商生产的产品。上一页返回2.1CPUNOS(NetworkOperatingSystem网络操作系统)的制造商总是对他们的产品提出对处理器的最低要求。这些要求如表2-1所示。然而,当今的一般台式机所提供的性能都要远远大于这些要求,因此PC制造商能够提供运行这个操作系统的配置需求(图2-1)。现在,如果想要实际运行一些应用程序,例如,登录到这台计算机上,那么有一点需要做的就是升级处理器。根据实际的处理器要求,需要考察几个量。网络通信和服务器的使用率是考查的关键。影响处理器使用性的其他因素包括运行在网络上的应用程序类型,不能访问服务器的文件类型和服务器提供的服务的数量。幸运的是,大多数最新的网络操作系统都提供了多种监视CPU使用率的监视工具。下一页返回2.1CPU2.1.1两个处理器优于一个处理器任何一个最新的NOS都支持多个处理器。而增加一个处理器会对服务器的性能有本质上的影响。一台有两个1.2GHz处理器的服务器执行几个大型程序的速度等同于只有一个2.0GHz处理器的服务器。原因是加倍了可用代码的处理线程的管道数量。另外,还加倍了可用的L1和L2缓存的数量。这对服务器意味着什么就显而易见了。这些管道作为数据在L1和L2缓存里移动的走廊,为等待处理的数据字节提供了更多的空闲空间。当然,为了使其实现,需要一个支持这个功能的主板和操作系统。图2-2展示了一个支持两个处理器的系统主板。稍后会讲解操作系统部分。上一页下一页返回2.1CPU多重处理能力有两种不同的方式来安排它的引脚排列,他们是非对称多处理和对称多处理(SMP)。基本上利用非对称的多重处理的计算机在它开始使用第二个CPU之前就已经填满了第一个CPU。对称多处理器试图平衡处理器之间的负担。后者提供了较好的性能。近来支持多处理的一切操作都使用对称多处理。表2-2列出了一些操作系统及其所支持的处理器的数量。沿着这些线索,谈论一下多处理器的内存要求。实际上,几乎任一类型的内存都能在SMP环境下工作。但是,用户能为加速SMP服务器存储器的存取提供一些硬件,例如,可以提供多个内存或支持在模块之内的多类型的内存。为此BIOS必须支持它,或者可以使用一个非常新的内存类型,如DDR或DDR-II。本章后面内容将会讨论DDR的有关内容,并且在第7章中会有更加详细的讲述。上一页下一页返回2.1CPU2.1.2如何得到一个得力的CPU就CPU品牌而言,英特尔和AMD是世界上的两大主要品牌。正如英特尔所想,他的产品是独一无二的。同样,在一个处理器环境里,AMD也证明了它作为服务器处理器的实力。不幸的是,直到最近,英特尔也没有允许系统设计师将AMD处理器应用于多CPU环境的芯片组。到2001年中期,AMD发布了760MP芯片组时,这种情况得到了改变。为了使用这一芯片组,系统构建师也必须使用一个AthlonMP处理器和一种被称为DDRRAM的存储器。AthlonMP处理器是一个1GHz和1.2GHz的芯片组。在它第一次发行时,这个特定的芯片组的局限性是最多只支持两个处理器。上一页下一页返回2.1CPUAMD公司的8100系列芯片组支持使用4个双核处理器的8组处理。AMD期望有4-核心的处理器来超过这个计算水平。Opteron(酷龙)处理器可用的速度将能达到3GHz。在SMP领域里,不只有AMD一家公司能设计专门的处理器。英特尔有它自己的Xeon的CPU生产线,虽然不专门地设计完全应用于SMP系统的处理器(将消灭它的小规模工作站的销售),但是它被嵌入到其架构中以支持被称为高级程序中断控制器(APIC)的电路。所有的系统都有一个芯片叫做程序中断控制器(PIC),就是那个系统用于请求中断(IRQ)的芯片。PIC确保一次不超过一个设备与CPU对话,APIC是为有多个CPU的计算机而设计的,并且每个处理器能处理自身的IRQ集合。上一页下一页返回2.1CPU现在有两台设备能同时与CPU对话,只要它们不是试图与同一个CPU对话。这是对A-PIC的简单描述,但是其实它涵盖了很多内容。如果准备在服务器里建一个SMP,必须同时购买两个CPU。实际上,CPU的价格及性能的更新速度很快,因此,为了能保证SMP工作,系统里的所有芯片都需要在3个不同的方面进行统一的配置:它们都需要运行在相同的时钟频率下,且具有相同速度的前端总线以及相同的单独发行或修正的CPU发行编码(指定该CPU的型号及参数)。可以通过检查系统控制面板来找到处理器的发行编码(图2-3)。对于两个不同的CPU,每个都有一个不同的发行编码,且在它们的微指令上很可能会有细微的区别。上一页下一页返回2.1CPU如果两种不同的CPU被嵌入到同一主板上,可能会发生数据冗余、频繁的编制程序及系统冲突。大多数的芯片组一般不允许这种情况发生。如果现在只购买了一个CPU,需要时还要再购买另一个CPU装到计算机上,此时可能会找不到想要型号的CPU。在挑选CPU时,关键是注重它的性能,包括内部处理速度、FSB速度、价格和主板上L1和L2的缓存类型。奇怪的是,在这3种性能中,内部处理速度是目前为止最不需要考虑的CPU的性能。如果一个CPU的速度是1.8GHz,理论上讲,它能在每一管道上以18亿次/每秒的速度来处理指令。当然,如果没有要执行的指令,或者没有可用的数据为这些指令执行任务,CPU会在那里等待直到获得相应的指令或数据。如果使用微软的实用监视器来追踪CPU的使用率,就能发现CPU在相当一段时间内是空闲的。上一页下一页返回2.1CPU因此,只有保留这些数据和指令,CPU处理更多的任务才是有意义的。CPU寻找数据或指令的第一个区域是在高速缓存里。高速缓存是内存里用来存储高频率使用的或系统确定下一个就要被使用的数据的一个区域。高速缓存容量越大,其性能越好。如果想要使数据进入高速缓存,就需要让数据离开主存,通过一个快速的FSB(FontSideBus前端总线)。FSB是能把数据从主存调到缓存的通道。因此,一个800MHz的CPU和一个133MHz的FSB及512KB的缓存计算机比一个900MHz的CPU和66MHz的FSB及128KB的缓存计算机的速度快很多。上一页返回2.2内存是否为老式大多数情况下,服务器里的第二大瓶颈问题是系统内存。NOS制造商总是乐观地以相同方式发布他们不同产品的CPU的最低要求。这些最低要求可以满足系统启动的最小RAM要求(图2-4)。如果现在想要让某位用户登录到服务器上,最好在服务器上能给这个用户分配一些内存。当然,如果用户在服务器上不能获得自己PC上没有的功能,那么他就没有必要登录到这台服务器上。这些功能通常叫做服务。服务器运行的每个服务都要求一定的内存,并且每个服务器还有它自己特定的要求。下一页返回2.2内存是否为老式系统性能很大程度地依赖于购买内存所花费的钱数以及哪种类型的内存。然而,服务器环境也会严格要求系统内存不能出错。如果出现错误,系统必须能恢复过来。有一种叫做纠错编码(ECC)的内存类型是专门为了这个目的而设计的。ELL的使用可以使系统的出错率缩小2%左右,但许多管理员希望常规内存在每几十亿次的读取中有少于一个错误的出错率,所以,他们坚持使用标准的内存类型。第6章将讨论几种不同的内存类型。上一页下一页返回2.2内存是否为老式显然,增加内存的时刻就是需要建立这个系统的时刻。如果现在有四个插槽,可以用512MB的内存条全部填满它们,因为这种做法相对较便宜,而且能够得到一台拥有2GB的RAM的服务器。这种做法尚可,但是几年之后,随着软件的不断升级,对内存容量的需求会不断增加。因此,为了升级现有的内存,就必须更换这些512MB的内存条。虽然使用时不会有任何问题,但是这仍然是令人讨厌的。提示:如果使用计算机时间足够长,就必须了解一件事:尽管不同的书都会指明不能把内存混合使用,但是其实有时这种做法是可以的。大多数的内存类型,如DDR和DDR-II,是可以在ELL和非ELL上暂存或不暂存的。这些概念会在第6章中详细讨论,但是现在本章可以说明很多主板都支持ELL或非ELL,但是不能将它们混合在一个主板上。大多数主板只支持其中一个。上一页下一页返回2.2内存是否为老式如果正在选择或升级内存,首先要知道系统使用的是哪种内存。混合内存放在一起通常是不能工作的。在实际使用过程中,混合内存会在主板上引起一系列的问题,而出现的主要问题是无法区分不同类型的内存。例如,如果想把ELL和非ELL混合在一起,系统也许会正常启动,但数据却是混乱的。一台服务器究竟需要多大的内存呢?遗憾的是,对于这个问题,没有一个正确的答案。但是计算机上需要安装容量足够大的RAM来实现以下功能:上一页下一页返回2.2内存是否为老式运行操作系统:在16MB~128MB的范围内波动,这是由制造商提供的最基本的要求运行服务:这很难计算,因为每个服务有它自己的要求,但是能确定的是,运行的服务越多,需要的RAM容量就越大运行应用程序:大多数服务器不会在后台运行很多的应用程序,除非它是一台应用服务器。然而还是有一些程序是必须运行的。稍后会更详细地讨论这些内容用户服务:使用网络的原因就是要为用户提供服务。每一位登录到服务器的用户都将占用一定数量的RAM上一页下一页返回最后,假设一个非常小的网络,该网络无法设置电子邮件服务器,那么它拥有一个512MB的RAM的服务器就能满足自身的需求。实际上,应该至少安装一个1GB的内存在一台小的服务器上,2GB~4GB的内存在中型机上,企业级服务器需要安装能提供的最大内存。如果要配置一个拥有很多用户的繁忙网络,在购买主板或服务器时,计算机总共能支持的内存容量是其中一个需要考虑的重要因素。上一页返回2.2内存是否为老式制约网络系统运行性能的一个关键因素是,它究竟拥有的是独立工作站或企业服务器,还是硬盘子系统。请注意在此并没有将硬盘子系统称为“硬盘驱动器”,因为服务器制造商在设计机器时,有用硬盘驱动组来代替单一硬盘驱动器的趋势。第8章将会更深入地探究使用多驱动器的原因及其性能和安全性等方面。购买硬盘时需要考虑两个关键因素—性能和可靠性。因为硬盘是系统最主要的一个“瓶颈”,所以人们想要购买自己能够负担的速度最快的硬盘。网络系统的主要作用是组织和分配数据,我们不希望在组织分配前,这些数据由于不合格的硬盘而过早地丢失。下一页返回2.3转动驱动(硬件)2.3.1衡量硬盘的性能在驱动上运行各种不同的数据片段是一个比大多数人想象得要复杂的过程。对于在输入/输出设备(I/O)上对硬盘进行操作的情形,读者可参考《A+指南及PC硬件维护和修理》这本书(作者即本书的作者)。讨论这个的目的是,可以以此来解释各种衡量硬盘性能的参数,这些参数包括存取时间、旋转速度、吞吐量和每秒的输入/输出操作。最后,驱动器所连接的接口类型将决定数据从驱动器到RAM移动速度的快慢。上一页下一页返回2.3转动驱动(硬件)通常,存取时间是从硬盘收到一个请求数据开始,然后在驱动接口上找出该数据的位置,到最终把读写头移动到它的位置上并使用磁脉冲对信息进行编码的一段时间。一旦读写头跟踪的位置不准确,它必须等待数据转动,以便将需要读写的数据的位置定在读写头之下。开始的一些操作是简单易懂且易于测量的,但当用户读取和调用数据时,机器需要寻找该段数据在驱动器上的位置,由于位置的不同寻找的时间会不同,而该时间无法用统一标准量化,因此标注在硬盘上的存取时间只是制造商的设定估值。所以,存取时间是由制造商设定输入/输出操作时间,并用磁头驱动臂移动到盘片表面直径1/3处的时间的总和来衡量的。磁头驱动臂是金属长条形的,读写头被安置在它的顶端。上一页下一页返回2.3转动驱动(硬件)其次,驱动器的旋转速度是测量存取时间的最后相位和驱动器的总吞吐量的关键,驱动旋转的速度越快,数据经过磁头的速度就越快。同样,磁头旋转的速度越快,每秒移动到磁头的磁道数据就越多。表2-3概述了旋转速度是如何影响存取时间和吞吐量的。注意,表格没有试图为每个速度提供相对吞吐量。因为不同的驱动在每条磁道上进行存取的数据数量不同,这就是驱动器的线性密度。不仅是驱动器与驱动器不同,由于在硬盘的外层磁道存取的数据量比内层磁道的多,所以即使是相同的驱动器在不同的磁道上存取的数据量也不同。有很多驱动器,如IBM的Ultraster系列,为使用者提供了存取数据密度的信息,这些信息就是每英寸内存储在驱动器上的位数。上一页下一页返回2.3转动驱动(硬件)数据吞吐量通常以每秒兆字节传送。这里有几个用于测量吞吐量的不同参数,可用来作为比较的标准。3个参数为:媒体传输速率:这个参数说明了读/写磁头能以多快的速度把信息调到驱动器的表面上来接口传输速率:指数据能以多快的速度从内存缓冲区移到RAM耐受数据速率:该参数是对吞吐量性能的更实际的测量。它是指当硬盘驱动传输一个大文件时,所花费的建立传输、定位和数据加密并通过总线传输整个文件的总时间上一页下一页返回2.3转动驱动(硬件)正如先前所提及的,当驱动器达到很高的耐受数据速率时,影响其性能的一个关键方面就是驱动器本身的旋转速度。除此以外,其性能也会受到驱动器缓存大小的影响。驱动缓存是驱动电路板上一个小到中等的非常快速的内存,它可作为一个数据储藏库。更大的缓存能有效地提高接口传输速率的使用率。上一页下一页返回2.3转动驱动(硬件)2.3.2接口的重要性一旦数据在驱动器的表面上被发现或检索到,它会被存储在驱动器的缓存里,该缓存经常被称为缓冲区。在缓冲区内,数据被移动到总线上并复制到RAM中。驱动器在物理上和逻辑上是通过接口与系统相连的。当今最普遍使用的接口有电子集成驱动器(IDE),ATA(BATA)系列、小型计算机系统接口(SCSI)和光纤信道/判优环路(FCAL)。实际上FCAL是SCSI的最新扩展,本部分内容将分别对它们进行讨论。上一页下一页返回2.3转动驱动(硬件)IDEIDE(IntegratedDeviceElectronics,集成设备电路)是目前为止所讨论的接口中价格最便宜的一种。但是,从建立一台服务器的角度讲,IDE存在着一些局限性,该局限性影响它成为用户的一个中意的选择。从其名字可知,在物理上,集成设备电路是固定在驱动器上的,而不是在系统主板或是一个独立的控制器上。大多数的系统具有两个端口,一个端口限制一次能支持两个设备。这在很大程度上限制了具有4个IDE的设备。一些比较新的系统允许4个端口支持8个设备。IDE设备能识别其后的40帧的数据的连接。它们具有配置主/从设置的跳线以及一个凹刻的电源插口套头,该插口可用来接入电源线,为驱动器提供电力。图2-5显示了IDE设各的背面情况。上一页下一页返回2.3转动驱动(硬件)在很多支持4个端口的主板上,有两个是专用的RAID控制器(用来挂载一些独立盘或低廉盘)。可把它们作为附加的设备来进行简单的配置。但是,如果进行这种操作,一些操作系统版本可能不能识别挂在这些端口上的设备。数据吞吐量也是IDE设备的一个严重的局限。目前市场上最好的接口传输速率是133MB/s。如果在40G的ATA-100硬盘(IDE接口)上运行测试,那么连续写的速度是8.2MB/s,连续读(现实世界中可获得的最快的吞吐量)的速度是31.4MB/s,随机读/写的速度是7.2MB/s)所有这些速度距133MB/s相差很远。上一页下一页返回2.3转动驱动(硬件)SATA现在最流行的一种驱动接口是BATA(串行ATA)。它只比义肛的速度慢一些但更易于配置。BATA接口是通过一条紧凑7针数据电缆连接的,比IDE或SCSI使用的那些电缆直径要小很多。较小的电缆使得在封闭的机器内部有更小的气流阻碍。SATA目前有两种可用的速度。原始的SATA支持最大为150MB/s的吞吐量。SATA有利的一面是它比IDE更接近实现这个理论的优点。SATA-II的速度为300MB/soSATA控制器可以用于支持硬件RAID和涉及每个控制器的16种设备。图2-6展示了安装在MACG5计算机上的两个SATA驱动器。上一页下一页返回2.3转动驱动(硬件)SCSISCSI接口很多年以来一直是服务器和高端工作站首选的接口(尽管下面将要讨论的FCAL一直紧随其后)。它宣称在设备的配置里有很多的选择可以提高吞吐速度,但这只是它多年来盛衰的一种表象。在第一次发行时,它涉及很多问题,导致人们不愿意使用这个接口。自从那时起,更加严格的标准被加在某些高端机器上,而判定元件的事实标准也被相应地改进和加强了。上一页下一页返回2.3转动驱动(硬件)对于SCSI的性能,这依赖于所使用的SCSI版本的不同,它可以支持7个或者15个设备(加上主机适配器)。这些设备把适配器串接起来。通过终止这些设备来指定适配器将其串接链的终点位置。这可以通过电阻器、跳线器或者开关来完成操作。最完美的是15个小部件全部在同一个IRQ(InterruptRequest中断请求)上对话并且没有冲突。这是因为主机适配器拥有IRQ,而不是设备本身。上一页下一页返回2.3转动驱动(硬件)SCSI接口可以以接近5MB/s的速度运行,随后的修正版本使它更加快速,直到它取代了所有其他的竞争产品。吸引网络管理员去构建一台服务器的原因是SCSI拥有自身纠错的能力。循环冗余校验(CRC)是一种数学演算方法。实际应用时,发送装置利用该数学演算方法对需要发送的数据进行计算,并将计算出的CRC值随数据一同发送给接收装置,接收装置对收到的数据重新计算CRC并与收到的CRC相比较,若两个CRC值不同,则说明数据通信出现错误,接收到的数据就会被放弃,接收设备会通知发送设备重传数据;反之,若相同则接受该数据。因此,与IDE相比,SCSI允许堆叠更多的小零件,这使得它运行的更加快速和可靠。思考一下,它为什么会如此流行?上一页下一页返回2.3转动驱动(硬件)FCAL从技术上讲,光纤信道/判优环路(FCAL)是义肛的一个新扩展。但是,因为它工作的方式极其不同,因此本章有必要对它进行单独讲述。正如其名字所示,这些设备被安排成一个环路,而不是一条链。FCAL也是即插即用的,因此它不像SCSI设备那样有很多的配置要求。高达126个设备能一起挂在同一个环路上,并且最初的FCAL提供了高达200MB/s的传输速度。一些最新发布的产品宣称它们能达到1GB/s的速度。许多所谓的第一层制造商用FCAL的底板来建立他们的服务器。该底板提供了易于从外面访问的热插拔驱动器。上一页返回2.3转动驱动(硬件)“如何将服务器接入网络”这个问题出现之前,作为服务器性能的一方面,带宽经常被忽视。建立一台服务器,除了以上提到的诸多硬件之外,网络接口(网卡)(图2-7)也是必须要重点考虑的配置。因为服务器通过网络接口向网络发送和接收数据,而所谓带宽,就是指在固定的时间可传输的资料数量,亦即在传输管道中可以传递数据的能力。网络中有很多种方法能使带宽的可用度达到最大,这些方法在第8章将会得到更进一步的讲解。下一页返回2.4带宽许多初学者认为服务器负责管理所有网络上的通信,这种认识是错误的。理论上,服务器只能看到自身的通信状况,因此服务器只能接收到数据,而后检查数据的目的地址,来验证该数据是不是发给它的,如果确定是发给它的数据,则服务器会接受该数据并进行处理;但是一旦服务器确定数据不属于它所有,它一般会丢弃这个数据包。这一过程会消耗服务器的软硬件资源,会降低服务器通信的处理速度。所以,在大多数情况下,人们希望通过交换的方式或透明的网桥方式(即交换机)把服务器放到独立的网段中。因为交换机除了拥有集线器(Huh)的基本功能外,还可以检查和过滤IP数据包,为服务器减轻负担。上一页下一页返回2.4带宽网络协议是指在网络通信中,数据在网络电缆里传输所必须遵循的规则。网络协议需要解决的一个问题是在任一时刻只能有一个数据信号存在于电缆上。如果两台设备试图进行同时同步通信,它们的数据包会发生冲突,并且在发生冲突后,这些数据信号会产生形变和错误,因此,这些数据包最终会被丢弃,之后网络会要求两台设备再次重发这些数据。显然,冲突使网络的通信能力降低。为了降低冲突发生的概率,往往在单一网段上,把网络划分为几个冲突域。它的含义是发送端发送的数据包只能在其源网段到接收端所在的网段的网络设备间移动,在这个区域内所有其他的网段发过来的数据包会被过滤掉,因此发送端发送的数据包最多只能与同一网段的数据包发生冲突,这大大减少了发生冲突的数量和概率。上一页下一页返回2.4带宽所有的网段都有自身的冲突域,因此它们之间的通信就不会互相影响。总之,这在很大程度上改善了网络带宽。多宿主连接服务器在一段时期内也提高了网络的性能。多宿主连接是指在服务器上安装了两个或两个以上的网络接口卡的一项技术。图2-8显示了这一实例。从某种程度上讲,服务器在网络上扮演了一个路由器的角色。每个网络接口卡在独立的网络上进行配置,并且如图2-8这样进行安装和配置,使得同样一台计算机也能为网络服务。这种做法具有两个优点。第一个优点是分开了两个网络之间的通信;把一个很大的网络分成两个较小的网络。这个过程被称为子网寻径。在划分网络的同时,可把网络分成两个或更多个广播域。上一页下一页返回2.4带宽多宿主连接服务器还能提供另外一个功能:如果网络中不同的网段在运行不同的网络操作系统平台,如MAC和PC环境,或者每个网段的拓扑结构都不相同,那么服务器可被配置成使用不同的接口来与每一段互联。为此多宿主连接服务器可作为一个网桥在网络中运行。前面已讲解了如何分割一个网络,而后把网段分成多个冲突域。这种做法不会影响数据在网络中的广播。广播是指网络里的一台设备向网络中其他所有设备同时发送相同的信息,这很像广播电台,通过无线电广播信息,可以使用收音机在任何地方同步接收信息。上一页下一页返回2.4带宽网络上有很多设备都是通过广播在发送和传输数据的(如集线器)。一般的,网络中一台计算机寻找和连接另一台计算机也需要使用广播,我们以此为例来说明数据广播的过程。假如,计算机B寻找计算机A,计算机B会通过网络广播发送一个信息,基本意思是“我在寻找计算机A,你在哪?”。网络中的所有计算机都会收到这个信息,但是只有计算机A会回复,计算机B收到该回复就算找到了计算机A。显然,这个过程占用了每台收到该消息的计算机的网络通道和一定量的处理时间。如果使用多宿主连接服务器,广播就只会通过那个子网的线缆进行有目的性的传播。其他子网不会受到影响,这极大程度地减少了网络的交通量。上一页下一页返回2.4带宽多宿主连接服务器与路由器尽管一个多宿主连接服务器基本上与一台路由器作用相同,但当需要路由器时,多宿主连接服务器是不能代替路由器的。在使用多宿主连接服务器时,路由功能只会被这台服务器的网络操作系统所提供和支持。而且,这个附加的路由功能是以消耗服务器资源为代价的,它占用了服务器CPU的处理时间,使用服务器的内存来存储数据。当我们建构或划分一个大的网络时,通常都使用路由器。然而,当我们只要使用一个较小的网络,或者仅需要使用那台服务器上的服务子网时,多宿主机是一个不错的选择。上一页下一页返回2.4带宽多宿主连接服务器的第二个优点是,在划分子网络时提供了对网络的更紧密的控制。例如,如果在一个子网中存储了会计和管理信息,在另一子网中存储了销售和生产信息,这样的话,一个网络被划分成两个子网,子网间的相互访问,外网对子网进行访问都会得到更好的控制。因为用户访问时需要一个一个进入不同层次的网络,每进入一个网络就需要一次认证,而多次认证可增强网络的安全性。这时的网络就如同一栋房子,所有不可靠的人是不允许进入这栋房子的,因为房子的前门紧锁,所有的窗户都严密封闭。如果要在房子里存放珍贵的宝石,可以利用一间紧锁的房间来存放它们以进一步保证安全。这样,客人最多可以参观其他的房间,但绝对不能进入这间紧锁的房间。因此,入侵者要想得到宝石,就必须闯入这栋房子并打开这间房间,这个难度是可想而知的。上一页返回2.4带宽本章讨论了在配置服务器硬件时,需要着重关注的4个方面:CPU、内存、硬盘、带宽。这4个方面将影响着服务器的整体性能。首先讲解了CPU的作用以及如何为服务器选择合适的CPU。其次探讨了不同类型的服务器对要安装的内存数量和类型的要求。然后解释了硬盘的原理和接口、带宽的作用等。总体上为我们简要阐述了服务器硬件最主要的部分。返回2.5本章小结存取时间:当包含该信息的第一个段被发现时控制器收到第一个数据请求,然后硬盘驱动器找出并定位该数据所花费的开始和结束的时间。驱动臂:安装在硬盘驱动里的有读写磁头的设备。把读写头定位在准确的磁道上来记录或读取该数据是驱动臂的工作。高级可编程中断控制器:主板上多处理器上的一个芯片,能够处理到达CPU之前的设备中断。广播域:所有网络上的设备都能收到发送给所有用户的信息。广播通常能被路由器阻挡,但是不能被交换机和网桥阻挡。下一页返回专业术语冲突域:网络上的所有设备互相竞争使用电缆。两台设备要想同时使用网络电缆就会产生冲突,从而引起信息丢失,然后每台设备必须重新发送该信息。热交换:将有缺陷的设备从计算机中移出,同时更换一个新的设备而不必使计算机停止工作的能力。热插拔:向计算机里插入或拔出设备而不必使系统停止工作的能力。多宿主连接:在一个网络接口卡上使用多个网络接口卡或多

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论