- 浏览: 16469392 次
- 性别:
- 来自: 济南
最新评论
-
wu1236:
ef0793cd94337324b6fefc4c9474af5 ...
Android ApiDemos示例解析(87):Media->MediaPlayer -
77219634:
0127bf2236bee4dd1f632ce430f1af1 ...
本博客文章都为转载,没有任何版权! -
77219634:
0127bf2236bee4dd1f632ce430f1af1 ...
VPLEX - EMC的RAC -
77219634:
0127bf2236bee4dd1f632ce430f1af1 ...
qTip2 Show -
77219634:
0127bf2236bee4dd1f632ce430f1af1 ...
SecureCRT中文乱码、复制粘贴乱码解决办法(修改版)
什么是服务器
服务器是一种高性能计算机,作为网络的节点,存储、处理网络上80%的数据、信息,因此也被称为网络的灵魂。做一个形象的比喻:服务器就像是邮局的交换机,而微机、笔记本、PDA、手机等固定或移动的网络终端,就如散落在家庭、各种办公场所、公共场所等处的电话机。我们与外界日常的生活、工作中的电话交流、沟通,必须经过交换机,才能到达目标电话;同样如此,网络终端设备如家庭、企业中的微机上网,获取资讯,与外界沟通、娱乐等,也必须经过服务器,因此也可以说是服务器在“组织”和“领导”这些设备。
服务器的构成与微机基本相似,有处理器、硬盘、内存、系统总线等,它们是针对具体的网络应用特别制定的,因而服务器与微机在处理能力、稳定性、可靠性、安全性、可扩展性、可管理性等方面存在差异很大。尤其是随着信息技术的进步,网络的作用越来越明显,对自己信息系统的数据处理能力、安全性等的要求也越来越高,如果您在进行电子商务的过程中被黑客窃走密码、损失关键商业数据;如果您在自动取款机上不能正常的存取,您应该考虑在这些设备系统的幕后指挥者————服务器,而不是埋怨工作人员的素质和其他客观条件的限制。
服务器技术之EMP技术
目前服务器的技术热点主要有:IRISC与CISC技术、处理器技术、多处理器技术(AMP技术、SMP技术、MPP技术、COMA技术、集群技术和NUMA技术)、SCSI接口技术、智能I/O技术、容错技术、磁盘阵列技术、热插拔技术、双机热备份。
服务器在网络中承担传输和处理大量数据的任务,要具备高可伸缩性、高可靠性、高可用性和高可管理性。IA-64体系将带动服务器技术特性的提高,如高性能CPU、多处理器技术、总线和内存技术、容错技术、群集技术、硬件管理接口、均衡服务器平台技术等。
EMP(Emergency Management Port)技术
EMP(Emergency Management Port)技术也是一种远程管理技术,利用EMP技术可以在客户端通过电话线或电缆直接连接到服务器,来对服务器实施异地操作,如关闭操作系统、启动电源、关闭电源、捕捉服务器屏幕、配置服务器BIOS等操作,是一种很好的实现快速服务和节省维护费用的技术手段。 应用ISC和EMP两种技术可以实现对服务器进行远程监控管理。
服务器技术之RAID冗余磁盘阵列技术
目前服务器的技术热点主要有:IRISC与CISC技术、处理器技术、多处理器技术(AMP技术、SMP技术、MPP技术、COMA技术、集群技术和NUMA技术)、SCSI接口技术、智能I/O技术、容错技术、磁盘阵列技术、热插拔技术、双机热备份。
服务器在网络中承担传输和处理大量数据的任务,要具备高可伸缩性、高可靠性、高可用性和高可管理性。IA-64体系将带动服务器技术特性的提高,如高性能CPU、多处理器技术、总线和内存技术、容错技术、群集技术、硬件管理接口、均衡服务器平台技术等。
RAID(Redundant Array of Independent Disks)冗余磁盘阵列技术
RAID技术是一种工业标准,各厂商对RAID级别的定义也不尽相同。目前对RAID级别的定义可以获得业界广泛认同的有4种,RAID 0、RAID 1、RAID 0+1和RAID 5。
RAID 0是无数据冗余的存储空间条带化,具有成本低、读写性能极高、存储空间利用率高等特点,适用于Video/Audio信号存储、临时文件的转储等对速度要求极其严格的特殊应用。但由于没有数据冗余,其安全性大大降低,构成阵列的任何一块硬盘的损坏都将带来灾难性的数据损失。所以,若在RAID 0中配置4块以上的硬盘,对于一般应用来说是不明智的。
RAID 1是两块硬盘数据完全镜像,安全性好,技术简单,管理方便,读写性能均好。但它无法扩展(单块硬盘容量),数据空间浪费大,严格意义上说,不应称之为"阵列"。
RAID 0+1综合了RAID 0和RAID 1的特点,独立磁盘配置成RAID 0,两套完整的RAID 0互相镜像。它的读写性能出色,安全性高,但构建阵列的成本投入大,数据空间利用率低,不能称之为经济高效的方案。
负载均衡技术概览
当前,无论在企业网、园区网还是在广域网如Internet上,业务量的发展都超出了过去最乐观的估计,上网热潮风起云涌,新的应用层出不穷,即使按照当时最优配置建设的网络,也很快会感到吃不消。尤其是各个网络的核心部分,其数据流量和计算强度之大,使得单一设备根本无法承担,而如何在完成同样功能的多个网络设备之间实现合理的业务量分配,使之不致于出现一台设备过忙、而别的设备却未充分发挥处理能力的情况,就成了一个问题,负载均衡机制也因此应运而生。
负载均衡建立在现有网络结构之上,它提供了一种廉价有效的方法扩展服务器带宽和增加吞吐量,加强网络数据处理能力,提高网络的灵活性和可用性。它主要完成以下任务:解决网络拥塞问题,服务就近提供,实现地理位置无关性 ;为用户提供更好的访问质量;提高服务器响应速度;提高服务器及其他资源的利用效率;避免了网络关键部位出现单点失效。
对一个网络的负载均衡应用,可以从网络的不同层次入手,具体情况要看对网络瓶颈所在之处的具体分析,大体上不外乎从传输链路聚合、采用更高层网络交换技术和设置服务器集群策略三个角度实现。
■传输链路聚合
为了支持与日俱增的高带宽应用,越来越多的PC机使用更加快速的链路连入网络。而网络中的业务量分布是不平衡的,核心高、边缘低,关键部门高、一般部门低。伴随计算机处理能力的大幅度提高,人们对多工作组局域网的处理能力有了更高的要求。当企业内部对高带宽应用需求不断增大时(例如Web访问、文档传输及内部网连接),局域网核心部位的数据接口将产生瓶颈问题,瓶颈延长了客户应用请求的响应时间。并且局域网具有分散特性,网络本身并没有针对服务器的保护措施,一个无意的动作(像一脚踢掉网线的插头)就会让服务器与网络断开。
通常,解决瓶颈问题采用的对策是提高服务器链路的容量,使其超出目前的需求。例如可以由快速以太网升级到千兆以太网。对于大型企业来说,采用升级技术是一种长远的、有前景的解决方案。然而对于许多企业,当需求还没有大到非得花费大量的金钱和时间进行升级时,使用升级技术就显得大材小用了。在这种情况下,链路聚合技术为消除传输链路上的瓶颈与不安全因素提供了成本低廉的解决方案,
链路聚合技术,将多个线路的传输容量融合成一个单一的逻辑连接。当原有的线路满足不了需求,而单一线路的升级又太昂贵或难以实现时,就要采用多线路的解决方案了。目前有4种链路聚合技术可以将多条线路“捆绑”起来。同步IMUX系统工作在T1/E1的比特层,利用多个同步的DS1信道传输数据,来实现负载均衡。IMA是另外一种多线路的反向多路复用技术,工作在信元级,能够运行在使用ATM路由器的平台上。用路由器来实现多线路是一种流行的链路聚合技术,路由器可以根据已知的目的地址的缓冲(cache)大小,将分组分配给各个平行的链路,也可以采用循环分配的方法来向线路分发分组。多重链路PPP,又称MP或MLP,是应用于使用PPP封装数据链路的路由器负载平衡技术。MP可以将大的PPP数据包分解成小的数据段,再将其分发给平行的多个线路,还可以根据当前的链路利用率来动态地分配拨号线路。这样做尽管速度很慢,因为数据包分段和附加的缓冲都增加时延,但可以在低速的线路上运行得很好。
链路聚合系统增加了网络的复杂性,但也提高了网络的可靠性,使人们可以在服务器等关键LAN段的线路上采用冗余路由。对于IP系统,可以考虑采用VRRP(虚拟路由冗余协议)。VRRP可以生成一个虚拟缺省的网关地址,当主路由器无法接通时,备用路由器就会采用这个地址,使LAN通信得以继续。总之,当主要线路的性能必需提高而单条线路的升级又不可行时,可以采用链路聚合技术。
更高层交换
大型的网络一般都是由大量专用技术设备组成的,如包括防火墙、路由器、第2层/3层交换机、负载均衡设备、缓冲服务器和Web服务器等。如何将这些技术设备有机地组合在一起,是一个直接影响到网络性能的关键性问题。现在许多交换机提供第四层交换功能,可以将一个外部IP地址映射为多个内部IP地址,对每次TCP连接请求动态使用其中一个内部地址,达到负载均衡的目的。有的协议内部支持与负载均衡相关的功能,例如HTTP协议中的重定向能力。
Web内容交换技术,即URL交换或七层交换技术,提供了一种对访问流量的高层控制方式。Web内容交换技术检查所有的HTTP报头,根据报头内的信息来执行负载均衡的决策,并可以根据这些信息来确定如何为个人主页和图像数据等内容提供服务。它不是根据TCP端口号来进行控制的,所以不会造成访问流量的滞留。如果Web服务器已经为图像服务、SSL对话、数据库事务服务之类的特殊功能进行了优化,那么,采用这个层次的流量控制将可以提高网络的性能。目前,采用第七层交换技术的产品与方案,有黎明网络的iSwitch、交换机,Cisco的CDN(内容交换网络系统)等。
服务器群集解决方案
在某些情况下,例如,某网站内部职员和外部客户同时使用网站,而公司要将内部职员的服务请求连接到一个较慢的服务器来为外部客户提供更多的资源,这时就可以使用Web内容交换技术。Web主机访问控制设备也可以使用这种技术来降低硬件成本,因为它可以轻易地将访问多个主机的用户流量转移给同一个Web服务器。如果用户访问量增加到一定程度,这些流量还可以被转移到专用的Web服务器设备,虽然这种专用设备的成本较高,但是由于使用的是相同的Web内容交换技术来控制流量,所以网络的结构框架就不用再进行改变了。
但是,使用Web内容交换技术的负载均衡设备所能支持的标准和规则的数目有限,其采用的标准和规则的灵活性也有限。另外,负载均衡设备所能监测到HTTP报头的深度也是限制内容交换能力的一个因素。如果所要找的信息在负载均衡设备所不能监测的字段内,那内容交换的作用就无法发挥。而且,内容交换还受到能够同时开启的TCP连接数量以及TCP连接的建立和断开比率的限制。另外,Web内容交换技术还会占用大量的系统资源(包括内存占用和处理器占用)。对Web内容交换技术进行的测试表明,操纵Web内容的吞吐量是很费力的,有时只能得到很小的性能改进。所以,网络管理员必须认真考虑投入与回报的问题。
■带均衡策略的服务器群集
如今,服务器必须具备提供大量并发访问服务的能力,其处理能力和I/O能力已经成为提供服务的瓶颈。如果客户的增多导致通信量超出了服务器能承受的范围,那么其结果必然是――宕机。显然,单台服务器有限的性能不可能解决这个问题,一台普通服务器的处理能力只能达到每秒几万个到几十万个请求,无法在一秒钟内处理上百万个甚至更多的请求。但若能将10台这样的服务器组成一个系统,并通过软件技术将所有请求平均分配给所有服务器,那么这个系统就完全拥有每秒钟处理几百万个甚至更多请求的能力。这就是利用服务器群集实现负载均衡的最初基本设计思想。
早期的服务器群集通常以光纤镜像卡进行主从方式备份。令服务运营商头疼的是关键性服务器或应用较多、数据流量较大的服务器一般档次不会太低,而服务运营商花了两台服务器的钱却常常只得到一台服务器的性能。新的解决方案见图,通过LSANT(Load Sharing Network Address Transfer)将多台服务器网卡的不同IP地址翻译成一个VIP(Virtual IP)地址,使得每台服务器均时时处于工作状态。原来需要用小型机来完成的工作改由多台PC服务器完成,这种弹性解决方案对投资保护的作用是相当明显的――既避免了小型机刚性升级所带来的巨大设备投资,又避免了人员培训的重复投资。同时,服务运营商可以依据业务的需要随时调整服务器的数量。
网络负载均衡提高了诸如Web服务器、FTP服务器和其他关键任务服务器上的因特网服务器程序的可用性和可伸缩性。单一计算机可以提供有限级别的服务器可靠性和可伸缩性。但是,通过将两个或两个以上高级服务器的主机连成群集,网络负载均衡就能够提供关键任务服务器所需的可靠性和性能。
为了建立一个高负载的Web站点,必须使用多服务器的分布式结构。上面提到的使用代理服务器和Web服务器相结合,或者两台Web服务器相互协作的方式也属于多服务器的结构,但在这些多服务器的结构中,每台服务器所起到的作用是不同的,属于非对称的体系结构。非对称的服务器结构中每个服务器起到的作用是不同的,例如一台服务器用于提供静态网页,而另一台用于提供动态网页等等。这样就使得网页设计时就需要考虑不同服务器之间的关系,一旦要改变服务器之间的关系,就会使得某些网页出现连接错误,不利于维护,可扩展性也较差。
能进行负载均衡的网络设计结构为对称结构,在对称结构中每台服务器都具备等价的地位,都可以单独对外提供服务而无须其他服务器的辅助。然后,可以通过某种技术,将外部发送来的请求均匀分配到对称结构中的每台服务器上,接收到连接请求的服务器都独立回应客户的请求。在这种结构中,由于建立内容完全一致的Web服务器并不困难,因此负载均衡技术就成为建立一个高负载Web站点的关键性技术。
总之,负载均衡是一种策略,它能让多台服务器或多条链路共同承担一些繁重的计算或I/O任务,从而以较低成本消除网络瓶颈,提高网络的灵活性和可靠性。
高端服务器技术
服务器性能指标以系统响应速度和作业吞吐量为代表。响应速度是指用户从输入信息到服务器完成任务给出响应的时间。作业吞吐量是整个服务器在单位时间内完成的任务量。假定用户不间断地输入请求,则在系统资源充裕的情况下,单个用户的吞吐量与响应时间成反比,即响应时间越短,吞吐量越大。为了缩短某一用户或服务的响应时间,可以分配给它更多的资源。性能调整就是根据应用要求和服务器具体运行环境和状态,改变各个用户和服务程序所分配的系统资源,充分发挥系统能力,用尽量少的资源满足用户要求,达到为更多用户服务的目的。
技术目标
服务器所要求的高扩展性、高可用性、易管理性、高可靠性不仅是厂商追求的技术目标,也是用户所需求的。
可扩展性具体表现在两个方面:一是留有富余的机箱可用空间,二是充裕的I/O带宽。随着处理器运算速度的提高和并行处理器数量的增加,服务器性能的瓶颈将会归结为PCI及其附属设备。高扩展性意义在于用户可以根据需要随时增加有关部件,在满足系统运行要求同时,又保护投资。
可用性是以设备处于正常运行状态的时间比例作为衡量指标,例如99.9%的可用性表示每年有8小时的时间设备不能正常运行,99.999%的可用性表示每年有5分钟的时间设备不能正常运行。部件冗余是提高可用性的基本方法,通常是对发生故障给系统造成危害最大的那些部件(例如电源、硬盘、风扇和PCI卡)添加冗余配置,并设计方便的更换结构(如热插拔),从而保证这些设备即使发生故障也不会影响系统的正常运行。
可管理性旨在利用特定的技术和产品来提高系统的可靠性,降低系统的购买、使用、部署和支持费用。最显著的作用体现在减少维护人员的工时占用和避免系统停机带来的损失。服务器的管理性能直接影响服务器的易用性。可管理性是TCO各种费用之中所占比例最大的一项。有研究表明,系统的部署和支持费用远远超过了初次购买所花的费用,而付给管理和支持人员的报酬又是其中所占份额最高的。另外,工作效率的降低、商业机会的丧失和营业收入的下滑所带来的财务损失也不可忽视。因此,系统的可管理性既是IT部门的迫切要求,又对企业经营效益起着非常关键的作用。可管理性产品和工具可通过提供系统内部的有关信息而达到简化系统管理的目的。通过网络实现远程管理,技术支持人员在自己的桌面上即可解决问题,不必亲赴故障现场。系统部件可自动监视自己的工作状态,如果发现故障隐患可随时发出警告,提醒维护人员立即采取措施保护企业数据资产,故障部件更换的操作也非常简单方便。
说到可靠性,简单来说就是要求服务器必须稳定运行,也就是宕机率低。其中的关键在于操作系统与硬件设备的协作,如果待处理的资源控制在CPU和操作系统上,而不是应用上,就会避免由于某项任务处理出错而导致系统无法运行,服务器宕机率将大大降低,而这也恰恰是Unix/Linux系统的优势之一。导致日常维护工作的中断有:主机升级、硬件维护或安装、操作系统升级、应用/文件升级或维护、文件重组、全系统备份等原因。意外的灾难包括硬盘损坏、系统故障、软件故障、用户错误、电源掉电、人为破坏和自然灾害等因素。
SMP
SMP(Symmetrical Multi-Processor)就是对称式多处理器。在对称式结构中,机器里每一位处理器的地位都是一样的,它们连接在一起,共享一个存储器。存储器里有一个操作系统,每个计算机都能运行这个操作系统,都能响应外部设备的要求,即每个存储器的地位是平等的、对称的。在国内市场上这类机型的处理器一般以4个或8个为主,有少数是16个处理器。但是一般来讲,SMP结构的机器可扩展性较差,很难做到100个以上多处理器,常规的一般是8个到16个,不过这对于多数的用户来说已经够用了。这种机器的好处在于它的使用方式和微机或工作站的区别不大,编程的变化相对来说比较小,原来用微机工作站编写的程序如果要移植到SMP机器上使用,改动起来也相对比较容易。SMP结构的机型可用性比较差。因为4个或8个处理器共享一个操作系统和一个存储器,一旦操作系统出现了问题,整个机器就完全瘫痪掉了。而且由于这个机器的可扩展性较差,不容易保护用户的投资。但是这类机型技术比较成熟,相应的软件也比较多,因此现在国内市场上推出的并行机大量都是这一种。
集群技术
通俗地说,集群是这样一种技术:它至少将两个系统连接到一起,使两台服务器能够像一台机器那样工作或者看起来好像一台机器。采用集群系统通常是为了提高系统的稳定性和网络中心的数据处理能力及服务能力。自80年代初以来,各种形式的集群技术纷纷涌现。因为集群能够提供高可用性和可伸缩性,所以,它迅速成为企业和ISP计算的支柱。
常见集群技术
1.服务器镜像技术
服务器镜像技术是将建立在同一个局域网之上的两台服务器通过软件或其他特殊的网络设备(比如镜像卡)将两台服务器的硬盘做镜像。其中,一台服务器被指定为主服务器,另一台为从服务器。客户只能对主服务器上的镜像的卷进行读写,即只有主服务器通过网络向用户提供服务,从服务器上相应的卷被锁定以防对数据的存取。主/从服务器分别通过心跳监测线路互相监测对方的运行状态,当主服务器因故障宕机时,从服务器将在很短的时间内接管主服务器的应用。
服务器镜像技术的特点是成本较低,提高了系统的可用性,保证了在一台服务器宕机的情况下系统仍然可用,但是这种技术仅限于两台服务器的集群,系统不具有可扩展性。
2. 应用程序错误接管集群技术
错误接管集群技术是将建立在同一个网络里的两台或多台服务器通过集群技术连接起来,集群节点中的每台服务器各自运行不同的应用,具有自己的广播地址,对前端用户提供服务,同时每台服务器又监测其他服务器的运行状态,为指定服务器提供热备份作用。当某一节点因故障宕机时,集群系统中指定的服务器会在很短的时间内接管故障机的数据和应用,继续为前端用户提供服务。
\错误接管集群技术通常需要共享外部存储设备—磁盘阵列柜,两台或多台服务器通过SCSI电缆或光纤与磁盘阵列柜相连,数据都存放在磁盘阵列柜上。这种集群系统中通常是两个节点互为备份的,而不是几台服务器同时为一台服务器备份,集群系统中的节点通过串口、共享磁盘分区或内部网络来互相监测对方的心跳。
错误接管集群技术经常用在数据库服务器、MAIL服务器等的集群中。这种集群技术由于采用共享存储设备,所以增加了外设费用。它最多可以实现32台机器的集群,极大地提高了系统的可用性及可扩展性。
3.容错集群技术
容错集群技术的一个典型的应用即容错机,在容错机中,每一个部件都具有冗余设计。在容错集群技术中集群系统的每个节点都与其他节点紧密地联系在一起,它们经常需要共享内存、硬盘、CPU和I/O等重要的子系统,容错集群系统中各个节点被共同映像成为一个独立的系统,并且所有节点都是这个映像系统的一部分。在容错集群系统中,各种应用在不同节点之间的切换可以很平滑地完成,不需切换时间。
容错集群技术的实现往往需要特殊的软硬件设计,因此成本很高,但是容错系统最大限度地提高了系统的可用性,是财政、金融和安全部门的最佳选择。
目前在提高系统的可用性方面用得比较广泛的是应用程序错误接管技术,即我们通常所采用的双机通过SCSI电缆共享磁盘阵列的集群技术,这种技术目前被各家集群软件厂商和操作系统软件厂商进一步扩充,形成了市面上形形色色的集群系统。
基于IA架构高性能集群系统技术
利用最新的4、8路IA服务器架构的高性能服务器集群系统, 采用了领先的VI(Visual Interface)技术,有效地消除了系统中节点之间通讯的瓶颈;同时,系统采用的负载均衡技术使用户设备可以充分得到利用,并且达到了4个9的可靠性,具有极高的产品性价比,为Internet的应用提供了一个强有力的数据库服务器平台。
1.系统概述
数据中心领域一直是高端RISC服务器的天下,多年来人们只有选择AS400 、E10000、HP9000等这样的小型机,价格昂贵,维护成本高。而IA 架构服务器价格低廉,易于使用和维护,通过Cluster技术可以构造超级计算机,其超强的处理能力可以取代价格昂贵的中大型机,为行业的高端应用开辟新的方向。
对于成长中的大型用户来讲,数据中心或数据仓库中所保存的企业经营、管理数据的增长是十分惊人的,而这些数据对大型用户的作用又是非常重要的。发展若干年中积累下的数据是一笔宝贵的财富,通过对这些浩若烟海的数据进行分析,经营者们能够得出直观的经营图表、曲线,能够为以后大型用户的发展提供有力的决策支持。但是由于这样的数据随着时间的流逝不断膨胀,给大型用户的IT系统管理人员带来了巨大的压力。
用户到底需要什么样的服务器才能满足目前和未来发展的需要?
首先要有超强的计算能力,可以承受长时间、大用户量的并发访问。
其次,服务器系统的高可用性、易用易管理对于用户也是极为重要的,如果系统出现故障,造成服务的中断,或者重要资料的丢失,会给用户造成挽回的损失。所以,用户在选择服务器系统时一定要考虑高可用的系统方案。
第三,随着数据的不断堆积,对数据的查询和统计将使系统变得越来越慢,硬件设备的更新换代可以说是一个发展中的大型用户必不可少的工作。
利用最新的4、8路IA服务器架构的高性能服务器集群系统[1], 采用了领先的VI(Visual Interface)技术,有效地消除了系统中节点之间通讯的瓶颈;同时,系统采用的负载均衡技术使用户设备可以充分得到利用,并且达到了4个9的可靠性,具有极高的产品性价比,1999年推出以来引起了用户的广泛关注,为国内广大用户提供了一个强有力的数据库服务器平台。
2.系统原理
高性能服务器集群系统是基于2节点或4节点的集群,最多可达32个CPU,内存最大支持32GB。4节点构成一个工作单元,最多可级联16个工作单元。
各节点为IA服务器,它支持4路或8路Pentium III Xeon CPU并行处理。每台服务器上插一块千兆网卡或vi结构的高速交换卡,连接至一台高速交换机(可以是千兆以太网卡交换机或某些特殊的高速交换机,例如vi结构的高速交换机)做为服务器彼此之间的数据交换用,称之为SAN(Server Area Network)交换机。
每台服务器插有一块百兆或千兆以太网卡,连接到局域网用的交换机或集线器上,为客户端的访问提供连接服务。
四台服务器共享一台光纤通道磁盘阵列柜。每台服务器有两块光纤通道卡,分别连接到两个光纤通道的集线器上,每个集线器分别连接到光纤通道磁盘阵列柜的两个控制器上。对于光纤通道磁盘阵列柜,只要有一个控制器能正常工作,整个阵列柜就能正常工作,因此这种配置方案是冗余的,防止单点失效。对于最重要的存放在磁盘阵列柜中的数据,还可采取将集群系统与磁盘阵列柜分别存放的方式来确保数据安全,光纤通道允许集群系统与磁盘阵列柜之间最长10公里的距离。
每台服务器有一个硬盘区域,用于安装本机的引导系统和数据库系统的管理部分。用户数据存储在共享的磁盘阵列柜中。
在局域网中,有一台客户机做为管理控制台,在其上安装有数据库的管理控制台,用于管理并行数据库,可以同时监控四个节点上的数据库实例,实现启动、停止、监控运行性能等功能。
另外在这台客户机上安装有网管系统,SAN的管理控制台,磁盘柜的管理控制台,UPS管理控制台等,实现集群系统的统一管理。有的管理功能实现时只需要安装TCP/IP协议,有的则还需要安装SNMP协议才能正常工作。
一个良好的集群系统除了优秀的性能指标之外,还需要有相应的操作系统和数据库的支持,我们目前的集群系统支持WINDOWS NT 4.0 及WINDOWS 2000操作系统[2],在数据库方面支持ORACLE和DB2。它不运行在单机上,只有在多个节点同时工作时,才能够显示出它的性能,并使得系统能够真正做到负载均衡(Load Balance)。
2.1 两节点集群系统
从方案的配置上来说,用户可以根据需要做不同的选择,可以使用两台高端服务器实现一个虚拟主机。这时,采用vi结构的高速交换设备更具有优越性,不需要使用vi 交换机,可以用每台服务器上的vi结构的高速交换卡直连实现服务器之间的高速数据交换。如果使用千兆以太网卡,还需要千兆交换机,成本较高。
图1 两节点系统连接图
2.2 四节点集群系统
集群系统方案的设计目标是支持4节点的cluster,在实现时以4个节点加相应存储设备和交换设备构成一个工作单元。每个工作单元由四台独立的4路或8路服务器组成的服务器阵列作为一个虚拟的容错主机工作,四台服务器共享一台光纤通道磁盘阵列柜。每台服务器有两块光纤通道卡,分别连接到两个光纤通道的集线器上,每个集线器分别连接到光纤通道磁盘阵列柜的两个控制器上。对于光纤通道磁盘阵列柜,只要有一个控制器能正常工作,整个阵列柜就能正常工作,因此这种配置方案是冗余的,防止单点失效。
图2 四节点系统连接图
3. 系统特性
高性能服务器集群系统解决方案已经可以实现4结点的集群,超过传统cluster两结点的限制。如果集群中每结点采用8CPU服务器,那么4结点的集群系统可以支持32个处理器,在性能上完全可以与传统的RISC小型机和中型机相抗衡。
3.1 负载均衡:
负载均衡的概念:多台服务器为对称方式,每台服务器都具备等价的地位,都可以单独对外提供服务而无须其他服务器的辅助。然后通过某种负载分担技术,将外部发送来的请求均匀分配到对称结构中的某一台服务器上,而接收到请求的服务器都独立回应客户机的请求。
1、将大量用户的并发访问分别在到多个节点机上并行处理,缩短用户等待响应的时间,系统的处理能力得到提高,并且能够接受更多用户的并发访问。客户机申请数据库连接时,由数据库自动分配连接到哪个节点上,实现这种方式的负载均衡不需要修改已有的应用程序。
2、将单个用户重负载的运算分担到多个节点机上做并行处理,每个节点机有多个CPU,也做并行处理,处理结束后,将结果汇总,返回给用户。即将一个大的用户查询分担到多个节点上,由多个线程来并行处理,然后再将结果合并,显示给用户,系统处理能力得到大幅度提高。实现这种方式的负载均衡需要修改已有的应用程序,但只需要修改SQL查询语句。
3.2 高可用性:
高可用性意味着最大化的服务器开机时间,也就是最小化的服务器计划外的停机时间,从而可以很好地保护关键性数据、提高生产效率。99%的高可用性意味着每年计划外的停机时间是5000分钟,而99.99%意味着50分钟。
高性能服务器集群系统解决方案是一个true cluster系统,当一台节点机出现故障时,其他节点机仍旧可以正常工作,客户机的访问不会中断。
图3 高可用性示意图
高性能服务器集群系统中大量采用冗余设备,如多台服务器、多台UPS、多台交换机、磁盘冗余(RAID),在存储设备中采用独立的两套CPU/内存子系统,甚至配置了两套为磁盘柜内存缓冲供电的电源系统,有效地屏蔽了单点失效的危险性,使整个系统的可靠性达到了99.99%以上。
此方案的优势在于在正常工作状态下,四台服务器并行处理任务,没有资源闲置,且并行处理,大大提高系统总体处理能力;而当有一台或几台出现故障时,其他的服务器除执行自己的任务外,还接管其他节点的工作,因此负载加大,但整个集群系统仍在正常工作,客户机的访问不会中断,因为这是专门针对无法容忍停机的用户设计的,从根本上消除了停机因素。出现故障的服务器只是简单地将其从阵列中移去,当这台服务器修理好后,无需人工干预即可重新加入到服务器阵列。这就是我们所说的并行处理、永不停顿的含义。
3.3 集中管理性能
在局域网中,有一台客户机做为管理控制台,在其上安装有数据库的管理控制台,用于管理并行数据库,可以同时监控四个节点上的数据库实例,实现启动、停止、监控运行性能等功能。另外安装有网管系统,磁盘柜的管理控制台,UPS管理控制台等,实现集群系统的统一管理。有的管理功能实现时只需要安装TCP/IP协议,有的则还需要安装SNMP协议才能正常工作。
用于管理的应用程序
图4 集中管理示意图
3.4可扩展性能。
高性能服务器集群系统是基于2节点或4节点的集群,可达16个或32个CPU,内存最大支持32GB。2节点或4节点构成一个工作单元。
先使用一个工作单元进行数据处理,随着业务的发展,当发现处理能力不足时,可再级联第二个工作单元,即可获得处理性能的提高。这体现了cluster系统很好的可扩展性。
四节点的服务器并行处理能力是否能达到单台服务器处理能力的四倍呢?
不能。二节点的服务器并行处理能力基本能达到单台服务器处理能力的二倍,但四节点的服务器并行处理能力只能达到单台服务器处理能力的三倍多。因为当节点数增多时,用于cluster系统管理耗费的资源会上升,对系统的总处理能力影响增大。
3.5 Vi的高速传输性能。
VI是Visual Interface的简称,可直译为“虚拟接口”,是一种用于服务器和服务器之间的通讯技术。严格来讲,VI是一种工业标准,支持它的企业和机构至少有上百家,其中包括INTEL、COMPAQ、IBM、HP、MICROSOFT等国际知名厂商。它并不代表是某种硬件或软件设备,而是一种特殊的网络通讯协议,凡是符合这种通讯协议的网络设备,我们就称之为VI设备。有时也称这种设备为VIA(Visual Interface Architecture)设备,即“虚拟接口架构”设备。
VI设备的特点是高传输速率—大于1.25Gb/S,甚至高于目前的千兆交换网络设备(千兆交换设备的传输速率为1Gb/S),而且由于它使用了特殊的通讯协议,而不是传统的OSI7层传输协议,在数据的传送速度上要远远高于普通的千兆交换设备。高性能服务器集群系统在服务器彼此之间互相交换数据方面采用了最新的通讯技术,即采用了vi结构的通讯卡,实现服务器之间高速数据交换。
传统的数据传输(UDP/IP) 采用VI技术
图5 解决软件传输的瓶颈
当然也可以用千兆网卡和千兆交换机实现服务器之间的数据交换,但最主要的差别在于,服务器之间的数据交换速度与vi结构的通讯卡相比慢很多。千兆网卡和千兆交换机实现数据交换必须通过TCP/IP的七层协议,而vi结构的通讯卡可以绕过TCP/IP的七层协议,实现应用程序直接访问vi结构的通讯卡,即直接与硬件设备进行数据交换,速度非常高,1.25Gb/s,大大减少CPU资源占用。在cluster系统中,服务器之间数据交换的速度直接影响整体系统性能,在节点数越多的情况下,影响越显著,甚至成为系统性能的瓶径,因为进程在多个节点之间的协调占用了大部分的系统资源。
目前支持vi结构的通讯卡在应用层直接进行数据交换的应用程序有oracle和db2。
实现两个节点的机群系统时,vi结构的通讯卡更具有优越性,因为两个vi结构的通讯卡之间可以直连,不需要交换机,性能好,价格便宜。而如果使用千兆以太网,必须使用千兆交换机。
Internet时代,国内用户对服务器高端的应用的需求越来越大,利用IA服务器架构的高性能服务器集群系统的连续可用性、在线扩展、远程管理等一系列卓越的特点已使许多用户的梦想变为可能。
IA架构服务器—真伪识别
目前,服务器按照其体系架构可以分为RISC(精简指令集计算)架构服务器和基于CISC(复杂指令集计算)的IA架构服务器。IA架构服务器采用了开放式体系,并且实现了工业标准化技术。自96年Intel公司推出Pentium Pro处理器以来,IA架构的服务器得到很大的发展。现在,采用Pentium III Xeon的服务器最大可以支持8路,具有很高的性能。IBM、Dell、SGI、HP、Compaq等公司在其中、高端服务器领域已纷纷转向采用IA架构。由于IA架构的服务器采用了开放体系结构,因而受到了国内各服务器厂商的青睐,国内主要的IA架构服务器的制造商有浪潮、联想,航天联志,同方等。
伪IA架构服务器的缘起
纵观国内服务器市场:2000年,国产品牌创造了惊人的成长业绩,当年市场份额已经占到了41%。但是进入2001年,全球经济发展速度放缓,国外服务器厂商增加了对中国市场的投入,国内大型IT企业也纷纷加入,使得初见曙光的国内服务器厂商又面临严峻的挑战。在残酷的竞争面前,本土品牌不得不采取价格战。在低价竞争中既能获利,又不作假,是与企业的技术实力和生产规模密切相关的。以北京航天联志为例,之所以能够推出低价位服务器产品,最重要的是基于自身雄厚的实力。目前唯一专业生产服务器产品的国内厂商其实只有航天联志几家,而那些兼营或实力弱小的服务器厂商不具备相应的技术实力和工业化生产规模,为了在低价竞争中获得一席之地,不得不玩起“偷梁换柱”的文字游戏,以高端PC机、其他非IA标准的芯片来替换Intel的IA架构芯片组,冒充IA架构的服务器,再以所谓的“促销价”推向市场。市场上的出现的伪IA架构服务器已经引起来Intel和国内一些厂商的警觉,Intel决定与全球各地的服务器厂商联手举办大型推广活动,在中国地区与北京航天联志合作,订于11月中旬以后将在全国13个城市展开活动。
何谓真正的IA架构服务器
通常将采用英特尔处理器的服务器称为IA(Intel Architecture)架构服务器。由于该架构服务器采用了开放式体系,并且实现了工业标准化技术和得到国内外大量软硬件供应商的支持,在大批量生产的基础上,以其极高的性能价格比而在全球范围内,尤其在我国得到广泛的应用。真正的服务器必须满足以下几个条件:
1.采用Intel CPU;
2.采用Intel的服务器母板;
3.采用Intel的RAID技术;
4.采用Intel认证过的软硬件;
5.免费的服务管理功能ISM。
Intel是IA架构标准的制订者,它在CPU市场上的占有率超过了80%,IA架构已经成为用户公认的标准。Intel(中国)有限公司技术咨询经理罗斌称:“从当前的网络发展状况看,以“小、巧、稳”为特点的IA架构的服务器凭借可靠的性能、低廉的价格,得到了更为广泛的应用。很多人把某一种服务器称为NT服务器或者PC服务器,实际上在今天来讲应该换个名,叫IA构架的服务器或标准化、大批量服务器,因为这种服务器不只在NT上运行,跟PC也没有太多关系。真正的IA架构是有一套严格的工业化标准的,服务器作为整个网络运行的基石,发挥着举足轻重的作用,如果采用PC或其他伪IA标准主板或芯片作为IA架构服务器的关键部件,将必然会影响IA架构的品质,最终损害用户的利益。”
真、伪IA架构的服务器的区别
1. 内部PCI总线条数
真正IA架构服务器的内部总线数是与CPU个数相对应,有个CPU就有几条总线,其带宽可以成倍增加,系统的并发吞吐量大,符合服务器多任务并发的需求。真正IA架构服务器的内部总线结构能够保证多CPU并行的高效率,最大限度地发挥多处理器系统的优势。
伪IA架构服务器只有一条内部总线,CPU并行处理效率低下,系统内部总线拥挤;当系统负荷较重时,南桥芯片易被堵塞,造成宕机。
2. 内存
真正IA架构服务器采用容错内存ECC(Error Checking and Correcting)。ECC内存有较强的错误检测和纠正功能,其使用4 比特位检测8 比特位数据的方法,从而可以检测出更多的出错情况,并可纠正8 比特位中的1位错误,使得系统的安全和稳定性得以较大提高,从而消除数据杂音带来的系统不稳定因素。
伪IA架构服务器大多采用价格低廉的普通SDRAM内存,SDRAM内存错误检测功能比较简单,如使用奇偶校验的方法,用1比特位去检测8 比特位的数据,这种纠错能力较弱,只能大概地检测错误。
3. 管理架构
真正IA架构服务器的管理芯片固化在主板上,由硬件实现管理和诊断,纠错能力强,当系统出现错误时,服务器可不依赖操作系统自行纠错,减少当机次数。
伪IA架构服务器是采用软件来实现管理功能,鲁棒性低,受制于操作系统的稳定性。
4. 热插拔
所谓热插拔功能,就是允许用户在不关闭系统,不切断电源的情况下取出和更换损坏的硬盘、电源或板卡等部件,从而提高了系统对灾难的及时恢复能力、扩展性和灵活性等。真正IA架构服务器采用双冗余电源,可进行电源及风扇的热插拔更换;采用支持热插拔的SCSI控制器来支持硬盘的热插拔,且通过RAID功能保证服务器工作不间断,最大限度的提高服务器的稳定性和安全性,当出现电源及硬盘故障时,无需中断服务器的工作,最大限度的减少人为关机次数。
伪IA架构服务器通常采用单电源,不关机就无法更换电源,并且IO芯片组不支持热插拔。所以其连续工作时间极大地依赖于系统中的易损设备的寿命及突发故障。对于一些应用于关键任务的服务器,如果在不关机的情况下无法更换损坏的RAID卡或以太网卡等,就会大大增加由于硬件故障而造成的系统停机时间。
5. I/O品质
通常,由于磁盘的存取速度跟不上CPU的处理速度,从而使磁盘技术成为提高服务器I/O能力的一个瓶颈。真正IA架构服务器采用SCSI构架,支持RAID(冗余磁盘阵列):RAID0、RAID1、RAID5。RAID 5使用了一种特殊的算法,可以计算出任何一个校验块的存放位置。这样就可以确保任何对校验块进行的读写操作都会在所有的RAID磁盘中进行均衡,从而消除了产生瓶颈的可能,并避免了因校验盘损坏而导致系统失去容错能力的严重故障。另外,SCSI硬盘品质高,转速高(最高10000转),SCSI标准的速度高(160M带宽),大数据量并发吞吐能力强,寿命长。
伪IA架构服务器一般采用IDE构架,其中VIA芯片组仅支持IDE-RAID0:RAID1和RAID0。RAID0设计简单且实现成本较低,但RAID0没有冗余或错误修复能力,并且只要组成RAID的磁盘中有一块出现故障,整个RAID系统的数据将丢失,无法进行任何补救。在RAID 1下,任何一块硬盘的故障都不会影响到系统的正常运行,但是所能使用的空间只是所有磁盘容量总和的一半,增加了系统的成本。另外,IDE硬盘速度低(最高7200转),最高峰值100M(DMA100标准),仅适合单进程IO工作,并发时性能急剧下降;IDE高速硬盘极易损坏。
从以上的分析看,IA架构的服务器与伪IA架构服务器之间在数据处理能力、可靠性、安全性、扩展能力和可管理性上有较大的区别。通常,用户可以通过看服务器是否有IDE RAID卡来甄别真伪,如果有即不是真正IA架构服务器。
机架服务器新的增长点
正如台式电脑发展到一定阶段必然会出现笔记本电脑一样,塔式服务器发展到一定阶段也同样出现了超轻超薄的机架式服务器。由于机架式服务器可以使用户在有限的空间里放置最大数量的服务器,易于管理和维护,并能提供高密度的运算动力、高带宽和系统冗余、良好的可扩展性,因而一经问世便倍受厂商和用户推崇,在某些领域已迅速取代传统塔式服务器。
对于当初使用塔式服务器的IDC(互联网数据中心)来讲,由于IDC在进行业务管理和收费时是按照租用的设备所占的空间为计算单位,占用的空间越大,收费越高。而服务器是IDC中最常见和最多的租用的设备,传统的服务器占地面积大,不宜管理,企业都希望能够租用把更高的技术浓缩在更小的空间中的服务器,从而降低租用成本。因此,在很长时间以来机架服务器产品一直是以ISP (互联网服务提供商)、IDC为代表的新电信行业所青睐的对象。
诸如IDC、xSP之类的互联网密集计算模式的兴起,更使得机架式服务器炙手可热。互联网时代给IT业注入了无穷的活力,不仅乐坏了传统的ISP,而且也促成了ICP (互联网内容提供商),更孕育了ASP。ASP(应用服务提供商)越来越成为人们注意的焦点,ASP提供的服务业务也越来越庞杂,从电子商务、在线交易,到在线运营、在线外包服务、供需链管理、库存管理等综合ASP服务的提供,展现在人们面前一幅非常美好的图景。但是ASP以及电子商务的兴起和旺盛,同时带来了对硬件设备的需求和更新的要求,促进了硬件提供商的产品的发展和改进。ASP们需要大量的服务器来满足客户的需求,主要是电子商务、在线交易、财务分析和通讯。这样以来,机架式服务器在该领域生根发芽也就顺理成章了。
正因为机架式服务器具有节省空间、高密度、便于集中维护、管理等优势等特性,一场机架式服务器在传统行业的大规模应用也就此悄然拉开了帷幕。
机架式服务器的优势所在
作为为互联网设计的服务器模式,机架服务器是一种外观按照统一标准设计的服务器,配合机柜统一使用。机架服务器的宽度为19英寸,高度以U为单位(1U=1.75英寸=44.45毫米),通常有1U,2U,3U,4U,5U,7U几种标准的服务器。机柜的尺寸也是采用通用的工业标准,通常从22U到42U不等;机柜内按U的高度有可拆卸的滑动拖架,用户可以根据自己服务器的标高灵活调节高度,以存放服务器、集线器、磁盘阵列柜等网络设备。服务器摆放好后,它的所有I/O线全部从机柜的后方引出(机架服务器的所有接口也在后方),统一安置在机柜的线槽中,一般贴有标号,便于管理。
目前,康柏、IBM、HP、DELL、联想、航天联志等国内外计算机厂商都不断的有机架式产品问世,产品线也不仅仅停留在以往塔式服务器的换型上,而是推出了独立系列的机架式产品。以全球机架式服务器发货量最大的厂商康柏为例,康柏ProLiant DL300系列(包含DL320、DL360、DL380和DL380 G2 等)满足了小型数据库和应用以及虚拟主机的需要;ProLiant DL500系列则理想适用于复杂的互联网应用和中大型数据库,它们针对机架环境中的关键业务应用而构建。ProLiant DL700系列理想适用于为用户建立数据仓库和成规模的数据采集。该系列采用了ProLiant8路体系结构具有突破性的扩充性能,从而提供了新一级别的性能和近乎线性的可扩展性。
机架式服务器在外形设计上已有了诸多革新,但在用户心中对机架式服务器的内在管理性、散热以及机箱设计方面有着疑虑。就这个问题,记者走访了康柏公司工业标准服务器事业部产品经理刘晶伟先生,他认为康柏ProLiant DL产品线针对空间受到限制的环境而优化设计,它采用机架安装式设计,支持集群的外部存储。其中,独一无二的易管理性、免工具的机箱设计和解决散热问题是康柏ProLiant DL系列机架式服务器产品的三大亮点。
特别值得一提的是"易管理"。IDC和大中型企业在服务器维护方面的传统的做法是工作人员每天都要作到服务器的前面,实地进行维护。既不能做到时时的维护工作,不利于及时的发现问题,也不宜让工作人员频繁的接触设备。这样需要在数据中心通过一个控制台访问所有的服务器,维护服务器的正常运行。与所有康柏ProLiant服务器一样,ProLiant DL产品线设计有内置管理特性,这简化了IT基础设施的维护,从而使用户能够将精力集中放在业务运作上。首先是康柏的Insight Manager XE使用户能够通过一个浏览器来高效管理康柏和非康柏服务器组、集群和网络产品。其次,康柏公司的 Lights-Out版本的 Remote Insight远程控制卡和故障预防软件、远程管理软件一同使用,能够提供通过标准浏览器对远程服务器或者数据中心服务器进行虚拟图形界面的访问的远程控制功能。Remote Insight远程控制卡使用的是32位的PCI插槽,把它安装在服务器上后,需要在服务器上安装Insight Manager、Server Environment Tracking、Disk System Tracking和故障前保修软件,这样无论用户在局网的客户端还是在互联网的一个普通客户端,只要安装了Outlook Express或者Netscape,都可以通过在浏览器的地址栏敲入服务器的IP地址,象浏览主页一样查看服务器设备硬件的各个部件使用情况,还可以远程启动或者切断服务器电源。Remote Insight远程控制卡能够带来的另一个好处是节省外部设备(比如显示器,切换器等)的费用,在大型的数据中心可以节省比较大的工具设备的开支。不仅如此,康柏ProLiant DL系列灵活的热插拔特性也向用户展示了他的高可用性,如驱动器、冗余风扇、电源和PCI卡等,这就提供了快速的热插拔能力,从而提高了正常运行时间并加速了维修。另外,用户可通过LED指示灯快速浏览服务器状态,迅速得知出现故障的机器方位,从而实现更快速预警。
免工具机箱设计和对部件的轻松接入:管理人员不需要借助工具就可以打开机箱,拆卸任何可以拆卸的部件。从而实现了快速升级和部件更换。线缆管理方案对线缆进行控制,以确保正确的热管理并实现机架内维护。康柏还为多种机架环境开发了各种机架选件,包括插入式机架滑轨。为帮助ProLiant DL产品线最佳高效利用户的空间,康柏提供了一个完整的业界领先机架产品家族,包括机架配置软件、创新选件、附件和电源管理产品。42U,36U和22U型号的机架已经上市。
另外,在散热方面,康柏ProLiant DL机架式服务器机内建造了业界独一无二的散热分区体系,该体系使服务器内容易"发高烧"的三个部分----- CPU、硬盘和I/O 区域由排风通路完全分离,使服务器内部作到热量分散。不仅如此,康柏机架服务器还从整体上实现了从上往下、从前往后的最为理想的散热方式,而康柏服务器机柜后的细致的捆绑式线缆设计和机内无盘线设计,也大大提高了服务器的散热效率。这样以来,康柏为服务器建造的"完美的中央空调"就可解除用户的散热之忧。
机架服务器市场竞争激烈
在桌面服务器市场竞争已经达到白热化程度的同时,机架服务器市场的竞也相当激烈。
由于服务器厂商不约而同都看中了机架服务器这块领域的诱人前景,纷纷推出了基于机架设计的产品。知名的国际品牌依靠自己的技术力量首先进入了这块市场,IBM的Netfinity、HP的Netserver、康柏的ProLiant、DELL的PowerEdge都是机架服务器产品,国内的品牌,比如联想的万全和浪潮的英信也都相继推出了机架服务器,一时间品牌众多。
根据IDC的统计,在中国市场,目前机架式服务器的市场份额站到所有服务器总量的14%,而例如康柏这样的机架服务器巨人的市场占有率就达到了20%。(2001年第二季度,其康柏的全球市场份额更超过了50%)。 这说明国内服务器企业要想在机架服务器市场追赶上国外大厂商还需要时间和不懈的努力。
要想在这个领域当中占据一席之地还真需要好好想想办法。HP公司近日就采取了商家最常用也最有效的招数:降价。康柏的刘晶伟先生介绍了康柏(中国)的策略:一、提供完整的全系列机架式服务器的产品线;二、中高端服务器提供捆绑的一体化解决方案;三、低端市场打促销牌,扩大市场占有率 ;四、不断推出新产品,例如为满足DATA CENTER要求而推出的更高密度的"刀片"服务器等。
高端也增值
其实,对企业级用户来说,并不十分关心服务器采用何种架构,用谁的芯片,功能如何强大,性能如何优越,他们只关心服务器是否能满足自己的应用需求?系统运行是否稳定可靠?维护起来是否简单易行?而这些因素将越来越成为左右用户选择购买服务器的理由。此外,越来越多高端产品从硬件向软件、服务领域开始转变。为适应市场的需求,各个服务器厂商厂家也纷纷转变角色,由单纯的服务器产品提供商转变为如何向企业级用户提供高可靠的增值服务商过渡。
以康柏为例,康柏公司为客户提供了业界全面的终身服务支持。康柏全球服务有3万多名服务专业人员,在全球114个国家提供服务。康柏Carepaq服务提供全面的客户服务,它为每个ProLiant提供3个级别的服务。为ProLiant系统提供的服务从基本的保修扩展到硬件安装到启动服务,再到最高级别的关键支持,如果出现无法预料的问题,康柏服务专业人员确保在数小时内为用户解决该问题。康柏还为用户提供了一个轻松过渡到更高技术的方法。康柏服务器折换方案是将用户在较早的英特尔架构的康柏和非康柏服务器上的投资移植到性能和可靠性改进的新康柏ProLiant服务器上的一种轻松方法。
康柏能够提供集成的、符合工业标准的硬件和软件以及服务,它们性能出色,价格适当,可以帮助用户最大限度地利用数据中心投资。康柏定位是将ProLiant优化服务器、分类软件、存储和服务结合在一起,为企业级用户提供一个全面的机架环境解决方案。这意味着用户将获得一个更可靠、更简单、更强大且更经济的解决方案。
总 结
未来的网络发展呈现出集中计算的趋势。集中管理模式与现有的分散管理模式,对服务器提出了新的要求:节约空间、便于集中管理、易于扩展和提供不间断的服务成为对机架式服务器的新要求,机架式服务器的成熟与发展将成为IT业一个新的增长点。
服务器是一种高性能计算机,作为网络的节点,存储、处理网络上80%的数据、信息,因此也被称为网络的灵魂。做一个形象的比喻:服务器就像是邮局的交换机,而微机、笔记本、PDA、手机等固定或移动的网络终端,就如散落在家庭、各种办公场所、公共场所等处的电话机。我们与外界日常的生活、工作中的电话交流、沟通,必须经过交换机,才能到达目标电话;同样如此,网络终端设备如家庭、企业中的微机上网,获取资讯,与外界沟通、娱乐等,也必须经过服务器,因此也可以说是服务器在“组织”和“领导”这些设备。
服务器的构成与微机基本相似,有处理器、硬盘、内存、系统总线等,它们是针对具体的网络应用特别制定的,因而服务器与微机在处理能力、稳定性、可靠性、安全性、可扩展性、可管理性等方面存在差异很大。尤其是随着信息技术的进步,网络的作用越来越明显,对自己信息系统的数据处理能力、安全性等的要求也越来越高,如果您在进行电子商务的过程中被黑客窃走密码、损失关键商业数据;如果您在自动取款机上不能正常的存取,您应该考虑在这些设备系统的幕后指挥者————服务器,而不是埋怨工作人员的素质和其他客观条件的限制。
服务器技术之EMP技术
目前服务器的技术热点主要有:IRISC与CISC技术、处理器技术、多处理器技术(AMP技术、SMP技术、MPP技术、COMA技术、集群技术和NUMA技术)、SCSI接口技术、智能I/O技术、容错技术、磁盘阵列技术、热插拔技术、双机热备份。
服务器在网络中承担传输和处理大量数据的任务,要具备高可伸缩性、高可靠性、高可用性和高可管理性。IA-64体系将带动服务器技术特性的提高,如高性能CPU、多处理器技术、总线和内存技术、容错技术、群集技术、硬件管理接口、均衡服务器平台技术等。
EMP(Emergency Management Port)技术
EMP(Emergency Management Port)技术也是一种远程管理技术,利用EMP技术可以在客户端通过电话线或电缆直接连接到服务器,来对服务器实施异地操作,如关闭操作系统、启动电源、关闭电源、捕捉服务器屏幕、配置服务器BIOS等操作,是一种很好的实现快速服务和节省维护费用的技术手段。 应用ISC和EMP两种技术可以实现对服务器进行远程监控管理。
服务器技术之RAID冗余磁盘阵列技术
目前服务器的技术热点主要有:IRISC与CISC技术、处理器技术、多处理器技术(AMP技术、SMP技术、MPP技术、COMA技术、集群技术和NUMA技术)、SCSI接口技术、智能I/O技术、容错技术、磁盘阵列技术、热插拔技术、双机热备份。
服务器在网络中承担传输和处理大量数据的任务,要具备高可伸缩性、高可靠性、高可用性和高可管理性。IA-64体系将带动服务器技术特性的提高,如高性能CPU、多处理器技术、总线和内存技术、容错技术、群集技术、硬件管理接口、均衡服务器平台技术等。
RAID(Redundant Array of Independent Disks)冗余磁盘阵列技术
RAID技术是一种工业标准,各厂商对RAID级别的定义也不尽相同。目前对RAID级别的定义可以获得业界广泛认同的有4种,RAID 0、RAID 1、RAID 0+1和RAID 5。
RAID 0是无数据冗余的存储空间条带化,具有成本低、读写性能极高、存储空间利用率高等特点,适用于Video/Audio信号存储、临时文件的转储等对速度要求极其严格的特殊应用。但由于没有数据冗余,其安全性大大降低,构成阵列的任何一块硬盘的损坏都将带来灾难性的数据损失。所以,若在RAID 0中配置4块以上的硬盘,对于一般应用来说是不明智的。
RAID 1是两块硬盘数据完全镜像,安全性好,技术简单,管理方便,读写性能均好。但它无法扩展(单块硬盘容量),数据空间浪费大,严格意义上说,不应称之为"阵列"。
RAID 0+1综合了RAID 0和RAID 1的特点,独立磁盘配置成RAID 0,两套完整的RAID 0互相镜像。它的读写性能出色,安全性高,但构建阵列的成本投入大,数据空间利用率低,不能称之为经济高效的方案。
负载均衡技术概览
当前,无论在企业网、园区网还是在广域网如Internet上,业务量的发展都超出了过去最乐观的估计,上网热潮风起云涌,新的应用层出不穷,即使按照当时最优配置建设的网络,也很快会感到吃不消。尤其是各个网络的核心部分,其数据流量和计算强度之大,使得单一设备根本无法承担,而如何在完成同样功能的多个网络设备之间实现合理的业务量分配,使之不致于出现一台设备过忙、而别的设备却未充分发挥处理能力的情况,就成了一个问题,负载均衡机制也因此应运而生。
负载均衡建立在现有网络结构之上,它提供了一种廉价有效的方法扩展服务器带宽和增加吞吐量,加强网络数据处理能力,提高网络的灵活性和可用性。它主要完成以下任务:解决网络拥塞问题,服务就近提供,实现地理位置无关性 ;为用户提供更好的访问质量;提高服务器响应速度;提高服务器及其他资源的利用效率;避免了网络关键部位出现单点失效。
对一个网络的负载均衡应用,可以从网络的不同层次入手,具体情况要看对网络瓶颈所在之处的具体分析,大体上不外乎从传输链路聚合、采用更高层网络交换技术和设置服务器集群策略三个角度实现。
■传输链路聚合
为了支持与日俱增的高带宽应用,越来越多的PC机使用更加快速的链路连入网络。而网络中的业务量分布是不平衡的,核心高、边缘低,关键部门高、一般部门低。伴随计算机处理能力的大幅度提高,人们对多工作组局域网的处理能力有了更高的要求。当企业内部对高带宽应用需求不断增大时(例如Web访问、文档传输及内部网连接),局域网核心部位的数据接口将产生瓶颈问题,瓶颈延长了客户应用请求的响应时间。并且局域网具有分散特性,网络本身并没有针对服务器的保护措施,一个无意的动作(像一脚踢掉网线的插头)就会让服务器与网络断开。
通常,解决瓶颈问题采用的对策是提高服务器链路的容量,使其超出目前的需求。例如可以由快速以太网升级到千兆以太网。对于大型企业来说,采用升级技术是一种长远的、有前景的解决方案。然而对于许多企业,当需求还没有大到非得花费大量的金钱和时间进行升级时,使用升级技术就显得大材小用了。在这种情况下,链路聚合技术为消除传输链路上的瓶颈与不安全因素提供了成本低廉的解决方案,
链路聚合技术,将多个线路的传输容量融合成一个单一的逻辑连接。当原有的线路满足不了需求,而单一线路的升级又太昂贵或难以实现时,就要采用多线路的解决方案了。目前有4种链路聚合技术可以将多条线路“捆绑”起来。同步IMUX系统工作在T1/E1的比特层,利用多个同步的DS1信道传输数据,来实现负载均衡。IMA是另外一种多线路的反向多路复用技术,工作在信元级,能够运行在使用ATM路由器的平台上。用路由器来实现多线路是一种流行的链路聚合技术,路由器可以根据已知的目的地址的缓冲(cache)大小,将分组分配给各个平行的链路,也可以采用循环分配的方法来向线路分发分组。多重链路PPP,又称MP或MLP,是应用于使用PPP封装数据链路的路由器负载平衡技术。MP可以将大的PPP数据包分解成小的数据段,再将其分发给平行的多个线路,还可以根据当前的链路利用率来动态地分配拨号线路。这样做尽管速度很慢,因为数据包分段和附加的缓冲都增加时延,但可以在低速的线路上运行得很好。
链路聚合系统增加了网络的复杂性,但也提高了网络的可靠性,使人们可以在服务器等关键LAN段的线路上采用冗余路由。对于IP系统,可以考虑采用VRRP(虚拟路由冗余协议)。VRRP可以生成一个虚拟缺省的网关地址,当主路由器无法接通时,备用路由器就会采用这个地址,使LAN通信得以继续。总之,当主要线路的性能必需提高而单条线路的升级又不可行时,可以采用链路聚合技术。
更高层交换
大型的网络一般都是由大量专用技术设备组成的,如包括防火墙、路由器、第2层/3层交换机、负载均衡设备、缓冲服务器和Web服务器等。如何将这些技术设备有机地组合在一起,是一个直接影响到网络性能的关键性问题。现在许多交换机提供第四层交换功能,可以将一个外部IP地址映射为多个内部IP地址,对每次TCP连接请求动态使用其中一个内部地址,达到负载均衡的目的。有的协议内部支持与负载均衡相关的功能,例如HTTP协议中的重定向能力。
Web内容交换技术,即URL交换或七层交换技术,提供了一种对访问流量的高层控制方式。Web内容交换技术检查所有的HTTP报头,根据报头内的信息来执行负载均衡的决策,并可以根据这些信息来确定如何为个人主页和图像数据等内容提供服务。它不是根据TCP端口号来进行控制的,所以不会造成访问流量的滞留。如果Web服务器已经为图像服务、SSL对话、数据库事务服务之类的特殊功能进行了优化,那么,采用这个层次的流量控制将可以提高网络的性能。目前,采用第七层交换技术的产品与方案,有黎明网络的iSwitch、交换机,Cisco的CDN(内容交换网络系统)等。
服务器群集解决方案
在某些情况下,例如,某网站内部职员和外部客户同时使用网站,而公司要将内部职员的服务请求连接到一个较慢的服务器来为外部客户提供更多的资源,这时就可以使用Web内容交换技术。Web主机访问控制设备也可以使用这种技术来降低硬件成本,因为它可以轻易地将访问多个主机的用户流量转移给同一个Web服务器。如果用户访问量增加到一定程度,这些流量还可以被转移到专用的Web服务器设备,虽然这种专用设备的成本较高,但是由于使用的是相同的Web内容交换技术来控制流量,所以网络的结构框架就不用再进行改变了。
但是,使用Web内容交换技术的负载均衡设备所能支持的标准和规则的数目有限,其采用的标准和规则的灵活性也有限。另外,负载均衡设备所能监测到HTTP报头的深度也是限制内容交换能力的一个因素。如果所要找的信息在负载均衡设备所不能监测的字段内,那内容交换的作用就无法发挥。而且,内容交换还受到能够同时开启的TCP连接数量以及TCP连接的建立和断开比率的限制。另外,Web内容交换技术还会占用大量的系统资源(包括内存占用和处理器占用)。对Web内容交换技术进行的测试表明,操纵Web内容的吞吐量是很费力的,有时只能得到很小的性能改进。所以,网络管理员必须认真考虑投入与回报的问题。
■带均衡策略的服务器群集
如今,服务器必须具备提供大量并发访问服务的能力,其处理能力和I/O能力已经成为提供服务的瓶颈。如果客户的增多导致通信量超出了服务器能承受的范围,那么其结果必然是――宕机。显然,单台服务器有限的性能不可能解决这个问题,一台普通服务器的处理能力只能达到每秒几万个到几十万个请求,无法在一秒钟内处理上百万个甚至更多的请求。但若能将10台这样的服务器组成一个系统,并通过软件技术将所有请求平均分配给所有服务器,那么这个系统就完全拥有每秒钟处理几百万个甚至更多请求的能力。这就是利用服务器群集实现负载均衡的最初基本设计思想。
早期的服务器群集通常以光纤镜像卡进行主从方式备份。令服务运营商头疼的是关键性服务器或应用较多、数据流量较大的服务器一般档次不会太低,而服务运营商花了两台服务器的钱却常常只得到一台服务器的性能。新的解决方案见图,通过LSANT(Load Sharing Network Address Transfer)将多台服务器网卡的不同IP地址翻译成一个VIP(Virtual IP)地址,使得每台服务器均时时处于工作状态。原来需要用小型机来完成的工作改由多台PC服务器完成,这种弹性解决方案对投资保护的作用是相当明显的――既避免了小型机刚性升级所带来的巨大设备投资,又避免了人员培训的重复投资。同时,服务运营商可以依据业务的需要随时调整服务器的数量。
网络负载均衡提高了诸如Web服务器、FTP服务器和其他关键任务服务器上的因特网服务器程序的可用性和可伸缩性。单一计算机可以提供有限级别的服务器可靠性和可伸缩性。但是,通过将两个或两个以上高级服务器的主机连成群集,网络负载均衡就能够提供关键任务服务器所需的可靠性和性能。
为了建立一个高负载的Web站点,必须使用多服务器的分布式结构。上面提到的使用代理服务器和Web服务器相结合,或者两台Web服务器相互协作的方式也属于多服务器的结构,但在这些多服务器的结构中,每台服务器所起到的作用是不同的,属于非对称的体系结构。非对称的服务器结构中每个服务器起到的作用是不同的,例如一台服务器用于提供静态网页,而另一台用于提供动态网页等等。这样就使得网页设计时就需要考虑不同服务器之间的关系,一旦要改变服务器之间的关系,就会使得某些网页出现连接错误,不利于维护,可扩展性也较差。
能进行负载均衡的网络设计结构为对称结构,在对称结构中每台服务器都具备等价的地位,都可以单独对外提供服务而无须其他服务器的辅助。然后,可以通过某种技术,将外部发送来的请求均匀分配到对称结构中的每台服务器上,接收到连接请求的服务器都独立回应客户的请求。在这种结构中,由于建立内容完全一致的Web服务器并不困难,因此负载均衡技术就成为建立一个高负载Web站点的关键性技术。
总之,负载均衡是一种策略,它能让多台服务器或多条链路共同承担一些繁重的计算或I/O任务,从而以较低成本消除网络瓶颈,提高网络的灵活性和可靠性。
高端服务器技术
服务器性能指标以系统响应速度和作业吞吐量为代表。响应速度是指用户从输入信息到服务器完成任务给出响应的时间。作业吞吐量是整个服务器在单位时间内完成的任务量。假定用户不间断地输入请求,则在系统资源充裕的情况下,单个用户的吞吐量与响应时间成反比,即响应时间越短,吞吐量越大。为了缩短某一用户或服务的响应时间,可以分配给它更多的资源。性能调整就是根据应用要求和服务器具体运行环境和状态,改变各个用户和服务程序所分配的系统资源,充分发挥系统能力,用尽量少的资源满足用户要求,达到为更多用户服务的目的。
技术目标
服务器所要求的高扩展性、高可用性、易管理性、高可靠性不仅是厂商追求的技术目标,也是用户所需求的。
可扩展性具体表现在两个方面:一是留有富余的机箱可用空间,二是充裕的I/O带宽。随着处理器运算速度的提高和并行处理器数量的增加,服务器性能的瓶颈将会归结为PCI及其附属设备。高扩展性意义在于用户可以根据需要随时增加有关部件,在满足系统运行要求同时,又保护投资。
可用性是以设备处于正常运行状态的时间比例作为衡量指标,例如99.9%的可用性表示每年有8小时的时间设备不能正常运行,99.999%的可用性表示每年有5分钟的时间设备不能正常运行。部件冗余是提高可用性的基本方法,通常是对发生故障给系统造成危害最大的那些部件(例如电源、硬盘、风扇和PCI卡)添加冗余配置,并设计方便的更换结构(如热插拔),从而保证这些设备即使发生故障也不会影响系统的正常运行。
可管理性旨在利用特定的技术和产品来提高系统的可靠性,降低系统的购买、使用、部署和支持费用。最显著的作用体现在减少维护人员的工时占用和避免系统停机带来的损失。服务器的管理性能直接影响服务器的易用性。可管理性是TCO各种费用之中所占比例最大的一项。有研究表明,系统的部署和支持费用远远超过了初次购买所花的费用,而付给管理和支持人员的报酬又是其中所占份额最高的。另外,工作效率的降低、商业机会的丧失和营业收入的下滑所带来的财务损失也不可忽视。因此,系统的可管理性既是IT部门的迫切要求,又对企业经营效益起着非常关键的作用。可管理性产品和工具可通过提供系统内部的有关信息而达到简化系统管理的目的。通过网络实现远程管理,技术支持人员在自己的桌面上即可解决问题,不必亲赴故障现场。系统部件可自动监视自己的工作状态,如果发现故障隐患可随时发出警告,提醒维护人员立即采取措施保护企业数据资产,故障部件更换的操作也非常简单方便。
说到可靠性,简单来说就是要求服务器必须稳定运行,也就是宕机率低。其中的关键在于操作系统与硬件设备的协作,如果待处理的资源控制在CPU和操作系统上,而不是应用上,就会避免由于某项任务处理出错而导致系统无法运行,服务器宕机率将大大降低,而这也恰恰是Unix/Linux系统的优势之一。导致日常维护工作的中断有:主机升级、硬件维护或安装、操作系统升级、应用/文件升级或维护、文件重组、全系统备份等原因。意外的灾难包括硬盘损坏、系统故障、软件故障、用户错误、电源掉电、人为破坏和自然灾害等因素。
SMP
SMP(Symmetrical Multi-Processor)就是对称式多处理器。在对称式结构中,机器里每一位处理器的地位都是一样的,它们连接在一起,共享一个存储器。存储器里有一个操作系统,每个计算机都能运行这个操作系统,都能响应外部设备的要求,即每个存储器的地位是平等的、对称的。在国内市场上这类机型的处理器一般以4个或8个为主,有少数是16个处理器。但是一般来讲,SMP结构的机器可扩展性较差,很难做到100个以上多处理器,常规的一般是8个到16个,不过这对于多数的用户来说已经够用了。这种机器的好处在于它的使用方式和微机或工作站的区别不大,编程的变化相对来说比较小,原来用微机工作站编写的程序如果要移植到SMP机器上使用,改动起来也相对比较容易。SMP结构的机型可用性比较差。因为4个或8个处理器共享一个操作系统和一个存储器,一旦操作系统出现了问题,整个机器就完全瘫痪掉了。而且由于这个机器的可扩展性较差,不容易保护用户的投资。但是这类机型技术比较成熟,相应的软件也比较多,因此现在国内市场上推出的并行机大量都是这一种。
集群技术
通俗地说,集群是这样一种技术:它至少将两个系统连接到一起,使两台服务器能够像一台机器那样工作或者看起来好像一台机器。采用集群系统通常是为了提高系统的稳定性和网络中心的数据处理能力及服务能力。自80年代初以来,各种形式的集群技术纷纷涌现。因为集群能够提供高可用性和可伸缩性,所以,它迅速成为企业和ISP计算的支柱。
常见集群技术
1.服务器镜像技术
服务器镜像技术是将建立在同一个局域网之上的两台服务器通过软件或其他特殊的网络设备(比如镜像卡)将两台服务器的硬盘做镜像。其中,一台服务器被指定为主服务器,另一台为从服务器。客户只能对主服务器上的镜像的卷进行读写,即只有主服务器通过网络向用户提供服务,从服务器上相应的卷被锁定以防对数据的存取。主/从服务器分别通过心跳监测线路互相监测对方的运行状态,当主服务器因故障宕机时,从服务器将在很短的时间内接管主服务器的应用。
服务器镜像技术的特点是成本较低,提高了系统的可用性,保证了在一台服务器宕机的情况下系统仍然可用,但是这种技术仅限于两台服务器的集群,系统不具有可扩展性。
2. 应用程序错误接管集群技术
错误接管集群技术是将建立在同一个网络里的两台或多台服务器通过集群技术连接起来,集群节点中的每台服务器各自运行不同的应用,具有自己的广播地址,对前端用户提供服务,同时每台服务器又监测其他服务器的运行状态,为指定服务器提供热备份作用。当某一节点因故障宕机时,集群系统中指定的服务器会在很短的时间内接管故障机的数据和应用,继续为前端用户提供服务。
\错误接管集群技术通常需要共享外部存储设备—磁盘阵列柜,两台或多台服务器通过SCSI电缆或光纤与磁盘阵列柜相连,数据都存放在磁盘阵列柜上。这种集群系统中通常是两个节点互为备份的,而不是几台服务器同时为一台服务器备份,集群系统中的节点通过串口、共享磁盘分区或内部网络来互相监测对方的心跳。
错误接管集群技术经常用在数据库服务器、MAIL服务器等的集群中。这种集群技术由于采用共享存储设备,所以增加了外设费用。它最多可以实现32台机器的集群,极大地提高了系统的可用性及可扩展性。
3.容错集群技术
容错集群技术的一个典型的应用即容错机,在容错机中,每一个部件都具有冗余设计。在容错集群技术中集群系统的每个节点都与其他节点紧密地联系在一起,它们经常需要共享内存、硬盘、CPU和I/O等重要的子系统,容错集群系统中各个节点被共同映像成为一个独立的系统,并且所有节点都是这个映像系统的一部分。在容错集群系统中,各种应用在不同节点之间的切换可以很平滑地完成,不需切换时间。
容错集群技术的实现往往需要特殊的软硬件设计,因此成本很高,但是容错系统最大限度地提高了系统的可用性,是财政、金融和安全部门的最佳选择。
目前在提高系统的可用性方面用得比较广泛的是应用程序错误接管技术,即我们通常所采用的双机通过SCSI电缆共享磁盘阵列的集群技术,这种技术目前被各家集群软件厂商和操作系统软件厂商进一步扩充,形成了市面上形形色色的集群系统。
基于IA架构高性能集群系统技术
利用最新的4、8路IA服务器架构的高性能服务器集群系统, 采用了领先的VI(Visual Interface)技术,有效地消除了系统中节点之间通讯的瓶颈;同时,系统采用的负载均衡技术使用户设备可以充分得到利用,并且达到了4个9的可靠性,具有极高的产品性价比,为Internet的应用提供了一个强有力的数据库服务器平台。
1.系统概述
数据中心领域一直是高端RISC服务器的天下,多年来人们只有选择AS400 、E10000、HP9000等这样的小型机,价格昂贵,维护成本高。而IA 架构服务器价格低廉,易于使用和维护,通过Cluster技术可以构造超级计算机,其超强的处理能力可以取代价格昂贵的中大型机,为行业的高端应用开辟新的方向。
对于成长中的大型用户来讲,数据中心或数据仓库中所保存的企业经营、管理数据的增长是十分惊人的,而这些数据对大型用户的作用又是非常重要的。发展若干年中积累下的数据是一笔宝贵的财富,通过对这些浩若烟海的数据进行分析,经营者们能够得出直观的经营图表、曲线,能够为以后大型用户的发展提供有力的决策支持。但是由于这样的数据随着时间的流逝不断膨胀,给大型用户的IT系统管理人员带来了巨大的压力。
用户到底需要什么样的服务器才能满足目前和未来发展的需要?
首先要有超强的计算能力,可以承受长时间、大用户量的并发访问。
其次,服务器系统的高可用性、易用易管理对于用户也是极为重要的,如果系统出现故障,造成服务的中断,或者重要资料的丢失,会给用户造成挽回的损失。所以,用户在选择服务器系统时一定要考虑高可用的系统方案。
第三,随着数据的不断堆积,对数据的查询和统计将使系统变得越来越慢,硬件设备的更新换代可以说是一个发展中的大型用户必不可少的工作。
利用最新的4、8路IA服务器架构的高性能服务器集群系统[1], 采用了领先的VI(Visual Interface)技术,有效地消除了系统中节点之间通讯的瓶颈;同时,系统采用的负载均衡技术使用户设备可以充分得到利用,并且达到了4个9的可靠性,具有极高的产品性价比,1999年推出以来引起了用户的广泛关注,为国内广大用户提供了一个强有力的数据库服务器平台。
2.系统原理
高性能服务器集群系统是基于2节点或4节点的集群,最多可达32个CPU,内存最大支持32GB。4节点构成一个工作单元,最多可级联16个工作单元。
各节点为IA服务器,它支持4路或8路Pentium III Xeon CPU并行处理。每台服务器上插一块千兆网卡或vi结构的高速交换卡,连接至一台高速交换机(可以是千兆以太网卡交换机或某些特殊的高速交换机,例如vi结构的高速交换机)做为服务器彼此之间的数据交换用,称之为SAN(Server Area Network)交换机。
每台服务器插有一块百兆或千兆以太网卡,连接到局域网用的交换机或集线器上,为客户端的访问提供连接服务。
四台服务器共享一台光纤通道磁盘阵列柜。每台服务器有两块光纤通道卡,分别连接到两个光纤通道的集线器上,每个集线器分别连接到光纤通道磁盘阵列柜的两个控制器上。对于光纤通道磁盘阵列柜,只要有一个控制器能正常工作,整个阵列柜就能正常工作,因此这种配置方案是冗余的,防止单点失效。对于最重要的存放在磁盘阵列柜中的数据,还可采取将集群系统与磁盘阵列柜分别存放的方式来确保数据安全,光纤通道允许集群系统与磁盘阵列柜之间最长10公里的距离。
每台服务器有一个硬盘区域,用于安装本机的引导系统和数据库系统的管理部分。用户数据存储在共享的磁盘阵列柜中。
在局域网中,有一台客户机做为管理控制台,在其上安装有数据库的管理控制台,用于管理并行数据库,可以同时监控四个节点上的数据库实例,实现启动、停止、监控运行性能等功能。
另外在这台客户机上安装有网管系统,SAN的管理控制台,磁盘柜的管理控制台,UPS管理控制台等,实现集群系统的统一管理。有的管理功能实现时只需要安装TCP/IP协议,有的则还需要安装SNMP协议才能正常工作。
一个良好的集群系统除了优秀的性能指标之外,还需要有相应的操作系统和数据库的支持,我们目前的集群系统支持WINDOWS NT 4.0 及WINDOWS 2000操作系统[2],在数据库方面支持ORACLE和DB2。它不运行在单机上,只有在多个节点同时工作时,才能够显示出它的性能,并使得系统能够真正做到负载均衡(Load Balance)。
2.1 两节点集群系统
从方案的配置上来说,用户可以根据需要做不同的选择,可以使用两台高端服务器实现一个虚拟主机。这时,采用vi结构的高速交换设备更具有优越性,不需要使用vi 交换机,可以用每台服务器上的vi结构的高速交换卡直连实现服务器之间的高速数据交换。如果使用千兆以太网卡,还需要千兆交换机,成本较高。
图1 两节点系统连接图
2.2 四节点集群系统
集群系统方案的设计目标是支持4节点的cluster,在实现时以4个节点加相应存储设备和交换设备构成一个工作单元。每个工作单元由四台独立的4路或8路服务器组成的服务器阵列作为一个虚拟的容错主机工作,四台服务器共享一台光纤通道磁盘阵列柜。每台服务器有两块光纤通道卡,分别连接到两个光纤通道的集线器上,每个集线器分别连接到光纤通道磁盘阵列柜的两个控制器上。对于光纤通道磁盘阵列柜,只要有一个控制器能正常工作,整个阵列柜就能正常工作,因此这种配置方案是冗余的,防止单点失效。
图2 四节点系统连接图
3. 系统特性
高性能服务器集群系统解决方案已经可以实现4结点的集群,超过传统cluster两结点的限制。如果集群中每结点采用8CPU服务器,那么4结点的集群系统可以支持32个处理器,在性能上完全可以与传统的RISC小型机和中型机相抗衡。
3.1 负载均衡:
负载均衡的概念:多台服务器为对称方式,每台服务器都具备等价的地位,都可以单独对外提供服务而无须其他服务器的辅助。然后通过某种负载分担技术,将外部发送来的请求均匀分配到对称结构中的某一台服务器上,而接收到请求的服务器都独立回应客户机的请求。
1、将大量用户的并发访问分别在到多个节点机上并行处理,缩短用户等待响应的时间,系统的处理能力得到提高,并且能够接受更多用户的并发访问。客户机申请数据库连接时,由数据库自动分配连接到哪个节点上,实现这种方式的负载均衡不需要修改已有的应用程序。
2、将单个用户重负载的运算分担到多个节点机上做并行处理,每个节点机有多个CPU,也做并行处理,处理结束后,将结果汇总,返回给用户。即将一个大的用户查询分担到多个节点上,由多个线程来并行处理,然后再将结果合并,显示给用户,系统处理能力得到大幅度提高。实现这种方式的负载均衡需要修改已有的应用程序,但只需要修改SQL查询语句。
3.2 高可用性:
高可用性意味着最大化的服务器开机时间,也就是最小化的服务器计划外的停机时间,从而可以很好地保护关键性数据、提高生产效率。99%的高可用性意味着每年计划外的停机时间是5000分钟,而99.99%意味着50分钟。
高性能服务器集群系统解决方案是一个true cluster系统,当一台节点机出现故障时,其他节点机仍旧可以正常工作,客户机的访问不会中断。
图3 高可用性示意图
高性能服务器集群系统中大量采用冗余设备,如多台服务器、多台UPS、多台交换机、磁盘冗余(RAID),在存储设备中采用独立的两套CPU/内存子系统,甚至配置了两套为磁盘柜内存缓冲供电的电源系统,有效地屏蔽了单点失效的危险性,使整个系统的可靠性达到了99.99%以上。
此方案的优势在于在正常工作状态下,四台服务器并行处理任务,没有资源闲置,且并行处理,大大提高系统总体处理能力;而当有一台或几台出现故障时,其他的服务器除执行自己的任务外,还接管其他节点的工作,因此负载加大,但整个集群系统仍在正常工作,客户机的访问不会中断,因为这是专门针对无法容忍停机的用户设计的,从根本上消除了停机因素。出现故障的服务器只是简单地将其从阵列中移去,当这台服务器修理好后,无需人工干预即可重新加入到服务器阵列。这就是我们所说的并行处理、永不停顿的含义。
3.3 集中管理性能
在局域网中,有一台客户机做为管理控制台,在其上安装有数据库的管理控制台,用于管理并行数据库,可以同时监控四个节点上的数据库实例,实现启动、停止、监控运行性能等功能。另外安装有网管系统,磁盘柜的管理控制台,UPS管理控制台等,实现集群系统的统一管理。有的管理功能实现时只需要安装TCP/IP协议,有的则还需要安装SNMP协议才能正常工作。
用于管理的应用程序
图4 集中管理示意图
3.4可扩展性能。
高性能服务器集群系统是基于2节点或4节点的集群,可达16个或32个CPU,内存最大支持32GB。2节点或4节点构成一个工作单元。
先使用一个工作单元进行数据处理,随着业务的发展,当发现处理能力不足时,可再级联第二个工作单元,即可获得处理性能的提高。这体现了cluster系统很好的可扩展性。
四节点的服务器并行处理能力是否能达到单台服务器处理能力的四倍呢?
不能。二节点的服务器并行处理能力基本能达到单台服务器处理能力的二倍,但四节点的服务器并行处理能力只能达到单台服务器处理能力的三倍多。因为当节点数增多时,用于cluster系统管理耗费的资源会上升,对系统的总处理能力影响增大。
3.5 Vi的高速传输性能。
VI是Visual Interface的简称,可直译为“虚拟接口”,是一种用于服务器和服务器之间的通讯技术。严格来讲,VI是一种工业标准,支持它的企业和机构至少有上百家,其中包括INTEL、COMPAQ、IBM、HP、MICROSOFT等国际知名厂商。它并不代表是某种硬件或软件设备,而是一种特殊的网络通讯协议,凡是符合这种通讯协议的网络设备,我们就称之为VI设备。有时也称这种设备为VIA(Visual Interface Architecture)设备,即“虚拟接口架构”设备。
VI设备的特点是高传输速率—大于1.25Gb/S,甚至高于目前的千兆交换网络设备(千兆交换设备的传输速率为1Gb/S),而且由于它使用了特殊的通讯协议,而不是传统的OSI7层传输协议,在数据的传送速度上要远远高于普通的千兆交换设备。高性能服务器集群系统在服务器彼此之间互相交换数据方面采用了最新的通讯技术,即采用了vi结构的通讯卡,实现服务器之间高速数据交换。
传统的数据传输(UDP/IP) 采用VI技术
图5 解决软件传输的瓶颈
当然也可以用千兆网卡和千兆交换机实现服务器之间的数据交换,但最主要的差别在于,服务器之间的数据交换速度与vi结构的通讯卡相比慢很多。千兆网卡和千兆交换机实现数据交换必须通过TCP/IP的七层协议,而vi结构的通讯卡可以绕过TCP/IP的七层协议,实现应用程序直接访问vi结构的通讯卡,即直接与硬件设备进行数据交换,速度非常高,1.25Gb/s,大大减少CPU资源占用。在cluster系统中,服务器之间数据交换的速度直接影响整体系统性能,在节点数越多的情况下,影响越显著,甚至成为系统性能的瓶径,因为进程在多个节点之间的协调占用了大部分的系统资源。
目前支持vi结构的通讯卡在应用层直接进行数据交换的应用程序有oracle和db2。
实现两个节点的机群系统时,vi结构的通讯卡更具有优越性,因为两个vi结构的通讯卡之间可以直连,不需要交换机,性能好,价格便宜。而如果使用千兆以太网,必须使用千兆交换机。
Internet时代,国内用户对服务器高端的应用的需求越来越大,利用IA服务器架构的高性能服务器集群系统的连续可用性、在线扩展、远程管理等一系列卓越的特点已使许多用户的梦想变为可能。
IA架构服务器—真伪识别
目前,服务器按照其体系架构可以分为RISC(精简指令集计算)架构服务器和基于CISC(复杂指令集计算)的IA架构服务器。IA架构服务器采用了开放式体系,并且实现了工业标准化技术。自96年Intel公司推出Pentium Pro处理器以来,IA架构的服务器得到很大的发展。现在,采用Pentium III Xeon的服务器最大可以支持8路,具有很高的性能。IBM、Dell、SGI、HP、Compaq等公司在其中、高端服务器领域已纷纷转向采用IA架构。由于IA架构的服务器采用了开放体系结构,因而受到了国内各服务器厂商的青睐,国内主要的IA架构服务器的制造商有浪潮、联想,航天联志,同方等。
伪IA架构服务器的缘起
纵观国内服务器市场:2000年,国产品牌创造了惊人的成长业绩,当年市场份额已经占到了41%。但是进入2001年,全球经济发展速度放缓,国外服务器厂商增加了对中国市场的投入,国内大型IT企业也纷纷加入,使得初见曙光的国内服务器厂商又面临严峻的挑战。在残酷的竞争面前,本土品牌不得不采取价格战。在低价竞争中既能获利,又不作假,是与企业的技术实力和生产规模密切相关的。以北京航天联志为例,之所以能够推出低价位服务器产品,最重要的是基于自身雄厚的实力。目前唯一专业生产服务器产品的国内厂商其实只有航天联志几家,而那些兼营或实力弱小的服务器厂商不具备相应的技术实力和工业化生产规模,为了在低价竞争中获得一席之地,不得不玩起“偷梁换柱”的文字游戏,以高端PC机、其他非IA标准的芯片来替换Intel的IA架构芯片组,冒充IA架构的服务器,再以所谓的“促销价”推向市场。市场上的出现的伪IA架构服务器已经引起来Intel和国内一些厂商的警觉,Intel决定与全球各地的服务器厂商联手举办大型推广活动,在中国地区与北京航天联志合作,订于11月中旬以后将在全国13个城市展开活动。
何谓真正的IA架构服务器
通常将采用英特尔处理器的服务器称为IA(Intel Architecture)架构服务器。由于该架构服务器采用了开放式体系,并且实现了工业标准化技术和得到国内外大量软硬件供应商的支持,在大批量生产的基础上,以其极高的性能价格比而在全球范围内,尤其在我国得到广泛的应用。真正的服务器必须满足以下几个条件:
1.采用Intel CPU;
2.采用Intel的服务器母板;
3.采用Intel的RAID技术;
4.采用Intel认证过的软硬件;
5.免费的服务管理功能ISM。
Intel是IA架构标准的制订者,它在CPU市场上的占有率超过了80%,IA架构已经成为用户公认的标准。Intel(中国)有限公司技术咨询经理罗斌称:“从当前的网络发展状况看,以“小、巧、稳”为特点的IA架构的服务器凭借可靠的性能、低廉的价格,得到了更为广泛的应用。很多人把某一种服务器称为NT服务器或者PC服务器,实际上在今天来讲应该换个名,叫IA构架的服务器或标准化、大批量服务器,因为这种服务器不只在NT上运行,跟PC也没有太多关系。真正的IA架构是有一套严格的工业化标准的,服务器作为整个网络运行的基石,发挥着举足轻重的作用,如果采用PC或其他伪IA标准主板或芯片作为IA架构服务器的关键部件,将必然会影响IA架构的品质,最终损害用户的利益。”
真、伪IA架构的服务器的区别
1. 内部PCI总线条数
真正IA架构服务器的内部总线数是与CPU个数相对应,有个CPU就有几条总线,其带宽可以成倍增加,系统的并发吞吐量大,符合服务器多任务并发的需求。真正IA架构服务器的内部总线结构能够保证多CPU并行的高效率,最大限度地发挥多处理器系统的优势。
伪IA架构服务器只有一条内部总线,CPU并行处理效率低下,系统内部总线拥挤;当系统负荷较重时,南桥芯片易被堵塞,造成宕机。
2. 内存
真正IA架构服务器采用容错内存ECC(Error Checking and Correcting)。ECC内存有较强的错误检测和纠正功能,其使用4 比特位检测8 比特位数据的方法,从而可以检测出更多的出错情况,并可纠正8 比特位中的1位错误,使得系统的安全和稳定性得以较大提高,从而消除数据杂音带来的系统不稳定因素。
伪IA架构服务器大多采用价格低廉的普通SDRAM内存,SDRAM内存错误检测功能比较简单,如使用奇偶校验的方法,用1比特位去检测8 比特位的数据,这种纠错能力较弱,只能大概地检测错误。
3. 管理架构
真正IA架构服务器的管理芯片固化在主板上,由硬件实现管理和诊断,纠错能力强,当系统出现错误时,服务器可不依赖操作系统自行纠错,减少当机次数。
伪IA架构服务器是采用软件来实现管理功能,鲁棒性低,受制于操作系统的稳定性。
4. 热插拔
所谓热插拔功能,就是允许用户在不关闭系统,不切断电源的情况下取出和更换损坏的硬盘、电源或板卡等部件,从而提高了系统对灾难的及时恢复能力、扩展性和灵活性等。真正IA架构服务器采用双冗余电源,可进行电源及风扇的热插拔更换;采用支持热插拔的SCSI控制器来支持硬盘的热插拔,且通过RAID功能保证服务器工作不间断,最大限度的提高服务器的稳定性和安全性,当出现电源及硬盘故障时,无需中断服务器的工作,最大限度的减少人为关机次数。
伪IA架构服务器通常采用单电源,不关机就无法更换电源,并且IO芯片组不支持热插拔。所以其连续工作时间极大地依赖于系统中的易损设备的寿命及突发故障。对于一些应用于关键任务的服务器,如果在不关机的情况下无法更换损坏的RAID卡或以太网卡等,就会大大增加由于硬件故障而造成的系统停机时间。
5. I/O品质
通常,由于磁盘的存取速度跟不上CPU的处理速度,从而使磁盘技术成为提高服务器I/O能力的一个瓶颈。真正IA架构服务器采用SCSI构架,支持RAID(冗余磁盘阵列):RAID0、RAID1、RAID5。RAID 5使用了一种特殊的算法,可以计算出任何一个校验块的存放位置。这样就可以确保任何对校验块进行的读写操作都会在所有的RAID磁盘中进行均衡,从而消除了产生瓶颈的可能,并避免了因校验盘损坏而导致系统失去容错能力的严重故障。另外,SCSI硬盘品质高,转速高(最高10000转),SCSI标准的速度高(160M带宽),大数据量并发吞吐能力强,寿命长。
伪IA架构服务器一般采用IDE构架,其中VIA芯片组仅支持IDE-RAID0:RAID1和RAID0。RAID0设计简单且实现成本较低,但RAID0没有冗余或错误修复能力,并且只要组成RAID的磁盘中有一块出现故障,整个RAID系统的数据将丢失,无法进行任何补救。在RAID 1下,任何一块硬盘的故障都不会影响到系统的正常运行,但是所能使用的空间只是所有磁盘容量总和的一半,增加了系统的成本。另外,IDE硬盘速度低(最高7200转),最高峰值100M(DMA100标准),仅适合单进程IO工作,并发时性能急剧下降;IDE高速硬盘极易损坏。
从以上的分析看,IA架构的服务器与伪IA架构服务器之间在数据处理能力、可靠性、安全性、扩展能力和可管理性上有较大的区别。通常,用户可以通过看服务器是否有IDE RAID卡来甄别真伪,如果有即不是真正IA架构服务器。
机架服务器新的增长点
正如台式电脑发展到一定阶段必然会出现笔记本电脑一样,塔式服务器发展到一定阶段也同样出现了超轻超薄的机架式服务器。由于机架式服务器可以使用户在有限的空间里放置最大数量的服务器,易于管理和维护,并能提供高密度的运算动力、高带宽和系统冗余、良好的可扩展性,因而一经问世便倍受厂商和用户推崇,在某些领域已迅速取代传统塔式服务器。
对于当初使用塔式服务器的IDC(互联网数据中心)来讲,由于IDC在进行业务管理和收费时是按照租用的设备所占的空间为计算单位,占用的空间越大,收费越高。而服务器是IDC中最常见和最多的租用的设备,传统的服务器占地面积大,不宜管理,企业都希望能够租用把更高的技术浓缩在更小的空间中的服务器,从而降低租用成本。因此,在很长时间以来机架服务器产品一直是以ISP (互联网服务提供商)、IDC为代表的新电信行业所青睐的对象。
诸如IDC、xSP之类的互联网密集计算模式的兴起,更使得机架式服务器炙手可热。互联网时代给IT业注入了无穷的活力,不仅乐坏了传统的ISP,而且也促成了ICP (互联网内容提供商),更孕育了ASP。ASP(应用服务提供商)越来越成为人们注意的焦点,ASP提供的服务业务也越来越庞杂,从电子商务、在线交易,到在线运营、在线外包服务、供需链管理、库存管理等综合ASP服务的提供,展现在人们面前一幅非常美好的图景。但是ASP以及电子商务的兴起和旺盛,同时带来了对硬件设备的需求和更新的要求,促进了硬件提供商的产品的发展和改进。ASP们需要大量的服务器来满足客户的需求,主要是电子商务、在线交易、财务分析和通讯。这样以来,机架式服务器在该领域生根发芽也就顺理成章了。
正因为机架式服务器具有节省空间、高密度、便于集中维护、管理等优势等特性,一场机架式服务器在传统行业的大规模应用也就此悄然拉开了帷幕。
机架式服务器的优势所在
作为为互联网设计的服务器模式,机架服务器是一种外观按照统一标准设计的服务器,配合机柜统一使用。机架服务器的宽度为19英寸,高度以U为单位(1U=1.75英寸=44.45毫米),通常有1U,2U,3U,4U,5U,7U几种标准的服务器。机柜的尺寸也是采用通用的工业标准,通常从22U到42U不等;机柜内按U的高度有可拆卸的滑动拖架,用户可以根据自己服务器的标高灵活调节高度,以存放服务器、集线器、磁盘阵列柜等网络设备。服务器摆放好后,它的所有I/O线全部从机柜的后方引出(机架服务器的所有接口也在后方),统一安置在机柜的线槽中,一般贴有标号,便于管理。
目前,康柏、IBM、HP、DELL、联想、航天联志等国内外计算机厂商都不断的有机架式产品问世,产品线也不仅仅停留在以往塔式服务器的换型上,而是推出了独立系列的机架式产品。以全球机架式服务器发货量最大的厂商康柏为例,康柏ProLiant DL300系列(包含DL320、DL360、DL380和DL380 G2 等)满足了小型数据库和应用以及虚拟主机的需要;ProLiant DL500系列则理想适用于复杂的互联网应用和中大型数据库,它们针对机架环境中的关键业务应用而构建。ProLiant DL700系列理想适用于为用户建立数据仓库和成规模的数据采集。该系列采用了ProLiant8路体系结构具有突破性的扩充性能,从而提供了新一级别的性能和近乎线性的可扩展性。
机架式服务器在外形设计上已有了诸多革新,但在用户心中对机架式服务器的内在管理性、散热以及机箱设计方面有着疑虑。就这个问题,记者走访了康柏公司工业标准服务器事业部产品经理刘晶伟先生,他认为康柏ProLiant DL产品线针对空间受到限制的环境而优化设计,它采用机架安装式设计,支持集群的外部存储。其中,独一无二的易管理性、免工具的机箱设计和解决散热问题是康柏ProLiant DL系列机架式服务器产品的三大亮点。
特别值得一提的是"易管理"。IDC和大中型企业在服务器维护方面的传统的做法是工作人员每天都要作到服务器的前面,实地进行维护。既不能做到时时的维护工作,不利于及时的发现问题,也不宜让工作人员频繁的接触设备。这样需要在数据中心通过一个控制台访问所有的服务器,维护服务器的正常运行。与所有康柏ProLiant服务器一样,ProLiant DL产品线设计有内置管理特性,这简化了IT基础设施的维护,从而使用户能够将精力集中放在业务运作上。首先是康柏的Insight Manager XE使用户能够通过一个浏览器来高效管理康柏和非康柏服务器组、集群和网络产品。其次,康柏公司的 Lights-Out版本的 Remote Insight远程控制卡和故障预防软件、远程管理软件一同使用,能够提供通过标准浏览器对远程服务器或者数据中心服务器进行虚拟图形界面的访问的远程控制功能。Remote Insight远程控制卡使用的是32位的PCI插槽,把它安装在服务器上后,需要在服务器上安装Insight Manager、Server Environment Tracking、Disk System Tracking和故障前保修软件,这样无论用户在局网的客户端还是在互联网的一个普通客户端,只要安装了Outlook Express或者Netscape,都可以通过在浏览器的地址栏敲入服务器的IP地址,象浏览主页一样查看服务器设备硬件的各个部件使用情况,还可以远程启动或者切断服务器电源。Remote Insight远程控制卡能够带来的另一个好处是节省外部设备(比如显示器,切换器等)的费用,在大型的数据中心可以节省比较大的工具设备的开支。不仅如此,康柏ProLiant DL系列灵活的热插拔特性也向用户展示了他的高可用性,如驱动器、冗余风扇、电源和PCI卡等,这就提供了快速的热插拔能力,从而提高了正常运行时间并加速了维修。另外,用户可通过LED指示灯快速浏览服务器状态,迅速得知出现故障的机器方位,从而实现更快速预警。
免工具机箱设计和对部件的轻松接入:管理人员不需要借助工具就可以打开机箱,拆卸任何可以拆卸的部件。从而实现了快速升级和部件更换。线缆管理方案对线缆进行控制,以确保正确的热管理并实现机架内维护。康柏还为多种机架环境开发了各种机架选件,包括插入式机架滑轨。为帮助ProLiant DL产品线最佳高效利用户的空间,康柏提供了一个完整的业界领先机架产品家族,包括机架配置软件、创新选件、附件和电源管理产品。42U,36U和22U型号的机架已经上市。
另外,在散热方面,康柏ProLiant DL机架式服务器机内建造了业界独一无二的散热分区体系,该体系使服务器内容易"发高烧"的三个部分----- CPU、硬盘和I/O 区域由排风通路完全分离,使服务器内部作到热量分散。不仅如此,康柏机架服务器还从整体上实现了从上往下、从前往后的最为理想的散热方式,而康柏服务器机柜后的细致的捆绑式线缆设计和机内无盘线设计,也大大提高了服务器的散热效率。这样以来,康柏为服务器建造的"完美的中央空调"就可解除用户的散热之忧。
机架服务器市场竞争激烈
在桌面服务器市场竞争已经达到白热化程度的同时,机架服务器市场的竞也相当激烈。
由于服务器厂商不约而同都看中了机架服务器这块领域的诱人前景,纷纷推出了基于机架设计的产品。知名的国际品牌依靠自己的技术力量首先进入了这块市场,IBM的Netfinity、HP的Netserver、康柏的ProLiant、DELL的PowerEdge都是机架服务器产品,国内的品牌,比如联想的万全和浪潮的英信也都相继推出了机架服务器,一时间品牌众多。
根据IDC的统计,在中国市场,目前机架式服务器的市场份额站到所有服务器总量的14%,而例如康柏这样的机架服务器巨人的市场占有率就达到了20%。(2001年第二季度,其康柏的全球市场份额更超过了50%)。 这说明国内服务器企业要想在机架服务器市场追赶上国外大厂商还需要时间和不懈的努力。
要想在这个领域当中占据一席之地还真需要好好想想办法。HP公司近日就采取了商家最常用也最有效的招数:降价。康柏的刘晶伟先生介绍了康柏(中国)的策略:一、提供完整的全系列机架式服务器的产品线;二、中高端服务器提供捆绑的一体化解决方案;三、低端市场打促销牌,扩大市场占有率 ;四、不断推出新产品,例如为满足DATA CENTER要求而推出的更高密度的"刀片"服务器等。
高端也增值
其实,对企业级用户来说,并不十分关心服务器采用何种架构,用谁的芯片,功能如何强大,性能如何优越,他们只关心服务器是否能满足自己的应用需求?系统运行是否稳定可靠?维护起来是否简单易行?而这些因素将越来越成为左右用户选择购买服务器的理由。此外,越来越多高端产品从硬件向软件、服务领域开始转变。为适应市场的需求,各个服务器厂商厂家也纷纷转变角色,由单纯的服务器产品提供商转变为如何向企业级用户提供高可靠的增值服务商过渡。
以康柏为例,康柏公司为客户提供了业界全面的终身服务支持。康柏全球服务有3万多名服务专业人员,在全球114个国家提供服务。康柏Carepaq服务提供全面的客户服务,它为每个ProLiant提供3个级别的服务。为ProLiant系统提供的服务从基本的保修扩展到硬件安装到启动服务,再到最高级别的关键支持,如果出现无法预料的问题,康柏服务专业人员确保在数小时内为用户解决该问题。康柏还为用户提供了一个轻松过渡到更高技术的方法。康柏服务器折换方案是将用户在较早的英特尔架构的康柏和非康柏服务器上的投资移植到性能和可靠性改进的新康柏ProLiant服务器上的一种轻松方法。
康柏能够提供集成的、符合工业标准的硬件和软件以及服务,它们性能出色,价格适当,可以帮助用户最大限度地利用数据中心投资。康柏定位是将ProLiant优化服务器、分类软件、存储和服务结合在一起,为企业级用户提供一个全面的机架环境解决方案。这意味着用户将获得一个更可靠、更简单、更强大且更经济的解决方案。
总 结
未来的网络发展呈现出集中计算的趋势。集中管理模式与现有的分散管理模式,对服务器提出了新的要求:节约空间、便于集中管理、易于扩展和提供不间断的服务成为对机架式服务器的新要求,机架式服务器的成熟与发展将成为IT业一个新的增长点。
相关推荐
综上所述,"易语言 可开多个客户与服务器连接"这个主题涵盖了许多网络编程的关键概念和技术,包括但不限于TCP/IP通信、套接字编程、多线程、并发处理、消息传递以及事件驱动编程。通过学习和实践这些知识,开发者...
Android 开发连接服务器调用数据库 ...Android 开发连接服务器调用数据库是一个复杂的过程,涉及到多个技术领域。需要掌握 Android 开发、服务器端开发、数据库操作等技术领域,才能实现这个功能。
在这个项目中,STM32F750开发板被用来创建一个能同时处理多个PC客户端连接的TCP服务器。下面我们将详细探讨这个Demo中的关键技术点。 首先,STM32F750是一款高性能的微控制器,基于ARM Cortex-M7内核,具有丰富的...
ASP.NET的服务器推技术方案一真都很少见应用实例,根据网络上资料的整理开发了一个DLL,可以很方便在应用推技术。 1.取代传统的AJAX方式将得到更好的用户体验,页面仍然无刷新; 2.不再定时不断请求Http请求,降低...
这意味着本文档的内容将围绕这些关键词展开,讨论使用 Ganymed-SSH2 库来远程连接 Linux 服务器的技术细节。 部分内容解释 部分内容部分提供了使用 Ganymed-SSH2 库来远程连接 Linux 服务器的代码示例。首先,我们...
### PyCharm 连接 AutoDL 服务器进行 YOLOv8 训练知识点详解 #### 一、PyCharm 环境配置与管理 **1. 创建并激活 Python 环境** - 使用 `conda` 工具创建一个新的 Python 环境: ```bash conda create -n env-...
- 建立连接:客户端使用Socket类的connect()方法连接到服务器端的特定端口。 - 数据传输:通过Socket对象的输入/输出流进行数据的发送和接收。 - 关闭连接:完成通信后,双方都会调用Socket的close()方法关闭连接。 ...
为了同时处理多个客户端,服务器通常会使用多线程技术,为每个新连接创建一个新的线程来处理通信,避免因一个客户端的通信阻塞其他客户端。 客户端(Client.java)则使用`java.net.Socket`类来建立与服务器的连接。...
在TCP服务器的设计中,当一个新连接到来时,服务器通常会创建一个新的线程或使用线程池来处理该连接,从而保持服务器的响应性,避免因为单一线程处理所有连接而导致的阻塞。 在Qt中,可以使用`QTcpServer`类来创建...
QT是Qt Company开发的一种跨平台应用程序开发框架,广泛用于创建桌面、移动和嵌入式系统的图形用户界面。...在实际项目中,可能还需要结合多线程、并发处理等技术,以提高服务器的性能和可扩展性。
在标题"socket 一个服务器对应多个客户端使用多线程"中,提到的是使用Socket编程来设计一个服务器,该服务器能够同时处理来自多个客户端的连接请求,这通常被称为“一对一”或“一对多”模型。在Linux环境下,这种...
Labview TCP服务器对多客户端程序是一个使用LabVIEW(Laboratory Virtual Instrument Engineering Workbench)开发的交互式应用程序,它展示了如何构建一个TCP服务器来处理多个同时连接的客户端。LabVIEW是美国国家...
在Android客户端与服务器端通信中,Mina框架因其高效的异步I/O处理能力,常被用来构建长连接,实现稳定且低延迟的数据传输。 长连接是指在通信过程中,一旦建立起连接,就保持该连接不关闭,直到通信结束或出现异常...
本文将详细介绍WIS800C模块的特点、技术参数及其在非透传模式下作为TCP客户端连接远程服务器的具体方法。 #### WIS800C模块特点 WIS800C采用了先进的LCC封装技术,具备以下显著特点: - **超小型尺寸**:仅15.7mm...
本教程中,我们将学习如何建立这样的客户端,以连接OPC服务器并读写PLC的数据。 步骤1:安装OPC SDK 首先,你需要选择一个支持C#的OPC SDK,如Kepware、Matrikon或ABB等。安装SDK后,通常会提供相应的开发文档和...
TCP并发服务器源码则是实现STM32设备作为服务器,能够同时处理多个客户端连接请求的软件设计。在这个项目中,STM32将作为服务器端,通过TCP/IP协议栈接收并响应来自多个客户端的通信请求。 TCP(传输控制协议)是一...
在Android应用开发中,与服务器进行交互是必不可少的,尤其是涉及到用户登录注册功能。本教程将探讨如何在Android...通过学习和实践这个Demo,你将掌握Android客户端与服务器交互的关键技术,以及登录验证的基本逻辑。
描述中提到了Thread技术,这是因为在实际应用中,服务器端通常需要同时处理多个客户端的连接请求。因此,服务器端会为每个新连接创建一个新的线程,以便并发处理。这种方式被称为多线程服务器,能够提高系统的并发...
3. 数据传输:一旦TCP连接建立,STM32F4可以开始向EC20发送数据,通过EC20的TCP连接传输到远程服务器。这通常通过串行通信接口(如UART)完成,将数据帧写入EC20的发送缓冲区。 4. 错误处理和状态监测:在数据传输...
java连接Redis服务器端的示例工程,演示了通过Redisson 连接redis服务器的读取与存储代码