`
beyondhjjyt
  • 浏览: 39758 次
  • 性别: Icon_minigender_1
  • 来自: 北京
文章分类
社区版块
存档分类
最新评论

负载均衡技术全攻略(下)

 
阅读更多

Internet的规模每一百天就会增长一倍,客户希望获得7天24小时的不间断可用性及较快的系统反应时间,而不愿屡次看到某个站点“Server Too Busy”及频繁的系统故障。
  网络的各个核心部分随着业务量的提高、访问量和数据流量的快速增长,其处理能力和计算强度也相应增大,使得单一设备根本无法承担。在此情况下,如果扔掉现有设备去做大量的硬件升级,这样将造成现有资源的浪费,而且如果再面临下一次业务量的提升,这又将导致再一次硬件升级的高额成本投入,甚至性能再卓越的设备也不能满足当前业务量的需求。于是,负载均衡机制应运而生。
  负载均衡(Load Balance)建立在现有网络结构之上,它提供了一种廉价有效透明的方法扩展网络设备和服务器的带宽、增加吞吐量、加强网络数据处理能力、提高网络的灵活性和可用性。
  负载均衡有两方面的含义:首先,大量的并发访问或数据流量分担到多台节点设备上分别处理,减少用户等待响应的时间;其次,单个重负载的运算分担到多台节点设备上做并行处理,每个节点设备处理结束后,将结果汇总,返回给用户,系统处理能力得到大幅度提高。
  本文所要介绍的负载均衡技术主要是指在均衡服务器群中所有服务器和应用程序之间流量负载的应用,目前负载均衡技术大多数是用于提高诸如在Web服务器、FTP服务器和其它关键任务服务器上的Internet服务器程序的可用性和可伸缩性。

负载均衡实施要素

  负载均衡方案应是在网站建设初期就应考虑的问题,不过有时随着访问流量的爆炸性增长,超出决策者的意料,这也就成为不得不面对的问题。当我们在引入某种负载均衡方案乃至具体实施时,像其他的许多方案一样,首先是确定当前及将来的应用需求,然后在代价与收效之间做出权衡。
  针对当前及将来的应用需求,分析网络瓶颈的不同所在,我们就需要确立是采用哪一类的负载均衡技术,采用什么样的均衡策略,在可用性、兼容性、安全性等等方面要满足多大的需求,如此等等。
  不管负载均衡方案是采用花费较少的软件方式,还是购买代价高昂在性能功能上更强的第四层交换机、负载均衡器等硬件方式来实现,亦或其他种类不同的均衡技术,下面这几项都是我们在引入均衡方案时可能要考虑的问题:
性能:性能是我们在引入均衡方案时需要重点考虑的问题,但也是一个最难把握的问题。衡量性能时可将每秒钟通过网络的数据包数目做为一个参数,另一个参数是均衡方案中服务器群所能处理的最大并发连接数目,但是,假设一个均衡系统能处理百万计的并发连接数,可是却只能以每秒2个包的速率转发,这显然是没有任何作用的。 性能的优劣与负载均衡设备的处理能力、采用的均衡策略息息相关,并且有两点需要注意:一、均衡方案对服务器群整体的性能,这是响应客户端连接请求速度的关键;二、负载均衡设备自身的性能,避免有大量连接请求时自身性能不足而成为服务瓶颈。 有时我们也可以考虑采用混合型负载均衡策略来提升服务器群的总体性能,如DNS负载均衡与NAT负载均衡相结合。另外,针对有大量静态文档请求的站点,也可以考虑采用高速缓存技术,相对来说更节省费用,更能提高响应性能;对有大量ssl/xml内容传输的站点,更应考虑采用ssl/xml加速技术。


可扩展性:IT技术日新月异,一年以前最新的产品,现在或许已是网络中性能最低的产品;业务量的急速上升,一年前的网络,现在需要新一轮的扩展。合适的均衡解决方案应能满足这些需求,能均衡不同操作系统和硬件平台之间的负载,能均衡HTTP、邮件、新闻、代理、数据库、防火墙和 Cache等不同服务器的负载,并且能以对客户端完全透明的方式动态增加或删除某些资源。


灵活性:均衡解决方案应能灵活地提供不同的应用需求,满足应用需求的不断变化。在不同的服务器群有不同的应用需求时,应有多样的均衡策略提供更广泛的选择。


可靠性:在对服务质量要求较高的站点,负载均衡解决方案应能为服务器群提供完全的容错性和高可用性。但在负载均衡设备自身出现故障时,应该有良好的冗余解决方案,提高可靠性。使用冗余时,处于同一个冗余单元的多个负载均衡设备必须具有有效的方式以便互相进行监控,保护系统尽可能地避免遭受到重大故障的损失。


易管理性:不管是通过软件还是硬件方式的均衡解决方案,我们都希望它有灵活、直观和安全的管理方式,这样便于安装、配置、维护和监控,提高工作效率,避免差错。在硬件负载均衡设备上,目前主要有三种管理方式可供选择:一、命令行接口(CLI:Command Line Interface),可通过超级终端连接负载均衡设备串行接口来管理,也能telnet远程登录管理,在初始化配置时,往往要用到前者;二、图形用户接口(GUI:Graphical User Interfaces),有基于普通web页的管理,也有通过Java Applet 进行安全管理,一般都需要管理端安装有某个版本的浏览器;三、SNMP(Simple Network Management Protocol,简单网络管理协议)支持,通过第三方网络管理软件对符合SNMP标准的设备进行管理。

DNS负载均衡
  DNS负载均衡技术是在DNS服务器中为同一个主机名配置多个IP地址,在应答DNS查询时,DNS服务器对每个查询将以DNS文件中主机记录的IP地址按顺序返回不同的解析结果,将客户端的访问引导到不同的机器上去,使得不同的客户端访问不同的服务器,从而达到负载均衡的目的。
  DNS负载均衡的优点是经济简单易行,并且服务器可以位于internet上任意的位置。但它也存在不少缺点:
为了使本DNS服务器和其他DNS服务器及时交互,保证DNS数据及时更新,使地址能随机分配,一般都要将DNS的刷新时间设置的较小,但太小将会使DNS流量大增造成额外的网络问题。


一旦某个服务器出现故障,即使及时修改了DNS设置,还是要等待足够的时间(刷新时间)才能发挥作用,在此期间,保存了故障服务器地址的客户计算机将不能正常访问服务器。


DNS负载均衡采用的是简单的轮循负载算法,不能区分服务器的差异,不能反映服务器的当前运行状态,不能做到为性能较好的服务器多分配请求,甚至会出现客户请求集中在某一台服务器上的情况。


要给每台服务器分配一个internet上的IP地址,这势必会占用过多的IP地址。
  判断一个站点是否采用了DNS负载均衡的最简单方式就是连续的ping这个域名,如果多次解析返回的IP地址不相同的话,那么这个站点就很可能采用的就是较为普遍的DNS负载均衡。但也不一定,因为如果采用的是DNS响应均衡,多次解析返回的IP地址也可能会不相同。不妨试试Ping一下www.yesky.comwww.sohu.comwww.yahoo.com
  现假设有三台服务器来应对www.test.com的请求。在采用BIND 8.x DNS服务器的unix系统上实现起来比较简单,只需在该域的数据记录中添加类似下面的结果:
  www1 IN A 192.1.1.1
  www2 IN A 192.1.1.2
  www3 IN A 192.1.1.3
  www IN CNAME www1
  www IN CNAME www2
  www IN CNAME www3
  在NT下的实现也很简单,下面详细介绍在win2000 server下实现DNS负载均衡的过程,NT4.0类似:
打开“管理工具”下的“DNS”,进入DNS服务配置控制台。


打开相应DNS 服务器的“属性”,在“高级”选项卡的“服务器选项”中,选中“启用循环”复选框。此步相当于在注册表记录HKEY_LOCAL_MACHINE\SYSTEM\CurrentControlSet\Services\DNS\Parameters中添加一个双字节制值(dword值)RoundRobin,值为1。


打开正向搜索区域的相应区域(如test.com),新建主机添加主机 (A) 资源记录,记录如下:

www IN A 192.1.1.1
www IN A 192.1.1.2
www IN A 192.1.1.3
在这里可以看到的区别是在NT下一个主机名对应多个IP地址记录,但在unix下,是先添加多个不同的主机名分别对应个自的IP地址,然后再把这些主机赋同一个别名(CNAME)来实现的。


在此需要注意的是,NT下本地子网优先级会取代多宿主名称的循环复用,所以在测试时,如果做测试用的客户机IP地址与主机资源记录的IP在同一有类掩码范围内,就需要清除在“高级”选项卡“服务器选项”中的“启用netmask排序”。

NAT负载均衡
  NAT(Network Address Translation 网络地址转换)简单地说就是将一个IP地址转换为另一个IP地址,一般用于未经注册的内部地址与合法的、已获注册的Internet IP地址间进行转换。适用于解决Internet IP地址紧张、不想让网络外部知道内部网络结构等的场合下。每次NAT转换势必会增加NAT设备的开销,但这种额外的开销对于大多数网络来说都是微不足道的,除非在高带宽有大量NAT请求的网络上。
  NAT负载均衡将一个外部IP地址映射为多个内部IP地址,对每次连接请求动态地转换为一个内部服务器的地址,将外部连接请求引到转换得到地址的那个服务器上,从而达到负载均衡的目的。
  NAT负载均衡是一种比较完善的负载均衡技术,起着NAT负载均衡功能的设备一般处于内部服务器到外部网间的网关位置,如路由器、防火墙、四层交换机、专用负载均衡器等,均衡算法也较灵活,如随机选择、最少连接数及响应时间等来分配负载。
  NAT负载均衡可以通过软硬件方式来实现。通过软件方式来实现NAT负载均衡的设备往往受到带宽及系统本身处理能力的限制,由于NAT比较接近网络的低层,因此就可以将它集成在硬件设备中,通常这样的硬件设备是第四层交换机和专用负载均衡器,第四层交换机的一项重要功能就是NAT负载均衡。
  下面以实例介绍一下Cisco路由器NAT负载均衡的配置:
  现有一台有一个串行接口和一个Ethernet接口的路由器,Ethernet口连接到内部网络,内部网络上有三台web服务器,但都只是低端配置,为了处理好来自Internet上大量的web连接请求,因此需要在此路由器上做NAT负载均衡配置,把发送到web服务器合法Internet IP地址的报文转换成这三台服务器的内部本地地址。 其具体配置过程如下:
做好路由器的基本配置,并定义各个接口在做NAT时是内部还是外部接口。


然后定义一个标准访问列表(standard access list),用来标识要转换的合法IP地址。


再定义NAT地址池来标识内部web服务器的本地地址,注意要用到关键字rotary,表明我们要使用轮循(Round Robin)的方式从NAT地址池中取出相应IP地址来转换合法IP报文。


最后,把目标地址为访问表中IP的报文转换成地址池中定义的IP地址。
  相应配置文件如下:
interface Ethernet0/0
ip address 192.168.1.4 255.255.255.248
ip nat inside
!
interface Serial0/0
ip address 200.200.1.1 255.255.255.248
ip nat outside
!
ip access-list 1 permit 200.200.1.2
!
ip nat pool websrv 192.168.1.1 192.168.1.3 netmask 255.255.255.248 type rotary
ip nat inside destination list 1 pool websrv

反向代理负载均衡
  普通代理方式是代理内部网络用户访问internet上服务器的连接请求,客户端必须指定代理服务器,并将本来要直接发送到internet上服务器的连接请求发送给代理服务器处理。
  反向代理(Reverse Proxy)方式是指以代理服务器来接受internet上的连接请求,然后将请求转发给内部网络上的服务器,并将从服务器上得到的结果返回给internet上请求连接的客户端,此时代理服务器对外就表现为一个服务器。
  反向代理负载均衡技术是把将来自internet上的连接请求以反向代理的方式动态地转发给内部网络上的多台服务器进行处理,从而达到负载均衡的目的。
  反向代理负载均衡能以软件方式来实现,如apache mod_proxy、netscape proxy等,也可以在高速缓存器、负载均衡器等硬件设备上实现。 反向代理负载均衡可以将优化的负载均衡策略和代理服务器的高速缓存技术结合在一起,提升静态网页的访问速度,提供有益的性能;由于网络外部用户不能直接访问真实的服务器,具备额外的安全性(同理,NAT负载均衡技术也有此优点)。
  其缺点主要表现在以下两个方面:
反向代理是处于OSI参考模型第七层应用的,所以就必须为每一种应用服务专门开发一个反向代理服务器,这样就限制了反向代理负载均衡技术的应用范围,现在一般都用于对web服务器的负载均衡。


针对每一次代理,代理服务器就必须打开两个连接,一个对外,一个对内,因此在并发连接请求数量非常大的时候,代理服务器的负载也就非常大了,在最后代理服务器本身会成为服务的瓶颈。
  一般来讲,可以用它来对连接数量不是特别大,但每次连接都需要消耗大量处理资源的站点进行负载均衡,如search。
  下面以在apache mod_proxy下做的反向代理负载均衡为配置实例:在站点www.test.com,我们按提供的内容进行分类,不同的服务器用于提供不同的内容服务,将对http://www.test.com/news的访问转到IP地址为192.168.1.1的内部服务器上处理,对http://www.test.com/it的访问转到服务器192.168.1.2上,对http://www.test.com/life的访问转到服务器192.168.1.3上,对http://www.test.com/love的访问转到合作站点http://www.love.com上,从而减轻本apache服务器的负担,达到负载均衡的目的。
  首先要确定域名www.test.com在DNS上的记录对应apache服务器接口上具有internet合法注册的IP地址,这样才能使internet上对www.test.com的所有连接请求发送给本台apache服务器。
  在本台服务器的apache配置文件httpd.conf中添加如下设置:
  proxypass /news http://192.168.1.1
  proxypass /it http://192.168.1.2
  proxypass /life http://192.168.1.3
  proxypass /love http://www.love.com
  注意,此项设置最好添加在httpd.conf文件“Section 2”以后的位置,服务器192.168.1.1-3也应是具有相应功能的www服务器,在重启服务时,最好用apachectl configtest命令检查一下配置是否有误。

混合型负载均衡
  在有些大型网络,由于多个服务器群内硬件设备、各自的规模、提供的服务等的差异,我们可以考虑给每个服务器群采用最合适的负载均衡方式,然后又在这多个服务器群间再一次负载均衡或群集起来以一个整体向外界提供服务(即把这多个服务器群当做一个新的服务器群),从而达到最佳的性能。我们将这种方式称之为混合型负载均衡。此种方式有时也用于单台均衡设备的性能不能满足大量连接请求的情况下。
  下图展示了一个应用示例,三个服务器群针对各自的特点,分别采用了不同的负载均衡方式。当客户端发出域名解析请求时,DNS服务器依次把它解析成三个服务器群的VIP,如此把客户端的连接请求分别引向三个服务器群,从而达到了再一次负载均衡的目的。
  在图中大家可能注意到,负载均衡设备在网络拓朴上,可以处于外部网和内部网络间网关的位置,也可以和内部服务器群处于并行的位置,甚至可以处于内部网络或internet上的任意位置,特别是在采用群集负载均衡时,根本就没有单独的负载均衡设备。
  服务器群内各服务器只有提供相同内容的服务才有负载均衡的意义,特别是在DNS负载均衡时。要不然,这样会造成大量连接请求的丢失或由于多次返回内容的不同给客户造成混乱。
  所以,如图的这个示例在实际中可能没有多大的意义,因为如此大的服务内容相同但各服务器群存在大量差异的网站并不多见。 但做为一个示例,相信还是很有参考意义的。

分享到:
评论

相关推荐

    负载均衡技术全攻略

    负载均衡技术是网络架构中的重要组成部分,其主要目标是确保网络服务的稳定性和高可用性。通过对网络流量的管理和分配,负载均衡可以在多台服务器之间有效地分摊工作负载,提高系统的处理能力,同时减少单个服务器的...

    局域网负载均衡技术全攻略

    控制网络流量是维护局域网的网络运行. 1、实现地理位置无关性,能够远距离为用户提供完全的透明服务。 2、除了能避免服务器、数据中心等的单点失效,也能避免由于ISP专线故障引起的单点失效。 ...

    实用负载均衡技术:网站性能优化攻略.((英)Peter Membrey).[PDF]

    从整体上来看,这是一本比较好的负载均衡入门书籍,内容也较新(已出版的几本相关英文 著作都较早) 。鉴于国内尚未有同类译著上市,我们希望本书的出版能满足入门人员的需要。翻 译过程中,我们针对其中涉及的概念...

    vmware全攻略更新版

    6. 虚拟机迁移:讨论如何在不同的物理主机之间迁移虚拟机,以实现负载均衡或维护工作。 7. 性能优化:提供提高虚拟机性能的技巧,如内存分配策略、虚拟硬盘优化等。 8. 高级功能:可能涵盖VMware的高级特性,如...

    集群存储技术文档全攻略

    ### 集群存储技术全解析 #### 一、引言 随着信息技术的飞速发展,数据量呈现出爆炸式增长的趋势。在当前大数据时代背景下,企业和组织面临着前所未有的数据管理和存储挑战。传统的存储方式难以满足现代业务的需求,...

    《服务器配置全攻略》

    《服务器配置全攻略》这本书是IT领域中关于服务器...通过《服务器配置全攻略》这本书,读者可以系统地学习服务器配置的相关知识,从零基础到具备独立部署和管理服务器的能力,为企业的IT基础设施提供坚实的技术支持。

    Linux网站建设和维护全攻略

    9. **负载均衡与集群**:当网站流量增大时,可能需要实施负载均衡和集群技术,例如使用HAProxy或Nginx的负载均衡配置,以及Heartbeat或Keepalived实现高可用性。 10. **持续集成/持续部署(CI/CD)**:采用Jenkins或...

    Microsoft 虚拟机技术及产品全攻略之六:System Center Virtual Machine Manager

    在“Microsoft 虚拟机技术及产品全攻略之六”中,我们将深入探讨SCVMM的功能、优势以及如何利用它来提升数据中心的效率和灵活性。 **一、SCVMM的主要功能** 1. **虚拟机生命周期管理**:SCVMM提供了一套完整的...

    VMware全攻略,包括高级学习资料,通过学习此资料,可以非常全面的掌握VMware的各种技术

    这份"VMware全攻略"涵盖了高级学习资料,旨在帮助用户深入理解并熟练掌握VMware的各项技术。 一、VMware虚拟化基础 VMware的核心技术是虚拟化,它通过创建虚拟层来模拟硬件环境,使得多个操作系统可以在同一台...

    中兴通讯:软交换安全策略全攻略

    2. **MGW容灾解决方案**:中兴通讯也提供了MGW负荷分担方案,通过负载均衡确保即使单个MGW故障,也不会影响整体网络性能。 这些安全策略确保了中兴通讯的移动软交换系统能够在遇到故障时快速恢复,减少服务中断时间...

    Microsoft 虚拟机技术及产品全攻略之七:使用 Virtual Server 2005 R2 搭建群集

    此外,对虚拟机进行负载均衡也是重要的一环,可以使用群集内的资源调度机制,或者第三方工具来实现。 在Virtual Server 2005 R2中,群集功能虽然强大,但也有其局限性,例如对某些高级虚拟化特性(如热添加硬件)的...

    无盘工作站2000终端全攻略.zip

    总的来说,"无盘工作站2000终端全攻略.zip"提供的资源可以帮助用户深入了解和实践无盘技术,实现高效、安全的网络环境。通过学习和实践,管理员可以掌握创建和维护无盘工作站所需的技能,从而提高工作效率,降低成本...

    Linux网站建设和维护全攻略.rar

    此外,学会使用缓存技术(如APC、Memcached、Redis)和负载均衡策略提升网站性能。 6. **安全防护**:网络安全至关重要,这包括防火墙配置、SSH安全设置、防止DDoS攻击、定期更新系统和软件以修复漏洞。同时,理解...

    CISCO协议大全全攻略

    ### CISCO协议大全全攻略:深入理解CISCO网络协议 #### CISCO协议大全轻松学习,为深入学习CISCO打下基础 在IT领域,尤其是在网络技术方面,CISCO(思科)作为全球领先的网络解决方案供应商,其产品和技术一直占据...

    单机架站全攻略资源下载

    7. **性能优化**:通过调整系统参数、使用缓存技术、负载均衡等方式提升服务器性能。例如,使用Apache的mod_deflate压缩输出内容,或者在MySQL中优化查询语句。 8. **远程访问与管理**:SSH(Secure Shell)是Linux...

    VMware下RedHat安装Oracle_9i_RAC全攻略

    Oracle 9i Real Application Clusters (RAC) 是Oracle数据库的一种高可用性和可扩展性解决方案,允许在同一数据库上运行多个数据库实例,分布在多个物理服务器(节点)上,以实现负载均衡和故障切换。在VMware环境下...

    Linux编程之提升PHP执行速度全攻略分析

    在高访问量场景下,可以采用负载均衡策略,分散请求到多个服务器,防止单一服务器过载。 6. PHP配置调整: 配置PHP的运行环境也是提高性能的关键。调整php.ini中的相关设置,如增加内存限制、启用OPcache(替代了...

    单机架站全攻略,怎么用个人电脑架设服务器

    以下是一份详细的单机架站全攻略,涵盖了从选择硬件到配置软件的各个步骤。 首先,硬件是基础。尽管个人电脑通常拥有足够的性能来运行一个小型服务器,但你需要确保它具有稳定的电源供应、足够的存储空间以及良好的...

    Cisco路由器配置语句全攻略

    - "ipx maximum-paths Paths"设置负载均衡的最大路径数 - "ipx network Network-Number"通告网络号,可以指定封装类型和是否为辅助地址 DDR(Dial-on-Demand Routing)允许路由器按需拨号,配置包括: - "dialer-...

Global site tag (gtag.js) - Google Analytics