`
cryolite
  • 浏览: 580380 次
  • 性别: Icon_minigender_1
  • 来自: 北京
社区版块
存档分类
最新评论

服务器负载均衡体系结构,I:传输层负载均衡

阅读更多
服务器农场的可伸缩性和高可用性
Server load balancing architectures, Part 1: Transport-level load balancing
Scalability and high availability for server farms
By Gregor Roth, JavaWorld.com, 10/21/08

原文:http://www.javaworld.com/javaworld/jw-10-2008/jw-10-load-balancing-1.html

进入Internet的门槛是很低的,任何有点想法的人都可以开发一个小应用,然后购买一个域名,架设一些基于PC的服务器就可以处理即将到来的流量了。启动时的投资很小,风险也小。不过随着你的应用的流行,这个廉价的架构很快就会成为问题。一个能处理所有请求的单服务器是不够处理高流量的。这种情况下会进行scale up:通过购买超强的处理器或更多内存的方式升级现有的架构(infracstructure)。

scaling up只是一个短期的解决方案。作用也有限,因为升级服务器的成本与其获得的相应能力不成比例。因此,许多成功的Internet公司使用scale out的方式。应用系统的组件由多个运行在服务器农场(server farms)上的实例来处理,这些服务器农场是基于廉价硬件和操作系统构建的。当访问量(traffic)增加,服务器也相应增加。

服务器农场(server-farm)的方式有它自己的一些要求。对于软件来说,必须设计成能在不同的服务器上以多个实例运行。可以通过将应用划分成更小的能独立部署的组件做到这点。如果这些应用组件是无状态的,这很容易办到。因为组件不必保留任何事务状态,任一组件都能平等的处理同样的请求。如果需要更多的处理能力,只需要加入更多的服务器并安装这些应用组件就行了。

当应用组件是有状态时我们面临更多的挑战。例如,如果应用组件保持购物车数据,一个到来的请求必须被路由到持有此请求者购物车数据的应用组件才行。本文稍后将讨论在一个分布式环境中如何处理此类应用级会话(application session)数据。然而,为了减少复杂性,许多成功的Internet应用系统都试图尽可能的避免有状态的应用组件。

就系统架构来说,处理载荷必须分布到服务器中。这被成为服务器负载均衡(server load balancing)。负载均衡技术也与其它领域相关,例如,网络链接、CPU或硬盘间如何分散工作(spreading work among components such as network links, CPUs, or hard drives. )本文着重讨论服务器负载均衡(Server load balancing)。

可用性和可伸缩性(Availability and scalability)

服务器负载均衡(Server load balancing)将服务请求分布到一组真实的服务器中,对客户端来说这些服务器看上去就像是一个单独的大服务器。经常一个URL后有数十个真实服务器实现一个单独的虚拟服务(Often dozens of real servers are behind a URL that implements a single virtual service.)。

这是如何工作的?在一种广泛使用的服务器负载均衡架构中,到来的请求直接发给一个专用的负载均衡器,此服务器对客户端来说是透明的。基于某些参数,如可用性或当前服务器载荷等,负载均衡器决定哪个服务器应该处理请求并将请求转发给选中的服务器。为给负载均衡算法提供必要的输入数据,负载均衡器还需要获取服务器的健康和负载情况,以确保它们能处理并及时响应。图1表示传统的负载均衡器架构。

Figure 1. Classic load balancer architecture (load dispatcher)
图1所示的负载调度(load-dispatcher)体系结构(architecture)只是负载均衡方法中的一种。要判断那种负载均衡方法最适合你的架构(infrastructure),必须考虑可用性和可伸缩性。

可用性(availability)由运行时间(uptime)定义,运行时间(uptime)是 the time between failures。(停机时间(downtime)是指检测到错误、修复错误、执行必要的恢复以及重启任务的时间。)运行时间(uptime)内系统必须在预定期限响应每一个请求。如果时间超出,客户端将视为出现服务器故障。基本上,系统中的高可用性就是冗余:如果一个服务器出错,其他服务器将透明的接管出错服务器的载荷。一个单独服务器的错误对客户端来说是不可见的。

可伸缩性(scalability)意味着系统可以为一个客户端提供服务,也能在满足服务质量(例如响应时间)的前提下同时为成千上万的客户端提供服务。随着载荷的不断增长,一个高可伸缩的系统能通过添加硬件资源成线性比例的增加系统的吞吐量(throughput)。

如图1所示,高可伸缩性可以通过将进来的请求分发到服务器上实现。如果载荷增加了,只要负载均衡器不成为瓶颈,可以通过添加更多的服务器解决。要达到高可用性,负载均衡器必须监视服务器以避免将请求转发给过载的或已经死掉的服务器。此外,负载均衡器自己也必须是冗余的,稍后将讨论这点。

服务器负载均衡技术

一般服务器负载均衡解决方案可分为两种主要类型:
* 传输层(transport-level)负载均衡:例如基于DNS方式的、或TCP/IP级的负责均衡,这些都与应用的有效载荷无关;
* 应用层(application-level)负载均衡:使用应用的有效载荷做为负载均衡的依据。

负载均衡解决方案还可以划分为基于软件的负载均衡器和基于硬件的负载均衡器。基于硬件的负载均衡器由专用硬件组成,包括定制的ASIC集成芯片。不需要有通用操作系统,ASIC直接完成网络流量的高速转发。基于硬件的负载均衡器常用于传输层负载均衡。一般而言,基于硬件的负载均衡器要比基于软件的速度更快,缺点是价格更高。

与硬件式负载均衡器相比,基于软件的负载均衡器运行在标准操作系统和标准硬件(例如PC机)上。基于软件的解决方案 要么在一个专用于负载均衡器的硬件节点上运行(如图1所示),要么直接在应用中运行。

基于DNS的负载均衡

基于DNS的负载均衡代表了一种早期的服务器负载均衡方法。Internet的域名系统(DNS)将IP地址和一个主机名关联。如果你在浏览器上输入主机名(URL的一部分),浏览器会向DNS服务器发送请求以将主机名解析成IP地址。

基于DNS的方式,是基于DNS能够让多个IP地址(多个真实服务器)被赋给同一个主机名。DNS查找例子如清单1所示:
>nslookup amazon.com
Server:   ns.box
Address:  192.168.1.1

Name:       amazon.com
Addresses:  72.21.203.1, 72.21.210.11, 72.21.206.5
清单1. DNS查找例子

如果DNS服务器采用了轮询(round-robin)方式,那么DNS每次在对一个主机请求返回响应后,返回IP地址顺序都会发生变化。通常像浏览器这样的客户端会试着连接DNS请求返回的第一个地址。其结构就是对多个客户的响应被分布到服务器中。与图1中的负载均衡体系结构相比,不需要有中间的负载均衡器硬件节点。

对全球范围的服务器负载均衡(这里负载被分布到不同地方的数据中心),DNS是一个有效的解决方案。基于DNS的全球服务器负载均衡经常与数据中心的其它服务器负载均衡解决方案联合使用。

DNS方式虽然容易实现,但是有很严重的缺陷。为了减少DNS请求,客户端倾向于缓存DNS请求的结果。如果一个服务器变得不可用,客户端缓存以及DNS服务器仍然保有不可用的服务器地址。因此,DNS方式对实现高可用性没有太大帮助。

TCP/IP服务器负载均衡

TCP/IP服务器负载均衡器在底层实现交换(switching)。一个流行的基于软件的底层(low-level)服务器负载均衡器是Linux Virtual Server(LVS)。真实的服务器对外部世界表现的就像是一个单独的“虚拟”服务器。一个TCP连接进来的请求被负载均衡器转发给真实的服务器,该负载均衡器运行在一个打了包括IP虚拟服务器(IPVS)Linux内核补丁的系统上。

为确保高可用性,许多情况下需要建立一对负载均衡器节点,其中一个负载均衡器节点是被动模式。如果一个负载均衡器坏了,运行在两个负载均衡器上的心跳程序会激活被动负载均衡器节点,并初始化虚拟IP地址(VIP)的takeover(initiates the takeover of the Virtual IP address(VIP))。心跳程序负责管理两个负载均衡器的容错,简单的send/expect脚本用来监视所有的真实服务器。

通过使用一个赋给负载均衡器的VIP,客户端实现了透明访问。如果客户端发送一个请求,首先请求主机名被传输给VIP。当收到请求的数据包,负载均衡器将决定应该由哪个真实的服务器处理请求数据包(request packet)。请求数据包(request packet)目标的IP地址被重写成真实服务器的真实IP(Real IP, RIP)。LVS支持好几种分布请求给真实服务器的调度算法。常用的是轮询(round-robin)调度,类似基于DNS的负载均衡。LVS的负载均衡判断是在TCP级(OSI参考模型的第4层)进行。

在收到请求数据包(request packet)后,真实服务器处理请求并返回响应数据包(response packet)。为了强制响应数据包(response packet)通过负载均衡器返回,真实服务器使用VIP作为其缺省响应路由(response route)。如果负载均衡器收到响应数据包,响应数据包的源IP地址被重写成VIP。这种LVS路由模式被成为Network Address Transiation(NAT)路由。图2展示了使用NAT的LVS实现。

Figure 2. LVS implemented with NAT routing

LVS还支持其它路由模式,如直接服务器返回(Direct Server Return),这种情况下响应数据包被真实服务器直接发给客户端。要做到这点,VIP必须也被赋给所有的真实服务器。使服务器的VIP对网络不可解析是非常重要的(It is important to make the server's VIP unresolvable to the network),不然负载均衡器会不可访问(unreachable,不能连线)。如果负载均衡器收到一个请求数据包,请求的MAC地址(OSI模型第2层)被重写,替换成IP地址。真实服务器受到请求数据包并处理之。根据源IP地址,响应数据包将绕过负载均衡器被直接发送给客户端。对于Web流量,这种方式可以大幅度的减少负载均衡器的工作载荷。通常要传输的响应数据包要多过请求数据包。例如,如果请求一个Web页面,通常只有一个IP数据包(IP packet)被发送。如果是一个较大的Web页面请求,请求的页面需要返回好几个响应IP数据包。

缓存机制(Caching)

如果需要支持应用级缓存或者应用会话支持,像LVS这样的底层(low-level)服务器负载均衡解决方案会带来一些限制。如果经常重复的访问相同数据,缓存机制(Caching)提供了一个重要的可伸缩性原则(Caching is an important scalability principle)以避免这种代价高昂的操作。一个缓存是一个临时的存储场所,用于保存一些冗余数据,这些数据是以前进行数据抓取操作的结果。缓存的价值取决于抓取数据的代价vs命中率和缓存大小。

基于负载均衡器调度算法,一个用户会话中的那些请求将被不同的服务器处理。如果服务器端使用了缓存,到处散落的请求会成为一个麻烦。一个解决办法是将缓存放在一个全局空间中。memcached就是一个流行的分布式缓存解决方案,它提供了一个大型的跨多个集群的缓存。它是分区的、分布式缓存,使用了一致性哈希算法(consistent hashing)为一个给定的缓存决定相关的缓存服务器。基于缓存的关键字哈希值,客户端库总能将相同的哈希值映射到同一缓存服务器(daemon)地址上,这些地址将用于存放缓存数据。如图3所示:

Figure 3. Load balancer architecture enhanced by a partitioned, distributed cache

清单2使用了spymemcached,一个Java写的memcached客户端跨多个机器缓存HttpResponse消息。spymemcache库实现了上面描述的逻辑。
以下是spymemcahced的一些实现代码和相关说明(略过)
balabala.....

一致性哈希表的方式具有高可伸缩性,memcached客户端实现了一种支持高可用性的容错策略。但是如果一个缓存服务器(daemon)崩溃了,缓存的数据也就丢失了。这只是一个小麻烦,因为缓存的数据都是冗余的。

一个简单的办法可以使memchach处理这种情况,将缓存数据存放在一个主缓存服务器和一个二级缓存服务器上。如果主缓存服务器当掉,二级缓存服务器可能保留有相关数据,如果没有,请求的(缓存的)数据必须从相关数据源恢复。

应用会话数据支持(Application session data support)

应用会话数据代表用户相关的应用会话状态,例如选中的目录ID,或者购物车中的文章。应用会话数据必须能跨多个请求。传统Web应用中此类会话数据必须在服务器端保持。通过cookie或隐藏域存放在客户端有两个主要缺陷:它暴露了内部会话数据,例如购物车中的价格,导致对客户端的攻击,导致安全问题;由于HTTP cookie消息头的数据量限制以及应用数据从客户端来回传送的开销,这种方法只能保持少量的数据。

与memcached体系结构类似,会话服务器(session server)被用来在服务器端存放应用会话数据。然而与缓存相比,应用会话数据不属于冗余数据,因此如果内存耗尽不能简单的移除应用会话数据以腾出空间。对缓存来说可以根据内存管理的需要随时移除缓存数据。当缓存最大数量到达时,缓存算法一般采用最不常用(Last Recently Used,LRU)的缓存数据先移除。

如果会话服务器崩溃,应用会话数据也就丢失了。与缓存数据相比,应用会话数据大多数情况下是不可恢复的(recoverable)。因此采用支持应用会话数据容错的解决方案非常重要。

客户端关联(client affinity)

缓存及会话服务器的缺点是每个请求导致额外的从服务器到缓存(或会话)服务器的网络调用。多少情况下,调用延时都不会造成什么问题,因为缓存(或会话)服务器和业务服务器都放置在相同的快速网络中。但是当数据量增长时延时可能会带来问题。为避免中业务服务器和缓存(或会话)服务器之间反复的移动较大量的数据,一个客户端的所有请求必须总是转发到相同服务器。这意味着一个用户会话的所有请求被同一服务器实例处理。这种情况下一个本地缓存可以用来替代分布式的memcached服务器架构(infrastructure)。这种方式被称为client affinity,不再需要缓存服务器。
客户端关联(client affinity)总是将客户直接连到”它的“专用服务器上。

以下代码略

LVS通过persistence支持affinity:在一个预定时间内记住最后的连接。它使得一个特定客户端总是连接到相同的真实服务器上。但是如果一个链接是通过代理(proxy)进行的,对同一个session它可能每次都有不同的TCP连接,这种情况下,persistence帮不了什么忙。

总结

基于纯传输层(transport-level)的服务器负载均衡器架构(infrastructures)更为常见。它们简单、灵活并且高效,而且它们对客户端没有限制。此类体系结构(architectures)与分布式缓存或会话服务器组合,可以处理应用级(application-level)缓存和会话数据。然而,如果从缓存(或会话)服务器来回移动数据的开销增长了,此类体系结构会主机变得没有效率。要基于应用级服务器负载均衡器实现用户端关联(client affinity),必须避免在服务器间拷贝大量的数据集。第2部分将讨论系统级负载均衡机制。

  • 描述: 图1. Classic load balancer architecture (load dispatcher)
  • 大小: 39.6 KB
  • 描述: 图2. LVS implemented with NAT routing
  • 大小: 53.1 KB
  • 描述: 图3. Load balancer architecture enhanced by a partitioned, distributed cache
  • 大小: 23.6 KB
分享到:
评论

相关推荐

    下一代思科服务器负载均衡(SLB)架构

    【思科服务器负载均衡(SLB)架构】是下一代网络解决方案,主要针对电信运营商面临的性能、可扩展性和可用性挑战。随着宽带需求和新型服务的增长,运营商需要在满足大量用户和流量需求的同时,保证网络的高效运行。...

    基于数据库中网络连接的负载均衡分析

    Oracle应用服务器采用了三层体系结构,分别是HTTP监听层、Oracle应用服务器层以及应用层。这一架构设计的核心优势在于能够支持独立插件的多个实例,从而使应用具有高度的可伸缩性和功能扩展性,而无需影响系统的其他...

    基于Linux虚拟服务器的负载均衡技术探讨.pdf

    这种方式要求所有服务器共享相同的物理网络接口,通常适用于网络层负载均衡。 2. **IP隧道(IP Tunneling)**:在这种模式下,负载均衡器将原始请求封装在一个新的IP包中,目标地址是后端服务器的IP。服务器响应时...

    0.计算机网络体系结构1

    计算机网络体系结构可以实现分布式处理、负载均衡和分类等功能,从而提高计算机网络的可靠性和安全性。同时,计算机网络体系结构也可以提高计算机网络的效率,例如通过负载均衡和分类可以减少网络拥塞和提高网络带宽...

    网络安全员题库答案解析.xls

    25 国际标准化组织ISO提出的不基于特定机型、操作系统或公司的网络体系结构OSI模型中,第二层和第四层分别为(____)。 物理层和网络层 数据链路层和传输层 26 IP路由发生在(____)层。 物理层 数据链路层 27 路由器...

    OracleDB体系结构

    综上所述,Oracle数据库体系结构涉及多个层次的管理和优化策略,从内存结构到进程管理,再到实例管理,每一层都有其独特的功能和技术特点。了解这些基础知识对于有效地利用Oracle数据库至关重要。

    软件标准体系结构作业.docx

    1. 层次系统体系结构强调的是组件的层级关系,每一层都向上一层提供服务,并作为下一层的用户。这种结构允许通过添加新的抽象层来逐步解决复杂问题。在部分层次系统中,内部层的可见性通常仅限于相邻层,有时会构建...

    网络游戏-用于数据通信的网络体系结构.zip

    - **负载均衡**:大型网络游戏通常会使用多台服务器,通过负载均衡技术分散玩家负载,确保服务器性能稳定。 - **P2P(点对点)网络**:某些游戏可能采用P2P架构,让玩家之间直接通信,减少服务器压力,提高响应速度...

    基于BS体系结构开发应用系统设计方案

    BS体系结构,又称为浏览器/服务器架构,其核心特点是用户通过Web浏览器即可访问和操作系统,而系统的主要业务逻辑和数据处理则由后台服务器完成。这种架构具有很多优势,例如降低客户端维护成本、易于扩展和升级、跨...

    PCI EXPRESS系统体系结构标准教材.rar

    5. **中转层(Switching Layer)**:介绍PCI Express网络中的交换功能,如何实现设备之间的连接和通信,以及如何处理多路径和负载均衡。 6. **电源管理**:讲解PCI Express的电源管理特性,如低功耗状态(L0s, L1, ...

    网络备份系统体系结构设计

    3. 高可用性设计:为了保证服务连续性,系统应具备冗余组件和负载均衡机制,以应对硬件故障或其他异常情况。 总结,网络备份系统体系结构设计是一个复杂的过程,涉及多个层面的技术和策略。理解并优化这些元素对于...

    计算机网络技术和应用复习要点和知识点整理.doc

    - 负载均衡:优化网络资源分配。 - 分布式处理:分散处理任务。 - 集中式管理:统一管理网络资源。 - 综合信息服务:提供多元化信息服务。 4. 网络体系结构: - OSI模型:物理层、数据链路层、网络层、传输层...

    网络工程师培训01-网络体系结构.ppt

    为了规范通信,网络遵循特定的【结构】和【协议】,例如TCP/IP协议栈,其中包含了物理层、数据链路层、网络层、传输层和应用层等。 网络模型主要有以下几种: 1. 【主机/终端模型】:早期的网络模型,一台主机连接...

    常见网络安全设备简介.pptx

    常见应用安全产品——负载均衡 负载均衡:分为链路负载、服务器负载和全局负载,在现有网络结构之上,它提供了一种廉价有效透明的方法扩展网络设备和服务器的带宽、增加吞吐量、加强网络数据处理能力、提高网络的...

    网络工程师培训----网络体系结构

    分层通信是网络体系结构的核心,通过将通信任务分解到不同的层次,使得每层专注于特定的功能,如物理层处理信号传输,数据链路层负责帧的封装,网络层处理路由选择,传输层确保数据的可靠传输,应用层则提供用户接口...

    网络游戏-可伸缩视频编码的P2P网络传输体系结构设计方法.zip

    2. **带宽分配与负载均衡**:在P2P网络中,需要合理分配每个节点的上传和下载带宽,确保视频流的平稳传输。这可以通过动态调整策略完成,如根据节点的网络状况和贡献来分配带宽。 3. **错误检测与恢复**:由于P2P...

    VMware Horizon View 体系结构规划指南

    在体系结构设计方面,规划人员需要考虑如何使用vSphere群集和存储,以达到高效资源利用和负载均衡。此外,Horizon View的容器架构允许在一个容器中使用多个vCenter Server来扩展管理功能。 安全是规划VMware ...

    飞机航班订票系统 湖北工业大学 软件体系结构课设

    2. **负载均衡**:当用户量增加时,可通过Nginx等负载均衡器分散请求到多台服务器。 3. **数据库优化**:合理设计数据库索引,定期进行数据库维护和优化。 六、测试与部署 1. **单元测试**:对每个功能模块进行...

    操作系统linux下lvs集群

    - **体系结构概述**:可伸缩网络服务的体系结构主要通过负载均衡技术、冗余备份方案以及高效的资源管理策略来实现。其中,LVS(Linux Virtual Server)作为一种成熟的负载均衡解决方案,在提高服务性能和可用性方面...

Global site tag (gtag.js) - Google Analytics