`
uule
  • 浏览: 6351626 次
  • 性别: Icon_minigender_1
  • 来自: 一片神奇的土地
社区版块
存档分类
最新评论

负载均衡原理

 
阅读更多

简介几种负载均衡原理

高并发解决方案之一 ——负载均衡

 

程序员小灰-负载均衡的原理

负载均衡层级概念

 

四层与七层负载均衡的区别

 

1.什么是负载均衡?

    当一台服务器的性能达到极限时,我们可以使用服务器集群来提高网站的整体性能。那么,在服务器集群中,需要有一台服务器充当调度者的角色,用户的所有请求都会首先由它接收,调度者再根据每台服务器的负载情况将请求分配给某一台后端服务器去处理。

 

那么在这个过程中,调度者如何合理分配任务,保证所有后端服务器都将性能充分发挥,从而保持服务器集群的整体性能最优,这就是负载均衡问题。

 

 

下面详细介绍负载均衡的几种实现方式。 

 

(一)HTTP重定向

 

过程描述       

当用户向服务器发起请求时请求首先被集群调度者截获调度者根据某种分配策略选择一台服务器,并将选中的服务器的IP地址封装在HTTP响应消息头部的Location字段中,并将响应消息的状态码设为302,最后将这个响应消息返回给浏览器。

浏览器收到响应消息后,解析Location字段,并向该URL发起请求,然后指定的服务器处理该用户的请求,最后将结果返回给用户。

 

【使用HTTP重定向来实现服务器集群负载均衡的过程中,需要一台服务器作为请求调度者】【用户的一项操作需要发起两次HTTP请求】,一次向调度服务器发送请求,获取后端服务器的IP,第二次向后端服务器发送请求,获取处理结果。 

 

简单来说就是:

【当http代理(比如浏览器)向web服务器请求某个URL后,web服务器可以通过http响应头信息中的Location标记来返回一个新的URL。这意味着HTTP代理需要继续请求这个新的URL,完成自动跳转。】

 

缺点:

1、吞吐率限制

 主站点服务器的吞吐率平均分配到了被转移的服务器。现假设使用RR(Round Robin)调度策略,子服务器的最大吞吐率为1000reqs/s,那么主站点服务器的吞吐率要达到3000reqs/s才能完X全X发X挥X三Xzi服务器的作用,那么如果有100台子服务器,那么主服务器的吞吐率可想而知得有大?相反,如果主服务的最大吞吐率为6000reqs/s,那么平均分配到子服务器的吞吐率为2000reqs/s,而现子服务器的最大吞吐率为1000reqs/s,因此就得增加子服务器的数量,增加到6个才能满足。

 

 2、重定向访问深度不同

 

有的重定向一个静态页面,有的重定向相比复杂的动态页面,那么实际服务器的负载差异是不可预料的,而主站服务器却一无所知。因此整站使用重定向方法做负载均衡不太好

 

我们需要权衡转移请求的开销和处理实际请求的开销,前者相对于后者越小,那么重定向的意义就越大,例如下载。你可以去很多镜像下载网站试下,会发现基本下载都使用了Location做了重定向。

 

调度策略

    调度服务器收到用户的请求后,究竟选择哪台后端服务器处理请求,这由调度服务器所使用的调度策略决定。

随机分配策略 

当调度服务器收到用户请求后,可以随机决定使用哪台后端服务器,然后将该服务器的IP封装在HTTP响应消息的Location属性中,返回给浏览器即可。

 

轮询策略(RR) 

调度服务器需要维护一个值,用于记录上次分配的后端服务器的IP。那么当新的请求到来时,调度者将请求依次分配给下一台服务器。

  

由于轮询策略需要调度者维护一个值用于记录上次分配的服务器IP,因此需要额外的开销;此外,由于这个值属于互斥资源,那么当多个请求同时到来时,为了避免线程的安全问题,因此需要锁定互斥资源,从而降低了性能。而随机分配策略不需要维护额外的值,也就不存在线程安全问题,因此性能比轮询要高。 

 

 

(二)DNS负载均衡

在了解DNS负载均衡之前,我们首先需要了解DNS域名解析的过程。

我们知道,数据包采用IP地址在网络中传播,而为了方便用户记忆,我们使用域名来访问网站。那么,我们通过域名访问网站之前,首先需要将域名解析成IP地址,这个工作是由DNS完成的。也就是域名服务器。

我们提交的请求不会直接发送给想要访问的网站,而是首先发给域名服务器,它会帮我们把域名解析成IP地址并返回给我们。我们收到IP之后才会向该IP发起请求

 

那么,【DNS服务器有一个天然的优势,如果一个域名指向了多个IP地址,那么每次进行域名解析时,DNS只要选一个IP返回给用户,就能够实现服务器集群的负载均衡】,它就像http重定向转换策略一样,将用户的请求分散到多台服务器上。 

 

具体做法

首先需要将我们的域名指向多个后端服务器(将一个域名解析到多个IP上),再设置一下调度策略,那么我们的准备工作就完成了,接下来的负载均衡就完全由DNS服务器来实现。

当用户向我们的域名发起请求时,DNS服务器会自动地根据我们事先设定好的调度策略选一个合适的IP返回给用户,用户再向该IP发起请求。 

 

调度策略

一般DNS提供商会提供一些调度策略供我们选择,如随机分配、轮询、根据请求者的地域分配离他最近的服务器。 

  

优点:

   配置简单。服务器集群的调度工作完全由DNS服务器承担,那么我们就可以把精力放在后端服务器上,保证他们的稳定性与吞吐量。

 

缺点:

1、没有用户能直接看到DNS解析到了哪一台实际服务器。

2、策略的局限性。由于把集群调度权交给了DNS服务器,从而我们没办法随心所欲地控制调度者,没办法定制调度策略。

3、DNS服务器也没办法了解每台服务器的负载情况,因此没办法实现真正意义上的负载均衡。它和HTTP重定向一样,只不过把所有请求平均分配给后端服务器罢了。

 

4、DNS记录缓存当我们发现某一台后端服务器发生故障时,即使我们立即将该服务器从域名解析中去除,但由于DNS服务器会有缓存,该IP仍然会在DNS中保留一段时间,那么就会导致一部分用户无法正常访问网站。这是一个致命的问题!好在这个问题可以用动态DNS来解决。 

 

动态DNS

动态DNS能够让我们通过程序动态修改DNS服务器中的域名解析。从而当我们的监控程序发现某台服务器挂了之后,能立即通知DNS将其删掉。

 

综上所述

DNS负载均衡是一种粗犷的负载均衡方法,这里只做介绍,不推荐使用。 

 

 

 (三)反向代理负载均衡

 

反向代理负载均衡的核心工作就是转发HTTP请求。

 

客户端 =》反向代理服务器 =》 实际服务器  =》反向代理服务器 =》客户端

 

反向代理服务器是一个位于实际服务器之前的服务器,【所有向我们网站发来的请求都首先要经过反向代理服务器】。反向代理服务器就可以充当服务器集群的调度者,它可以根据当前后端服务器的负载情况,将请求转发给一台合适的服务器,并将处理结果返回给用户。 

 

相比前面的HTTP重定向和DNS解析,反向代理的调度器扮演的是用户和实际服务器中间人的角色:

 

1、任何对于实际服务器的HTTP请求都必须经过调度器

2、调度器必须等待实际服务器的HTTP响应,并将它反馈给用户(前两种方式不需要经过调度反馈,是实际服务器直接发送给用户)

 

优点

1、隐藏后端服务器。 

与HTTP重定向相比,反向代理能够隐藏后端服务器,所有浏览器都不会与后端服务器直接交互,从而能够确保调度者的控制权,提升集群的整体性能。

 

2、故障转移 

与DNS负载均衡相比,反向代理能够更快速地移除故障结点。当监控程序发现某一后端服务器出现故障时,能够及时通知反向代理服务器,并立即将其删除。

 

3、合理分配任务 

HTTP重定向和DNS负载均衡都无法实现真正意义上的负载均衡,也就是调度服务器无法根据后端服务器的实际负载情况分配任务。但反向代理服务器支持手动设定每台后端服务器的权重。我们可以根据服务器的配置设置不同的权重,权重的不同会导致被调度者选中的概率的不同。 

 

缺点

1、调度者压力过大 

由于所有的请求都先由反向代理服务器处理,那么当请求量超过调度服务器的最大负载时,调度服务器的吞吐率降低会直接降低集群的整体性能。

制约扩展 

当后端服务器也无法满足巨大的吞吐量时,就需要增加后端服务器的数量,可没办法无限量地增加,因为会受到调度服务器的最大吞吐量的制约。 

 

2、粘滞会话

反向代理服务器会引起一个问题。若某台后端服务器处理了用户的请求,并保存了该用户的session或存储了缓存,那么当该用户再次发送请求时,无法保证该请求仍然由保存了其Session或缓存的服务器处理,若由其他服务器处理,先前的Session或缓存就找不到了。

 

解决办法1: 

可以修改反向代理服务器的任务分配策略,以用户IP作为标识较为合适。相同的用户IP会交由同一台后端服务器处理,从而就避免了粘滞会话的问题。

 

解决办法2: 

可以在Cookie中标注请求的服务器ID,当再次提交请求时,调度者将该请求分配给Cookie中标注的服务器处理即可。

 

 

四、IP负载均衡(LVS-NAT)

 IP层负载均衡。在请求到达负载均衡器后,负载均衡器通过修改请求的目的IP地址,从而实现请求的转发,做到负载均衡。

 

优点:性能更好。

缺点:负载均衡器的宽带成为瓶颈。

 

NAT(Network Address Translation,网络地址转换)

因为【反向代理服务器工作在HTTP层】,其本身的开销就已经严重制约了可扩展性,从而也限制了它的性能极限。那能否在HTTP层面以下实现负载均衡呢?

 

NAT服务器:它工作在传输层,它可以修改发送来的IP数据包,将数据包的目标地址修改为实际服务器地址。

 

从Linux2.4内核开始,其内置的Neftilter模块在内核中维护着一些数据包过滤表,这些表包含了用于控制数据包过滤的规则。可喜的是,Linux提供了iptables来对过滤表进行插入、修改和删除等操作。更加令人振奋的是,Linux2.6.x内核中内置了IPVS模块,它的工作性质类型于Netfilter模块,不过它更专注于实现IP负载均衡。

 

IPVS的管理工具是ipvsadm,它为提供了基于命令行的配置界面,可以通过它快速实现负载均衡系统。这就是大名鼎鼎的LVS(Linux Virtual Server,Linux虚拟服务器)。

 

实验证明使用基于NAT的负载均衡系统。作为调度器的NAT服务器可以将吞吐率提升到一个新的高度,几乎是反向代理服务器的两倍以上,这大多归功于在内核中进行请求转发的较低开销。但是一旦请求的内容过大时,不论是基于反向代理还是NAT,负载均衡的整体吞吐量都差距不大,这说明对于一睦开销较大的内容,使用简单的反向代理来搭建负载均衡系统是值考虑的。

 

这么强大的系统还是有它的瓶颈,那就是NAT服务器的网络带宽,包括内部网络和外部网络。当然如果你不差钱,可以去花钱去购买千兆交换机或万兆交换机,甚至负载均衡硬件设备,但如果你是个屌丝,咋办?

 

一个简单有效的办法就是将基于NAT的集群和前面的DNS混合使用,比如5个100Mbps出口宽带的集群,然后通过DNS来将用户请求均衡地指向这些集群,同时,你还可以利用DNS智能解析实现地域就近访问。这样的配置对于大多数业务是足够了,但是对于提供下载或视频等服务的大规模站点,NAT服务器还是不够出色。

 

五、直接路由(LVS-DR)

数据链路层负载均衡。

 

在请求到达负载均衡器后,负载均衡器通过修改请求的mac地址,从而做到负载均衡,与IP负载均衡不一样的是,当请求访问完服务器之后,直接返回客户。而无需再经过负载均衡器。

 

NAT是工作在网络分层模型的传输层(第四层),而直接路由是工作在数据链路层(第二层)】,貌似更屌些。它通过修改数据包的目标MAC地址(没有修改目标IP),将数据包转发到实际服务器上不同的是,实际服务器的响应数据包将直接发送给客户羰,而不经过调度器

 

 

==============================================================

 负载均衡有硬件和软件两种.

 

 硬件层的比较牛逼,将4-7层负载均衡功能做到一个硬件里面,如F5,梭子鱼,据说yahoo中国!早些时候只用了两台F5做双活.

 

 目前主流的软件负载均衡分为四层和七层,

 【LVS属于四层负载均衡,工作在tcp/ip协议栈上,通过修改网络包的ip地址和端口来转发】, 由于效率比七层高,一般放在架构的前端.

 

 七层的负载均衡有nginx, haproxy, apache等, 工作在应用层,因此可以将HTTP请求等应用数据发送到具体的应用服务器。

 

所谓四层就是基于IP+端口的负载均衡】;七层就是基于URL等应用层信息的负载均衡;同理,还有基于MAC地址的二层负载均衡和基于IP地址的三层负载均衡。 换句换说,二层负载均衡会通过一个虚拟MAC地址接收请求,然后再分配到真实的MAC地址;三层负载均衡会通过一个虚拟IP地址接收请求,然后再分配到真实的IP地址;四层通过虚拟IP+端口接收请求,然后再分配到真实的服务器,七层通过虚拟的URL或主机名接收请求,然后再分配到真实的服务器。所谓的四到七层负载均衡,就是在对后台的服务器进行负载均衡时,依据四层的信息或七层的信息来决定怎么样转发流量。 比如四层的负载均衡,就是通过发布三层的IP地址(VIP),然后加四层的端口号,来决定哪些流量需要做负载均衡,对需要处理的流量进行NAT处理,转发至后台服务器,并记录下这个TCP或者UDP的流量是由哪台服务器处理的,后续这个连接的所有流量都同样转发到同一台服务器处理。

 

所谓四层负载均衡,也就是主要通过报文中的目标地址和端口,再加上负载均衡设备设置的服务器选择方式,决定最终选择的内部服务器。以常见的TCP为例,负载均衡设备在接收到第一个来自客户端的SYN 请求时,即通过上述方式选择一个最佳的服务器,并对报文中目标IP地址进行修改(改为后端服务器IP),直接转发给该服务器。TCP的连接建立,即三次握手是客户端和服务器直接建立的,负载均衡设备只是起到一个类似路由器的转发动作。在某些部署情况下,为保证服务器回包可以正确返回给负载均衡设备,在转发报文的同时可能还会对报文原来的源地址进行修改。

 

 

七层的负载均衡,就是在四层的基础上(没有四层是绝对不可能有七层的),再考虑应用层的特征,比如同一个Web服务器的负载均衡,除了根据VIP加80端口辨别是否需要处理的流量,还可根据七层的URL、浏览器类别、语言来决定是否要进行负载均衡。举个例子,如果你的Web服务器分成两组,一组是中文语言的,一组是英文语言的,那么七层负载均衡就可以当用户来访问你的域名时,自动辨别用户语言,然后选择对应的语言服务器组进行负载均衡处理。负载均衡器通常称为四层交换机或七层交换机。四层交换机主要分析IP层及TCP/UDP层,实现四层流量负载均衡。七层交换机除了支持四层负载均衡以外,还有分析应用层的信息,如HTTP协议URI或Cookie信息。这里我们主要谈一下软件负载均衡中的我们最常用的四层个七层负载均衡。

 

 

所谓七层负载均衡,也称为“内容交换”,也就是主要通过报文中的真正有意义的应用层内容,再加上负载均衡设备设置的服务器选择方式,决定最终选择的内部服务器。以常见的TCP为例,负载均衡设备如果要根据真正的应用层内容再选择服务器,只能先代理最终的服务器和客户端建立连接(三次握手)后,才可能接受到客户端发送的真正应用层内容的报文,然后再根据该报文中的特定字段,再加上负载均衡设备设置的服务器选择方式,决定最终选择的内部服务器。负载均衡设备在这种情况下,更类似于一个代理服务器。负载均衡和前端的客户端以及后端的服务器会分别建立TCP连接。所以从这个技术原理上来看,七层负载均衡明显的对负载均衡设备的要求更高,处理七层的能力也必然会低于四层模式的部署方式。

 

分享到:
评论

相关推荐

    防火墙负载均衡原理.pdf

    防火墙负载均衡原理.pdf

    深信服AD负载均衡原理.pdf

    深信服AD负载均衡原理 深信服AD负载均衡技术原理是解决方案中的一种重要技术,该技术通过智能DNS调度算法、智能路由调度算法和虚拟服务节点调度算法来实现负载均衡。以下是深信服AD负载均衡技术原理的详细解释: ...

    华为资料\防火墙负载均衡原理bydw

    F5 Bigip应用交换机实现防火墙负载均衡标准结构及阐述

    负载均衡原理及算法解析

    ### 负载均衡原理及算法解析 #### 一、负载均衡原理 负载均衡作为分布式系统中的关键核心技术,旨在通过合理地分散网络请求至多台服务器上来提高整个系统的性能、可靠性和可用性。这一机制有效地避免了单点过载的...

    负载均衡原理与解决方案(完整)

    ### 负载均衡原理与解决方案 #### 第一章 简介 负载均衡并不是一个新兴的概念,在服务器和网络环境中早已被广泛应用。本章节旨在简要介绍负载均衡的基本原理及其重要性。 **负载均衡概念** 负载均衡是指在网络...

    SpringCloud(三)Ribbon负载均衡原理与Feign客户端的使用

    它利用Spring Boot的开发便利性巧妙地简化了分布式系统基础设施的开发,如服务发现注册、配置中心、消息总线、负载均衡、断路器、数据监控等,都可以用Spring Boot的开发风格做到一键启动和部署。Spring Cloud并没有...

    负载均衡原理与技术实现.doc

    负载均衡原理与技术实现是现代数据中心和互联网服务的关键组成部分,旨在提高服务可用性和性能。负载均衡通过将工作负载分散到多台服务器或网络设备上,确保单个组件的过载不会导致整体系统的崩溃。以下是对负载均衡...

    高并发系统架构(LVS负载均衡、Nginx、共享存储、队列缓存)05.LVS调度策略及负载均衡原理深入 共16页.pptx

    概述 共19页.pptx02.Piranha安装快速搭建LVS负载均衡集群 共16页.pptx03.LVS负载均衡DR模式安装调试介绍 共13页.pptx04.LVS负载均衡深入进阶实战 共13页.pptx05.LVS调度策略及负载均衡原理深入 共16页.pptx06.LVS...

    集群服务器系统负载均衡原理的分析与实现

    ### 集群服务器系统负载均衡原理的分析与实现 #### 摘要与背景介绍 随着计算机网络技术的快速发展及光纤技术的应用推广,网络传输速度显著提升,但这也逐渐暴露出了新的问题——服务器成为了网络中的瓶颈。为了...

    深信服AD负载均衡原理介绍.pptx

    深信服AD负载均衡技术原理培训 深信服AD负载均衡技术原理培训是指深信服AD设备中的一种负载均衡技术,旨在解决多个服务器之间的流量分配问题。该技术主要应用于解决方案领域,旨在提高服务器的可用性和性能。 ...

    第五讲LVS调度策略及负载均衡原理深入.pptx

    ### LVS调度策略及负载均衡原理深入解析 #### 一、LVS调度策略概述 **LVS**(Linux Virtual Server)是一种开源的负载均衡解决方案,主要用于处理大量的并发连接请求,提高系统的可用性和扩展性。其核心是通过智能...

    负载均衡工作原理

    在本篇中,我们将深入探讨Cisco负载均衡的工作原理,了解它是如何确保网络服务的高效运行和稳定性的。 首先,让我们理解负载均衡的核心概念。当大量用户同时访问一个网站或应用时,单台服务器可能会不堪重负,导致...

    防火墙负载均衡原理-副本.pdf

    防火墙负载均衡原理-副本.pdf

    负载均衡原理及应用

    负载均衡有两个方面的含义: 把大量的并发访问或数据流量分担到多台节点设备上分别处理,减少用户等待响应的时间 单个重负载的运算分担到多台节点设备上做并行处理,每个节点设备处理结束后,将结果汇总,再返回给...

    F5防火墙负载均衡原理.pdf

    讲解F5负载均衡的原理,配置步骤,案例等。

    F5负载均衡原理

    因此,它能够为大量的基于TCP/IP的网络应用提供服务器负载均衡服务。BIG/IP连续地对目标服务器进行L4到L7合理性检查,当用户通过VIP请求目标服务器服务时,BIG/IP根椐目标服务器之间性能和网络健康情况,选择性能...

    负载均衡原理与实践详解.

    本文将深入探讨负载均衡的原理与实践,分析其在服务器和网络架构中的重要角色。 首先,负载均衡的出现主要是由两方面的需求驱动的:服务器的扩展性和网络的复杂性。随着互联网和企业网络的发展,服务器群变得越来越...

Global site tag (gtag.js) - Google Analytics