在这里可以看到的区别是在NT下一个主机名对应多个IP地址记录,但在unix下,是先添加多个不同的主机名分别对应个自的IP地址,然后再把这些主机赋同一个别名(CNAME)来实现的。
在此需要注意的是,NT下本地子网优先级会取代多宿主名称的循环复用,所以在测试时,如果做测试用的客户机IP地址与主机资源记录的IP在同一有类掩码范围内,就需要清除在“高级”选项卡“服务器选项”中的“启用netmask排序”。
NAT负载均衡
NAT(Network Address Translation
网络地址转换)简单地说就是将一个IP地址转换为另一个IP地址,一般用于未经注册的内部地址与合法的、已获注册的Internet
IP地址间进行转换。适用于解决Internet
IP地址紧张、不想让网络外部知道内部网络结构等的场合下。每次NAT转换势必会增加NAT设备的开销,但这种额外的开销对于大多数网络来说都是微不足道的,除非在高带宽有大量NAT请求的网络上。
NAT负载均衡将一个外部IP地址映射为多个内部IP地址,对每次连接请求动态地转换为一个内部服务器的地址,将外部连接请求引到转换得到地址的那个服务器上,从而达到负载均衡的目的。
NAT负载均衡是一种比较完善的负载均衡技术,起着NAT负载均衡功能的设备一般处于内部服务器到外部网间的网关位置,如路由器、防火墙、四层交换机、专用负载均衡器等,均衡算法也较灵活,如随机选择、最少连接数及响应时间等来分配负载。
NAT负载均衡可以通过软硬件方式来实现。通过软件方式来实现NAT负载均衡的设备往往受到带宽及系统本身处理能力的限制,由于NAT比较接近网络的低层,因此就可以将它集成在硬件设备中,通常这样的硬件设备是第四层交换机和专用负载均衡器,第四层交换机的一项重要功能就是NAT负载均衡。
下面以实例介绍一下Cisco路由器NAT负载均衡的配置:
现有一台有一个串行接口和一个Ethernet接口的路由器,Ethernet口连接到内部网络,内部网络上有三台web服务器,但都只是低端配置,为了处理好来自Internet上大量的web连接请求,因此需要在此路由器上做NAT负载均衡配置,把发送到web服务器合法Internet
IP地址的报文转换成这三台服务器的内部本地地址。其具体配置过程如下:
做好路由器的基本配置,并定义各个接口在做NAT时是内部还是外部接口。
然后定义一个标准访问列表(standard access
list),用来标识要转换的合法IP地址。
再定义NAT地址池来标识内部web服务器的本地地址,注意要用到关键字rotary,表明我们要使用轮循(Round
Robin)的方式从NAT地址池中取出相应IP地址来转换合法IP报文。
最后,把目标地址为访问表中IP的报文转换成地址池中定义的IP地址。
相应配置文件如下:
interface Ethernet0/0
ip address 192.168.1.4 255.255.255.248
ip nat inside
!
interface Serial0/0
ip address 200.200.1.1 255.255.255.248
ip nat outside
!
ip access-list 1 permit 200.200.1.2
!
ip nat pool websrv 192.168.1.1 192.168.1.3 netmask 255.255.255.248
type rotary
ip nat inside destination list 1 pool websrv
反向代理负载均衡
普通代理方式是代理内部网络用户访问internet上服务器的连接请求,客户端必须指定代理服务器,并将本来要直接发送到internet上服务器的连接请求发送给代理服务器处理。
反向代理(Reverse
Proxy)方式是指以代理服务器来接受internet上的连接请求,然后将请求转发给内部网络上的服务器,并将从服务器上得到的结果返回给internet上请求连接的客户端,此时代理服务器对外就表现为一个服务器。
反向代理负载均衡技术是把将来自internet上的连接请求以反向代理的方式动态地转发给内部网络上的多台服务器进行处理,从而达到负载均衡的目的。
反向代理负载均衡能以软件方式来实现,如apache
mod_proxy、netscape
proxy等,也可以在高速缓存器、负载均衡器等硬件设备上实现。反向代理负载均衡可以将优化的负载均衡策略和代理服务器的高速缓存技术结合在一起,提升静态网页的访问速度,提供有益的性能;由于网络外部用户不能直接访问真实的服务器,具备额外的安全性(同理,NAT负载均衡技术也有此优点)。
其缺点主要表现在以下两个方面:
反向代理是处于OSI参考模型第七层应用的,所以就必须为每一种应用服务专门开发一个反向代理服务器,这样就限制了反向代理负载均衡技术的应用范围,现在一般都用于对web服务器的负载均衡。
针对每一次代理,代理服务器就必须打开两个连接,一个对外,一个对内,因此在并发连接请求数量非常大的时候,代理服务器的负载也就非常大了,在最后代理服务器本身会成为服务的瓶颈。
一般来讲,可以用它来对连接数量不是特别大,但每次连接都需要消耗大量处理资源的站点进行负载均衡,如search。
下面以在apache
mod_proxy下做的反向代理负载均衡为配置实例:在站点www.test.com,我们按提供的内容进行分类,不同的服务器用于提供不同的内容服务,将对http://www.test.com/news的访问转到IP地址为192.168.1.1的内部服务器上处理,对http://www.test.com/it的访问转到服务器192.168.1.2上,对http://www.test.com/life的访问转到服务器192.168.1.3上,对http://www.test.com/love的访问转到合作站点http://www.love.com上,从而减轻本apache服务器的负担,达到负载均衡的目的。
首先要确定域名www.test.com在DNS上的记录对应apache服务器接口上具有internet合法注册的IP地址,这样才能使internet上对www.test.com的所有连接请求发送给本台apache服务器。
在本台服务器的apache配置文件httpd.conf中添加如下设置:
proxypass /news http://192.168.1.1
proxypass /it http://192.168.1.2
proxypass /life http://192.168.1.3
proxypass /love http://www.love.com
注意,此项设置最好添加在httpd.conf文件“Section
2”以后的位置,服务器192.168.1.1-3也应是具有相应功能的www服务器,在重启服务时,最好用apachectl
configtest命令检查一下配置是否有误.
混合型负载均衡
在有些大型网络,由于多个服务器群内硬件设备、各自的规模、提供的服务等的差异,我们可以考虑给每个服务器群采用最合适的负载均衡方式,然后又在这多个服务器群间再一次负载均衡或群集起来以一个整体向外界提供服务(即把这多个服务器群当做一个新的服务器群),从而达到最佳的性能。我们将这种方式称之为混合型负载均衡。此种方式有时也用于单台均衡设备的性能不能满足大量连接请求的情况下。
下图展示了一个应用示例,三个服务器群针对各自的特点,分别采用了不同的负载均衡方式。当客户端发出域名解析请求时,DNS服务器依次把它解析成三个服务器群的VIP,如此把客户端的连接请求分别引向三个服务器群,从而达到了再一次负载均衡的目的。
在图中大家可能注意到,负载均衡设备在网络拓朴上,可以处于外部网和内部网络间网关的位置,也可以和内部服务器群处于并行的位置,甚至可以处于内部网络或internet上的任意位置,特别是在采用群集负载均衡时,根本就没有单独的负载均衡设备。
服务器群内各服务器只有提供相同内容的服务才有负载均衡的意义,特别是在DNS负载均衡时。要不然,这样会造成大量连接请求的丢失或由于多次返回内容的不同给客户造成混乱。
所以,如图的这个示例在实际中可能没有多大的意义,因为如此大的服务内容相同但各服务器群存在大量差异的网站并不多见。但做为一个示例,相信还是很有参考意义的.
分享到:
相关推荐
负载均衡技术是网络架构中的重要组成部分,其主要目标是确保网络服务的稳定性和高可用性。通过对网络流量的管理和分配,负载均衡可以在多台服务器之间有效地分摊工作负载,提高系统的处理能力,同时减少单个服务器的...
控制网络流量是维护局域网的网络运行. 1、实现地理位置无关性,能够远距离为用户提供完全的透明服务。 2、除了能避免服务器、数据中心等的单点失效,也能避免由于ISP专线故障引起的单点失效。 ...
从整体上来看,这是一本比较好的负载均衡入门书籍,内容也较新(已出版的几本相关英文 著作都较早) 。鉴于国内尚未有同类译著上市,我们希望本书的出版能满足入门人员的需要。翻 译过程中,我们针对其中涉及的概念...
6. 虚拟机迁移:讨论如何在不同的物理主机之间迁移虚拟机,以实现负载均衡或维护工作。 7. 性能优化:提供提高虚拟机性能的技巧,如内存分配策略、虚拟硬盘优化等。 8. 高级功能:可能涵盖VMware的高级特性,如...
### 集群存储技术全解析 #### 一、引言 随着信息技术的飞速发展,数据量呈现出爆炸式增长的趋势。在当前大数据时代背景下,企业和组织面临着前所未有的数据管理和存储挑战。传统的存储方式难以满足现代业务的需求,...
《服务器配置全攻略》这本书是IT领域中关于服务器...通过《服务器配置全攻略》这本书,读者可以系统地学习服务器配置的相关知识,从零基础到具备独立部署和管理服务器的能力,为企业的IT基础设施提供坚实的技术支持。
9. **负载均衡与集群**:当网站流量增大时,可能需要实施负载均衡和集群技术,例如使用HAProxy或Nginx的负载均衡配置,以及Heartbeat或Keepalived实现高可用性。 10. **持续集成/持续部署(CI/CD)**:采用Jenkins或...
在“Microsoft 虚拟机技术及产品全攻略之六”中,我们将深入探讨SCVMM的功能、优势以及如何利用它来提升数据中心的效率和灵活性。 **一、SCVMM的主要功能** 1. **虚拟机生命周期管理**:SCVMM提供了一套完整的...
这份"VMware全攻略"涵盖了高级学习资料,旨在帮助用户深入理解并熟练掌握VMware的各项技术。 一、VMware虚拟化基础 VMware的核心技术是虚拟化,它通过创建虚拟层来模拟硬件环境,使得多个操作系统可以在同一台...
2. **MGW容灾解决方案**:中兴通讯也提供了MGW负荷分担方案,通过负载均衡确保即使单个MGW故障,也不会影响整体网络性能。 这些安全策略确保了中兴通讯的移动软交换系统能够在遇到故障时快速恢复,减少服务中断时间...
此外,对虚拟机进行负载均衡也是重要的一环,可以使用群集内的资源调度机制,或者第三方工具来实现。 在Virtual Server 2005 R2中,群集功能虽然强大,但也有其局限性,例如对某些高级虚拟化特性(如热添加硬件)的...
### CISCO协议大全全攻略:深入理解CISCO网络协议 #### CISCO协议大全轻松学习,为深入学习CISCO打下基础 在IT领域,尤其是在网络技术方面,CISCO(思科)作为全球领先的网络解决方案供应商,其产品和技术一直占据...
总的来说,"无盘工作站2000终端全攻略.zip"提供的资源可以帮助用户深入了解和实践无盘技术,实现高效、安全的网络环境。通过学习和实践,管理员可以掌握创建和维护无盘工作站所需的技能,从而提高工作效率,降低成本...
7. **性能优化**:通过调整系统参数、使用缓存技术、负载均衡等方式提升服务器性能。例如,使用Apache的mod_deflate压缩输出内容,或者在MySQL中优化查询语句。 8. **远程访问与管理**:SSH(Secure Shell)是Linux...
以下是一份详细的单机架站全攻略,涵盖了从选择硬件到配置软件的各个步骤。 首先,硬件是基础。尽管个人电脑通常拥有足够的性能来运行一个小型服务器,但你需要确保它具有稳定的电源供应、足够的存储空间以及良好的...
此外,学会使用缓存技术(如APC、Memcached、Redis)和负载均衡策略提升网站性能。 6. **安全防护**:网络安全至关重要,这包括防火墙配置、SSH安全设置、防止DDoS攻击、定期更新系统和软件以修复漏洞。同时,理解...
- "ipx maximum-paths Paths"设置负载均衡的最大路径数 - "ipx network Network-Number"通告网络号,可以指定封装类型和是否为辅助地址 DDR(Dial-on-Demand Routing)允许路由器按需拨号,配置包括: - "dialer-...
在高访问量场景下,可以采用负载均衡策略,分散请求到多个服务器,防止单一服务器过载。 6. PHP配置调整: 配置PHP的运行环境也是提高性能的关键。调整php.ini中的相关设置,如增加内存限制、启用OPcache(替代了...