- 浏览: 4406337 次
- 性别:
- 来自: 厦门
文章分类
- 全部博客 (634)
- Oracle日常管理 (142)
- Oracle体系架构 (45)
- Oracle Tuning (52)
- Oracle故障诊断 (35)
- RAC/DG/OGG (64)
- Oracle11g New Features (48)
- DataWarehouse (15)
- SQL, PL/SQL (14)
- DB2日常管理 (9)
- Weblogic (11)
- Shell (19)
- AIX (12)
- Linux/Unix高可用性 (11)
- Linux/Unix日常管理 (66)
- Linux桌面应用 (37)
- Windows (2)
- 生活和工作 (13)
- 私人记事 (0)
- Python (9)
- CBO (15)
- Cognos (2)
- ORACLE 12c New Feature (2)
- PL/SQL (2)
- SQL (1)
- C++ (2)
- Hadoop大数据 (5)
- 机器学习 (3)
- 非技术 (1)
最新评论
-
di1984HIT:
xuexilee!!!
Oracle 11g R2 RAC高可用连接特性 – SCAN详解 -
aneyes123:
谢谢非常有用那
PL/SQL的存储过程和函数(原创) -
jcjcjc:
写的很详细
Oracle中Hint深入理解(原创) -
di1984HIT:
学习了,学习了
Linux NTP配置详解 (Network Time Protocol) -
avalonzst:
大写的赞..
AIX内存概述(原创)
日志是我们跟踪系统和应用程序最好的方式,在Heartbeat中日志可以自定义输出位置,只需在ha.cf文件配置即可,具体可参见笔者的
http://czmmiao.iteye.com/blog/1174010
下面跟着笔者我们来看详细看下Heartbeat的日志
启动主机Heartbeat服务
#/etc/init.d/heartbeat start
Heartbeat启动时,通过"tail -f /var/log/ messages"查看主节点系统日志信息,输出如下:
# tail -f /var/log/messages
Nov 26 07:52:21 node1 heartbeat: [3688]: info:
Configuration validated. Starting heartbeat 2.0.8
Nov 26 07:52:21 node1 heartbeat: [3689]: info:
heartbeat: version 2.0.8
Nov 26 07:52:21 node1 heartbeat: [3689]: info:
Heartbeat generation: 3
Nov 26 07:52:21 node1 heartbeat: [3689]: info:
G_main_add_TriggerHandler: Added signal manual handler
Nov 26 07:52:21 node1 heartbeat: [3689]: info:
G_main_add_TriggerHandler: Added signal manual handler
Nov 26 07:52:21 node1 heartbeat: [3689]: info:
glib: UDP Broadcast heartbeat started on port 694 (694) interface eth1
Nov 26 07:52:21 node1 heartbeat: [3689]: info:
glib: UDP Broadcast heartbeat closed on port 694 interface eth1 - Status: 1
Nov 26 07:52:21 node1 heartbeat: [3689]: info:
glib: ping heartbeat started.
Nov 26 07:52:21 node1 heartbeat: [3689]: info:
G_main_add_SignalHandler: Added signal handler for signal 17
Nov 26 07:52:21 node1 heartbeat: [3689]: info:
Local status now set to: 'up'
Nov 26 07:52:22 node1 heartbeat: [3689]: info:
Link node1:eth1 up.
Nov 26 07:52:23 node1 heartbeat: [3689]: info:
Link 192.168.60.1:192.168.60.1 up.
Nov 26 07:52:23 node1 heartbeat: [3689]: info:
Status update for node 192.168.60.1: status ping
此段日志是Heartbeat在进行初始化配置,例如,Heartbeat的心跳时间间隔、UDP广播端口和ping节点的运行状态等,日志信息到这里会暂停,等待120秒之后,Heartbeat会继续输出日志,而这个120秒刚好是ha.cf中"initdead"选项的设定时间。此时Heartbeat的输出信息如下:
Nov 26 07:54:22 node1 heartbeat: [3689]: WARN: node node2: is dead
Nov 26 07:54:22 node1 heartbeat: [3689]: info:
Comm_now_up(): updating status to active
Nov 26 07:54:22 node1 heartbeat: [3689]: info:
Local status now set to: 'active'
Nov 26 07:54:22 node1 heartbeat: [3689]: info:
Starting child client "/usr/lib/heartbeat/ipfail" (694,694)
Nov 26 07:54:22 node1 heartbeat: [3689]: WARN:
No STONITH device configured.
Nov 26 07:54:22 node1 heartbeat: [3689]: WARN:
Shared disks are not protected.
Nov 26 07:54:22 node1 heartbeat: [3689]: info:
Resources being acquired from node2.
Nov 26 07:54:22 node1 heartbeat: [3712]: info:
Starting "/usr/lib/heartbeat/ipfail" as uid 694 gid 694 (pid 3712)
在上面这段日志中,由于node2还没有启动,因此会给出"node2: is dead"的警告信息,接下来启动了Heartbeat插件ipfail。由于我们在ha.cf文件中没有配置STONITH,因此日志里也给出了"No STONITH device configured"的警告提示。
继续看下面的日志:
Nov 26 07:54:23 node1 harc[3713]: info: Running /etc/ha.d/rc.d/status status
Nov 26 07:54:23 node1 mach_down[3735]: info: /usr/lib/
heartbeat/mach_down: nice_failback: foreign resources acquired
Nov 26 07:54:23 node1 mach_down[3735]: info: mach_down
takeover complete for node node2.
Nov 26 07:54:23 node1 heartbeat: [3689]: info: mach_down takeover complete.
Nov 26 07:54:23 node1 heartbeat: [3689]: info: Initial
resource acquisition complete (mach_down)
Nov 26 07:54:24 node1 IPaddr[3768]: INFO: Resource is stopped
Nov 26 07:54:24 node1 heartbeat: [3714]: info: Local Resource
acquisition completed.
Nov 26 07:54:24 node1 harc[3815]: info: Running /etc/ha.
d/rc.d/ip-request-resp ip-request-resp
Nov 26 07:54:24 node1 ip-request-resp[3815]: received ip-
request-resp 192.168.60.200/24/eth0 OK yes
Nov 26 07:54:24 node1 ResourceManager[3830]: info: Acquiring
resource group: node1 192.168.60.200/24/eth0 Filesystem:
:/dev/sdb5::/webdata::ext3
Nov 26 07:54:24 node1 IPaddr[3854]: INFO: Resource is stopped
Nov 26 07:54:25 node1 ResourceManager[3830]: info: Running
/etc/ha.d/resource.d/IPaddr 192.168.60.200/24/eth0 start
Nov 26 07:54:25 node1 IPaddr[3932]: INFO: Using calculated
netmask for 192.168.60.200: 255.255.255.0
Nov 26 07:54:25 node1 IPaddr[3932]: DEBUG: Using calculated
broadcast for 192.168.60.200: 192.168.60.255
Nov 26 07:54:25 node1 IPaddr[3932]: INFO: eval /sbin/ifconfig
eth0:0 192.168.60.200 netmask 255.255.255.0 broadcast 192.168.60.255
Nov 26 07:54:25 node1 avahi-daemon[1854]: Registering new
address record for 192.168.60.200 on eth0.
Nov 26 07:54:25 node1 IPaddr[3932]: DEBUG: Sending Gratuitous
Arp for 192.168.60.200 on eth0:0 [eth0]
Nov 26 07:54:26 node1 IPaddr[3911]: INFO: Success
Nov 26 07:54:26 node1 Filesystem[4021]: INFO: Resource is stopped
Nov 26 07:54:26 node1 ResourceManager[3830]: info: Running
/etc/ha.d/resource.d/ Filesystem/dev/sdb5 /webdata ext3 start
Nov 26 07:54:26 node1 Filesystem[4062]: INFO: Running start
for /dev/sdb5 on /webdata
Nov 26 07:54:26 node1 kernel: kjournald starting. Commit interval 5 seconds
Nov 26 07:54:26 node1 kernel: EXT3 FS on sdb5, internal journal
Nov 26 07:54:26 node1 kernel: EXT3-fs: mounted
filesystem with ordered data mode.
Nov 26 07:54:26 node1 Filesystem[4059]: INFO:
Success
Nov 26 07:54:33 node1 heartbeat: [3689]: info:
Local Resource acquisition completed. (none)
Nov 26 07:54:33 node1 heartbeat: [3689]: info:
local resource transition completed
上面这段日志是进行资源的监控和接管,主要完成haresources文件中的设置,在这里是启用集群虚拟IP和挂载磁盘分区。
此时,通过ifconfig命令查看主节点的网络配置,可以看到,主节点已经自动绑定集群IP地址,在HA集群之外的主机上通过ping命令检测集群IP地址192.168.60.200,已经处于可通状态,也就是该地址变得可用。
同时查看磁盘分区的挂载情况,共享磁盘分区/dev/sdb5已经被自动挂载。
启动备份节点的Heartbeat
启动备份节点的Heartbeat,与主节点方法一样,使用如下命令:
#/etc/init.d/heartbeat start
或者执行:
#service heartbeat start
备用节点的Heartbeat日志输出信息与主节点相对应,通过"tail -f /var/log/messages"可以看到如下输出:
Nov 26 07:57:15 node2 heartbeat: [2110]: info: Link node1:eth1 up.
Nov 26 07:57:15 node2 heartbeat: [2110]: info: Status update
for node node1: status active
Nov 26 07:57:15 node2 heartbeat: [2110]: info: Link node1:eth0 up.
Nov 26 07:57:15 node2 harc[2123]: info: Running /etc/ha.d/rc.d/status status
Nov 26 07:57:15 node2 heartbeat: [2110]: info: Comm_now_up():
updating status to active
Nov 26 07:57:15 node2 heartbeat: [2110]: info: Local
status now set to: 'active'
Nov 26 07:57:15 node2 heartbeat: [2110]: info: Starting
child client "/usr/lib/heartbeat/ipfail" (694,694)
Nov 26 07:57:15 node2 heartbeat: [2110]: WARN: G
_CH_dispatch_int: Dispatch function for read child
took too long to execute: 70 ms (> 50 ms) (GSource: 0x8f62080)
Nov 26 07:57:15 node2 heartbeat: [2134]: info:
Starting "/usr/lib/heartbeat/ipfail" as uid 694 gid 694 (pid 2134)
备份节点检测到node1处于活动状态,没有可以接管的资源,因此仅仅启动了网络监听插件ipfail,监控主节点的心跳。
测试Heartbeat
如何才能得知HA集群是否正常工作,模拟环境测试是个不错的方法。在把Heartbeat高可用性集群放到生产环境中之前,需要做如下5个步骤的测试,从而确定HA是否正常工作。
1、正常关闭和重启主节点的Heartbeat
首先在主节点node1上执行"service heartbeat stop"正常关闭主节点的Heartbeat进程,此时通过ifconfig命令查看主节点网卡信息。正常情况下,应该可以看到主节点已经释放了集群的服务IP地址,同时也释放了挂载的共享磁盘分区。然后查看备份节点,现在备份节点已经接管了集群的服务IP,同时也自动挂载上了共享的磁盘分区。
在这个过程中,使用ping命令对集群服务IP进行测试。可以看到,集群IP一致处于可通状态,并没有任何延时和阻塞现象,也就是说在正常关闭主节点的情况下,主备节点的切换是无缝的,HA对外提供的服务也可以不间断运行。
接着,将主节点Heartbeat正常启动。Heartbeat启动后,备份节点是否自动释放资源将取决于auto_failback
中的设置,本文将顶设置为on,备份节点将自动释放资源,而主节点将再次接管集群资源。其实备份节点释放资源与主节点绑定资源是同步进行的,因而,这个过程也是一个无缝切换。
2、在主节点上拔去网线
拔去主节点连接公共网络的网线后,Heartbeat插件ipfail通过ping测试可以立刻检测到网络连接失败,接着自动释放资源。而就在此时,备用节点的ipfail插件也会检测到主节点出现网络故障,在等待主节点释放资源完毕后,备用节点马上接管了集群资源,从而保证了网络服务不间断持续运行。
同理,当主节点网络恢复正常时,由于设置了"auto_failback on"选项,集群资源将自动从备用节点切会主节点。
在主节点拔去网线后日志信息如下:
Nov 26 09:04:09 node1 heartbeat: [3689]: info: Link node2:eth0 dead.
Nov 26 09:04:09 node1 heartbeat: [3689]: info:
Link 192.168.60.1:192.168.60.1 dead.
Nov 26 09:04:09 node1 ipfail: [3712]: info: Status update:
Node 192.168.60.1 now has status dead
Nov 26 09:04:09 node1 harc[4279]: info: Running /etc/ha.d/rc.d/status status
Nov 26 09:04:10 node1 ipfail: [3712]: info: NS: We are dead. :<
Nov 26 09:04:10 node1 ipfail: [3712]: info: Link Status
update: Link node2/eth0 now has status dead
…… 中间部分省略 ……
Nov 26 09:04:20 node1 heartbeat: [3689]: info: node1 wants to go standby [all]
Nov 26 09:04:20 node1 heartbeat: [3689]: info: standby:
node2 can take our all resources
Nov 26 09:04:20 node1 heartbeat: [4295]: info: give up all
HA resources (standby).
Nov 26 09:04:21 node1 ResourceManager[4305]: info: Releasing
resource group: node1 192.168.60.200/24/eth0 Filesystem::/dev/sdb5::/webdata::ext3
Nov 26 09:04:21 node1 ResourceManager[4305]: info: Running
/etc/ha.d/resource.d/ Filesystem/dev/sdb5 /webdata ext3 stop
Nov 26 09:04:21 node1 Filesystem[4343]: INFO: Running stop for /dev/sdb5 on /webdata
Nov 26 09:04:21 node1 Filesystem[4343]: INFO: Trying to unmount /webdata
Nov 26 09:04:21 node1 Filesystem[4343]: INFO: unmounted /webdata successfully
Nov 26 09:04:21 node1 Filesystem[4340]: INFO: Success
Nov 26 09:04:22 node1 ResourceManager[4305]: info: Running
/etc/ha.d/resource.d/IPaddr 192.168.60.200/24/eth0 stop
Nov 26 09:04:22 node1 IPaddr[4428]: INFO: /sbin/ifconfig eth0:0 192.168.60.200 down
Nov 26 09:04:22 node1 avahi-daemon[1854]: Withdrawing
address record for 192.168.60.200 on eth0.
Nov 26 09:04:22 node1 IPaddr[4407]: INFO: Success
备用节点在接管主节点资源时的日志信息如下:
Nov 26 09:02:58 node2 heartbeat: [2110]: info: Link node1:eth0 dead.
Nov 26 09:02:58 node2 ipfail: [2134]: info: Link Status
update: Link node1/eth0 now has status dead
Nov 26 09:02:59 node2 ipfail: [2134]: info: Asking
other side for ping node count.
Nov 26 09:02:59 node2 ipfail: [2134]: info: Checking remote count of ping nodes.
Nov 26 09:03:02 node2 ipfail: [2134]: info: Telling other
node that we have more visible ping nodes.
Nov 26 09:03:09 node2 heartbeat: [2110]: info: node1
wants to go standby [all]
Nov 26 09:03:10 node2 heartbeat: [2110]: info: standby:
acquire [all] resources from node1
Nov 26 09:03:10 node2 heartbeat: [2281]: info: acquire all HA resources (standby).
Nov 26 09:03:10 node2 ResourceManager[2291]: info: Acquiring
resource group: node1 192.168.60.200/24/eth0 Filesystem::/dev/sdb5::/webdata::ext3
Nov 26 09:03:10 node2 IPaddr[2315]: INFO: Resource is stopped
Nov 26 09:03:11 node2 ResourceManager[2291]: info: Running
/etc/ha.d/resource.d/IPaddr 192.168.60.200/24/eth0 start
Nov 26 09:03:11 node2 IPaddr[2393]: INFO: Using calculated
netmask for 192.168.60.200: 255.255.255.0
Nov 26 09:03:11 node2 IPaddr[2393]: DEBUG: Using calculated
broadcast for 192.168.60.200: 192.168.60.255
Nov 26 09:03:11 node2 IPaddr[2393]: INFO: eval /sbin/ifconfig
eth0:0 192.168.60.200 netmask 255.255.255.0 broadcast 192.168.60.255
Nov 26 09:03:12 node2 avahi-daemon[1844]: Registering new
address record for 192.168.60.200 on eth0.
Nov 26 09:03:12 node2 IPaddr[2393]: DEBUG: Sending Gratuitous
Arp for 192.168.60.200 on eth0:0 [eth0]
Nov 26 09:03:12 node2 IPaddr[2372]: INFO: Success
Nov 26 09:03:12 node2 Filesystem[2482]: INFO: Resource is stopped
Nov 26 09:03:12 node2 ResourceManager[2291]: info: Running
/etc/ha.d/resource.d/ Filesystem/dev/sdb5 /webdata ext3 start
Nov 26 09:03:13 node2 Filesystem[2523]: INFO: Running start for /dev/sdb5 on /webdata
Nov 26 09:03:13 node2 kernel: kjournald starting. Commit interval 5 seconds
Nov 26 09:03:13 node2 kernel: EXT3 FS on sdb5, internal journal
Nov 26 09:03:13 node2 kernel: EXT3-fs: mounted filesystem with ordered data mode.
Nov 26 09:03:13 node2 Filesystem[2520]: INFO: Success
3、在主节点上拔去电源线
在主节点拔去电源后,备用节点的Heartbeat进程会立刻收到主节点已经shutdown的消息。如果在集群上配置了Stonith设备,那么备用节点将会把电源关闭或者复位到主节点。当Stonith设备完成所有操作时,备份节点才能拿到接管主节点资源的所有权,从而接管主节点的资源。
在主节点拔去电源后,备份节点有类似如下的日志输出:
Nov 26 09:24:54 node2 heartbeat: [2110]: info:
Received shutdown notice from 'node1'.
Nov 26 09:24:54 node2 heartbeat: [2110]: info:
Resources being acquired from node1.
Nov 26 09:24:54 node2 heartbeat: [2712]: info:
acquire local HA resources (standby).
Nov 26 09:24:55 node2 ResourceManager[2762]:
info: Running /etc/ha.d/resource.d/IPaddr 192.168.60.200/24/eth0 start
Nov 26 09:24:57 node2 ResourceManager[2762]:
info: Running /etc/ha.d/resource.d/ Filesystem /dev/sdb5 /webdata ext3 start
4、切断主节点的所有网络连接
在主节点上断开心跳线后,主备节点都会在日志中输出"eth1 dead"的信息,但是不会引起节点间的资源切换。此时出现脑裂现象,主备节点都认为对方宕机,如果再次拔掉主节点连接公共网络的网线,网络资源由于连通性问题切换到备机,但存储资源没有顺利切换到备机。此时,就会重现很严重的问题,即备机点对外提供服务,但主节点挂载存储,很有可能导致数据的不一致。连上主节点的心跳线,观察系统日志,可以看到,备用节点的Heartbeat进程将会重新启动,进而再次控制集群资源。最后,连上主节点的对外网线,集群资源再次从备用节点转移到主节点。这就是整个切换过程。
5、在主节点上非正常关闭Heartbeat守护进程
在主节点上可通过"killall -9 heartbeat"命令关闭Heartbeat进程。由于是非法关闭Heartbeat进程,因此Heartbeat所控制的资源并没有释放。备份节点在很短一段时间没有收到主节点的响应后,就会认为主节点出现故障,进而接管主节点资源。在这种情况下,就出现了资源争用情况,两个节点都占用一个资源,造成数据冲突。针对这个情况,可以通过Linux提供的内核监控模块watchdog来解决这个问题,将watchdog集成到Heartbeat中。如果Heartbeat异常终止,或者系统出现故障,watchdog都会自动重启系统,从而释放集群资源,避免了数据冲突的发生。
本章节我们没有配置watchdog到集群中,如果配置了watchdog,在执行"killall -9 heartbeat"时,会在/var/log/messages中看到如下信息:
Softdog: WDT device closed unexpectedly. WDT will not stop!
这个错误告诉我们,系统出现问题,将重新启动。
日志中的bug
在Heartbeat 2.0.7版本中,如果启用了crm,则会出现如下报错
ccm[22165]: 2011/08/30_15:18:29 ERROR: REASON: can't send message to IPC: Success
cib[22166]: 2011/08/30_15:18:29 WARN: validate_cib_digest:io.c No on-disk digest present
ccm[22165]: 2011/08/30_15:18:29 ERROR: Initialization failed. Exit
cib[22166]: 2011/08/30_15:18:29 info: readCibXmlFile: [on-disk] <cib admin_epoch="0" epoch="0" num_updates="0" have_quorum="false">
heartbeat[22155]: 2011/08/30_15:18:29 WARN: Exiting /usr/lib64/heartbeat/ccm process 22165 returned rc 1.
cib[22166]: 2011/08/30_15:18:29 info: readCibXmlFile: [on-disk] <configuration>
heartbeat[22155]: 2011/08/30_15:18:29 ERROR: Respawning client "/usr/lib64/heartbeat/ccm":
heartbeat[22155]: 2011/08/30_15:18:28 WARN: G_SIG_dispatch: Dispatch function for SIGCHLD took too long to execute: 150 ms (> 10 ms) (GSource: 0x156837f8)
heartbeat[22155]: 2011/08/30_15:18:28 WARN: duplicate client add request [ccm] [22165]
heartbeat[22155]: 2011/08/30_15:18:28 ERROR: api_process_registration_msg: cannot add client()
有英文网站解释如下,处于笔者英文水平有限,无法准确翻译,请读者自己理解
This is a bug in the heartbeat API library. I'm pretty sure it has an implicit assumption that no child will connect via the heartbeat API if its parent connected before the fork, and there was no intervening exec() call...
具体网址:http://lists.linux-ha.org/pipermail/linux-ha-dev/2005-September/011785.html
参考至:http://book.51cto.com/art/200912/168038.htm
http://lists.linux-ha.org/pipermail/linux-ha-dev/2005-September/011785.html
本文原创,转载请注明出处、作者
如有错误,欢迎指正
邮箱:czmcj@163.com
发表评论
-
drbd的安装(原创)
2013-01-21 21:37 11652关于drbd版本在linux 2.6.33以后的版本中,d ... -
DRBD架构详解(原创)
2013-01-21 14:06 18693DRBD概述Distributed Replicated ... -
Linux高可用性方案之Heartbeat的日常维护命令(原创)
2011-09-27 16:43 9620crm_resource crm_resource ... -
高可用方案之脑裂问题探讨(原创)
2011-09-27 15:36 26180关于脑裂我们先来看看 ... -
Linux高可用性方案之Heartbeat的CRM节点得分计算(原创)
2011-09-26 16:19 3173crm资源得分概述 在V2的Heartbeat中,为 ... -
Linux高可用性方案之Heartbeat的CRM配置(原创)
2011-09-26 13:51 9610heartbeat默认模式是没法监控资源的,也就是说其中某个资 ... -
Linux高可用性方案之Heartbeat的watchdog配置(原创) 编辑
2011-09-18 22:09 5363Watchdog概述 在日常使用heartbea ... -
Linux高可用性方案之Heartbeat的Stonith配置(原创)
2011-09-18 20:44 9832前言 前一阵,在 ... -
Linux高可用性方案之Heartbeat安装(原创)
2011-09-17 21:26 75518安装Heartbeat前的准备 ... -
Linux高可用性方案之Heartbeat架构(原创)
2011-09-16 17:28 5927Heartbeat 概述 Heartbeat 是 L ...
相关推荐
总之,Heartbeat 是构建基于 Linux 的高可用性集群的重要工具之一。无论是 Heartbeat 1.x 还是 2.0 版本,都为中/高级 Linux 系统管理员、企业 IT 决策者和方案架构师提供了强大的技术支持,帮助他们在服务器出现...
在这些技术方案中,Heartbeat+DRBD+MySQL组合因其在高可用性和数据一致性方面的优势而备受关注。 #### Heartbeat介绍 Heartbeat是一款开源的高可用性集群管理软件,它主要用于监控系统状态并在出现故障时进行自动...
Heartbeat是实现高可用性的关键组件之一。以下是针对Node1的Heartbeat配置步骤: 1. **复制配置文件**:确保Node1的hostname为`node1`。接下来,复制Heartbeat提供的示例配置文件到`/etc/ha.d/`目录下。 ```bash ...
Heartbeat 是一款开源的高可用性集群软件,主要用于构建双机热备环境,通过它可以在两台或多台服务器之间实现服务的自动故障转移。当一台服务器出现故障时,另一台服务器可以接管故障服务器的服务,确保服务的连续性...
**DRBD (Distributed Replicated Block Device)** 是一种分布式存储解决方案,能够实时同步数据到多个节点,提供高可用性和数据冗余。在本方案中,DRBD将被用来确保MySQL数据的一致性和完整性。 **MySQL** 是广泛...
在Linux世界中,高可用性(High Availability, HA)是关键,它意味着即使在硬件故障、网络中断或其他系统问题的情况下,服务仍能持续运行,确保业务连续性。构建高可用Linux服务器涉及多个层面,包括硬件冗余、软件...
Heartbeat是一款开源的心跳监测系统,常用于高可用性(High Availability, HA)集群,确保在主服务器出现故障时,能自动将服务切换到备用服务器,保持系统的连续运行。在描述中提到"官网下载,保证安装成功",意味着...
Linux Heartbeat是一款开源的高可用性(High Availability, HA)软件,主要负责在Linux系统中实现双机热备,确保关键服务的连续性。当主服务器出现故障时,Heartbeat会自动将服务切换到备用服务器,从而降低系统中断对...
总之,Heartbeat是Linux集群中不可或缺的一部分,通过合理的配置和管理,它可以提供高效且可靠的高可用性解决方案。了解并掌握Heartbeat的安装、配置和维护技巧,对于提升Linux集群的性能和可靠性至关重要。
在Linux环境下,Heartbeat 3.0.4的编译安装是一个重要的步骤,它涉及到高可用性集群的基础构建。Heartbeat作为一个开源的网络守护进程,主要用于监控和管理集群中的节点状态,确保服务的连续性和可靠性。以下是详细...
HA(High Availability,高可用性)heartbeat 主配置文件是 Linux 高可用性群集heartbeat 的核心组件之一。该文件用于定义群集的节点、心跳检测媒体、日志记录方式等重要参数。本文将详细介绍 heartbeat 配置文件的...
Heartbeat作为Linux高可用集群系统的核心组件之一,通过一系列进程协同工作,实现了集群的高可用性。 - **集群资源管理器(CRM,Cluster ResourceManager)**:CRM是集群系统的核心管理进程,负责集群资源的整体...
**LVS** (Linux Virtual Server) 是一种基于Linux内核的负载均衡技术,可以用来创建高性能、高可用性的服务器集群。LVS支持多种负载均衡算法,如轮询(Round Robin)、最小连接数(Least Connections)等,可以根据...
Linux Heartbeat 2.1.4 是 Linux 高可用性(HA)系统中的一个关键组件,它是 Linux-HA 项目的一部分。Linux HA 是一个开源软件解决方案,旨在确保关键服务和应用在服务器出现故障时仍能持续运行,从而提高系统的整体...
本书详细讲解了在Linux环境中实现高可用性的关键技术和实践策略,适用于企业级数据中心、云计算平台以及各种规模的企业IT基础设施。 1. **高可用性基础** - 高可用性(High Availability, HA)是指通过设计和实施...
MySQL提供了多种高可用性解决方案,以满足不同规模和需求的企业。这些方案主要包括MySQL复制和MySQL集群。 ##### MySQL复制 - **概念**:MySQL复制是一种通过将数据从一个服务器(称为“主服务器”)复制到一个或...
Heartbeat是一款广泛应用于高可用性(HA)集群系统的软件,主要功能是在计算机之间提供网络通信和资源监控。在双机热备系统中,Heartbeat扮演着至关重要的角色,确保当主服务器出现故障时,次服务器能够无缝接管工作,...
DRBD是一种分布式存储解决方案,用于实现磁盘镜像,以提供高可用性和数据冗余。而Heartbeat则是一个系统管理软件,用于监控和管理集群节点间的通信,确保服务的连续性。 首先,让我们深入了解一下DRBD。DRBD通过...
此外,监控系统性能和日志,及时发现并处理潜在问题,也是保障高可用性的重要环节。 综上所述,《CentOS系统架构高可用性》这本书将帮助读者全面理解如何利用CentOS构建稳定、可靠的高可用系统,无论是对于企业数据...