Server端:
yum install rrdtool ganglia ganglia-gmetad ganglia-gmond ganglia-web httpd php
Client端:
yum install ganglia-gmond
创建RRD目录
mkdir -p /var/lib/ganglia/rrds
chown ganglia:ganglia /var/lib/ganglia/rrds
chown ganglia:ganglia /var/lib/ganglia/rrds
编辑/etc/ganglia/gmond.conf
cluster {
name = "DFS"
owner = "unspecified"
latlong = "unspecified"
url = "unspecified"
}
udp_send_channel {
#bind_hostname = yes # Highly recommended, soon to be default.
# This option tells gmond to use a source address
# that resolves to the machine's hostname. Without
# this, the metrics may appear to come from any
# interface and the DNS names associated with
# those IPs will be used to create the RRDs.
mcast_join = master.hadoop.test
port = 8649
ttl = 1
}
/* You can specify as many udp_recv_channels as you like as well. */
udp_recv_channel {
port = 8649
bind = master.hadoop.test
}
/* You can specify as many tcp_accept_channels as you like to share
an xml description of the state of the cluster */
tcp_accept_channel {
bind = master.hadoop.test
port = 8649
}
编辑/etc/ganglia/gmetad.conf
data_source "DFS" master.hadoop.test:8649
安装ganglia-web
cd /var/www/html
wget http://softlayer-dal.dl.sourceforge.net/project/ganglia/ganglia-web/3.5.10/ganglia-web-3.5.10.tar.gz
tar zxvf ganglia-web-3.5.7.tar.gz
mv ganglia-web-3.5.7 ganglia
修改Apache配置
vim /etc/httpd/conf.d/ganglia.conf
<Location /ganglia>
Order deny,allow
Allow from all
</Location>
# 开机运行采集进程
chkconfig --levels 235 gmond on
# 开机运行数据存储进程
chkconfig --levels 235 gmetad on
# 开机运行apache服务
chkconfig --levels 235 httpd on
chkconfig --levels 235 gmond on
# 开机运行数据存储进程
chkconfig --levels 235 gmetad on
# 开机运行apache服务
chkconfig --levels 235 httpd on
启动服务
service gmond start
service gmetad start
service httpd restart
service gmetad start
service httpd restart
修改hadoop配置:
vim $HADOOP_HOME/conf/hadoop-metrics.properties
# Configuration of the "dfs" context for ganglia
dfs.class=org.apache.hadoop.metrics.ganglia.GangliaContext31
dfs.period=10
dfs.servers=master.hadoop.test:8649
# Configuration of the "mapred" context for ganglia
mapred.class=org.apache.hadoop.metrics.ganglia.GangliaContext31
mapred.period=10
mapred.servers=master.hadoop.test:8649
# Configuration of the "jvm" context for ganglia
jvm.class=org.apache.hadoop.metrics.ganglia.GangliaContext31
jvm.period=10
jvm.servers=master.hadoop.test:8649
rpc.class=org.apache.hadoop.metrics.ganglia.GangliaContext31
rpc.period=10
rpc.servers=master.hadoop.test:8649
重启Hadoop
修改HBase配置:
hbase.class=org.apache.hadoop.metrics.ganglia.GangliaContext31
hbase.period=10
hbase.servers=master.hadoop.test:8649
jvm.class=org.apache.hadoop.metrics.ganglia.GangliaContext31
jvm.period=10
jvm.servers=master.hadoop.test:8649
rpc.class=org.apache.hadoop.metrics.ganglia.GangliaContext31
rpc.period=10
rpc.servers=master.hadoop.test:8649
rest.class=org.apache.hadoop.metrics.ganglia.GangliaContext31
rest.period=10
rest.servers=master.hadoop.test:8649
hbase.period=10
hbase.servers=master.hadoop.test:8649
jvm.class=org.apache.hadoop.metrics.ganglia.GangliaContext31
jvm.period=10
jvm.servers=master.hadoop.test:8649
rpc.class=org.apache.hadoop.metrics.ganglia.GangliaContext31
rpc.period=10
rpc.servers=master.hadoop.test:8649
rest.class=org.apache.hadoop.metrics.ganglia.GangliaContext31
rest.period=10
rest.servers=master.hadoop.test:8649
重启Hbase
访问http://${ganglia_home}/ganglia
相关推荐
一淘搜索系统是基于Hadoop和HBase构建的大型分布式搜索和存储解决方案,主要用于处理海量的电子商务数据。这个系统架构包括以下几个关键组成部分: 1. **一淘搜索系统架构**: 一淘搜索系统主要由抓取系统、存储...
为了配置HBase把指标信息输出到Ganglia,需要设置$HBASE_HOME/conf/目录下的hadoop-metrics.properties文件中的参数。 结论: 监控HBase集群对于确保系统的高可用性和性能非常重要。通过使用Java代码实现HBase集群...
这涉及到配置如Ganglia、Ambari Metrics、Flume等工具,以便及时发现和解决问题。 通过深入学习和实践Hadoop类库和配置文件的管理,开发者不仅能提升处理大数据的能力,还能更好地应对各种分布式计算挑战。Hadoop第...
可以使用HBase自带的监控界面,或者通过 Metrics2 和 Ganglia、Prometheus 等工具集成监控。根据监控结果调整HBase的配置参数,如Region大小、缓存设置等,以优化性能。 综上所述,整合SpringBoot和HBase涉及到资源...
2. Hadoop的Metrics2系统,可以集成Ganglia、Graphite等工具进行性能监控。 3. JMX接口,可以利用JConsole、VisualVM等工具查看和调整HBase的运行参数。 总结,HBase参数修改是确保系统高效稳定运行的关键步骤,...
- HBase的监控和调优,包括JMX、HBase Metrics、Ganglia和Ambari的使用 - HBase的故障恢复和高可用性方案 - 使用HBase Shell进行基本操作和高级功能,如扫描器设置 - HBase与其他大数据组件(如Spark、Hive、Phoenix...
10. **监控和运维**:HBase提供了丰富的监控指标,如JMX接口、Metrics2等,可以与监控系统如Ganglia、Graphite、Prometheus等集成,进行实时性能监控和告警。 总的来说,“Hbase-GUI-1.2.3.zip”可能是为了提供一个...
常用的工具有Hadoop Metrics2、Ganglia、Ambari等,它们能帮助识别性能瓶颈、预测故障,确保平台的高可用性和稳定性。 6. **大数据平台项目综合案例**:实验15可能是一个具体的大数据项目实践,可能涵盖数据清洗、...