- 浏览: 2195771 次
- 性别:
- 来自: 北京
-
文章分类
- 全部博客 (682)
- 软件思想 (7)
- Lucene(修真篇) (17)
- Lucene(仙界篇) (20)
- Lucene(神界篇) (11)
- Solr (48)
- Hadoop (77)
- Spark (38)
- Hbase (26)
- Hive (19)
- Pig (25)
- ELK (64)
- Zookeeper (12)
- JAVA (119)
- Linux (59)
- 多线程 (8)
- Nutch (5)
- JAVA EE (21)
- Oracle (7)
- Python (32)
- Xml (5)
- Gson (1)
- Cygwin (1)
- JavaScript (4)
- MySQL (9)
- Lucene/Solr(转) (5)
- 缓存 (2)
- Github/Git (1)
- 开源爬虫 (1)
- Hadoop运维 (7)
- shell命令 (9)
- 生活感悟 (42)
- shell编程 (23)
- Scala (11)
- MongoDB (3)
- docker (2)
- Nodejs (3)
- Neo4j (5)
- storm (3)
- opencv (1)
最新评论
-
qindongliang1922:
粟谷_sugu 写道不太理解“分词字段存储docvalue是没 ...
浅谈Lucene中的DocValues -
粟谷_sugu:
不太理解“分词字段存储docvalue是没有意义的”,这句话, ...
浅谈Lucene中的DocValues -
yin_bp:
高性能elasticsearch ORM开发库使用文档http ...
为什么说Elasticsearch搜索是近实时的? -
hackWang:
请问博主,有用solr做电商的搜索项目?
Solr中Group和Facet的用法 -
章司nana:
遇到的问题同楼上 为什么会返回null
Lucene4.3开发之第八步之渡劫初期(八)
Ganglia的安装,可以使用yum和rpm来进行,对于刚装的系统需要分别执行以下几个命令,来完成初始化安装:
安装完成后,即可配置。
1, 修改ganglia的conf配置,
修改 /etc/ganglia/gmetad.conf,数据源的配置
data_source "solr cluster" 127.0.0.1
集群IP,可以设置多个IP地址,也可以设置多个数据源。
2,修改 /etc/ganglia/gmond.conf的配置,把name对应起来
cluster {
name = "solr cluster"
owner = "unspecified"
latlong = "unspecified"
url = "unspecified"
}
3,修改/etc/httpd/conf.d/ganglia.conf,Apache的配置,不拦截ganglia的数据包
Alias /ganglia /usr/share/ganglia
<Location /ganglia>
Order deny,allow
Allow from all
Allow from 192.168.46.21
Allow from ::1
# Allow from .example.com
</Location>
4,cd /var/lib/jmxtrans
配置jmxtrans
添加solr.json
solr.json的配置如下:
配置完成后,需要依次,启动如下服务:
注意,solr启动的jetty的jar需要加上JMX的监控参数,内容如下:
最后需要注意一点,为了防止访问apache服务出错,
如果出现:There was an error collecting ganglia data (127.0.0.1:8652): fsockopen error: Permission denied . 错误,我们需要进行以下的设置:
一切完成后,我们就是访问我们本机的ip地址,看到的界面如下所示:
到此,我们的单机监控solr的demo,就部署成功了,以同样的方式,我们还可以对hadoop进行监控,另外我们还可以配置多个datasource来监控多个应用。
yum install –y wget apr-devel apr-util check-devel cairo-devel pango-devel libxml2-devel rpmbuild glib2-devel dbus-devel freetype-devel fontconfig-devel gcc-c++ expat-devel python-devel libXrender-devel rrdtool* rpm -ivh http://dl.fedoraproject.org/pub/epel/6/x86_64/epel-release-6-8.noarch.rpm rpm -ivh http://rpms.famillecollet.com/enterprise/remi-release-6.rpm rpm -ivh http://github.com/downloads/jmxtrans/jmxtrans/jmxtrans-20121016.145842.6a28c97fbb-0.noarch.rpm yum install ganglia*
安装完成后,即可配置。
1, 修改ganglia的conf配置,
修改 /etc/ganglia/gmetad.conf,数据源的配置
data_source "solr cluster" 127.0.0.1
集群IP,可以设置多个IP地址,也可以设置多个数据源。
2,修改 /etc/ganglia/gmond.conf的配置,把name对应起来
cluster {
name = "solr cluster"
owner = "unspecified"
latlong = "unspecified"
url = "unspecified"
}
3,修改/etc/httpd/conf.d/ganglia.conf,Apache的配置,不拦截ganglia的数据包
Alias /ganglia /usr/share/ganglia
<Location /ganglia>
Order deny,allow
Allow from all
Allow from 192.168.46.21
Allow from ::1
# Allow from .example.com
</Location>
4,cd /var/lib/jmxtrans
配置jmxtrans
添加solr.json
solr.json的配置如下:
{ "servers" : [ { "host" : "192.168.46.23", "alias" : "solr23", "port" : "3000", "queries" : [ { "obj" : "java.lang:type=Memory", "resultAlias": "solr23.heap", "attr" : [ "HeapMemoryUsage", "NonHeapMemoryUsage" ], "outputWriters" : [ { "@class" : "com.googlecode.jmxtrans.model.output.GangliaWriter", "settings" : { "groupName" : "Solr-JVM", "host" : "239.2.11.71", "port" : "8649" } }] }, { "obj" : "java.lang:name=CMS Old Gen,type=MemoryPool", "resultAlias": "solr23.cmsoldgen", "attr" : [ "Usage" ], "outputWriters" : [ { "@class" : "com.googlecode.jmxtrans.model.output.GangliaWriter", "settings" : { "groupName" : "Solr-JVM", "host" : "239.2.11.71", "port" : "8649" } }] }, { "obj" : "java.lang:type=GarbageCollector,name=*", "resultAlias": "solr23.gc", "attr" : [ "CollectionCount", "CollectionTime" ], "outputWriters" : [ { "@class" : "com.googlecode.jmxtrans.model.output.GangliaWriter", "settings" : { "groupName" : "Solr-JVM", "host" : "239.2.11.71", "port" : "8649" } }] }, { "obj" : "java.lang:type=Threading", "resultAlias": "solr23.threads", "attr" : [ "DaemonThreadCount", "PeakThreadCount", "ThreadCount", "TotalStartedThreadCount" ], "outputWriters" : [ { "@class" : "com.googlecode.jmxtrans.model.output.GangliaWriter", "settings" : { "groupName" : "Solr-JVM", "host" : "239.2.11.71", "port" : "8649" } }] }, { "obj" : "solr/collection1:type=queryResultCache,id=org.apache.solr.search.LRUCache", "resultAlias": "solr23.queryCache", "attr" : [ "warmupTime","size","lookups","evictions","hits","hitratio","inserts","cumulative_lookups","cumulative_hits","cumulative_hits","cumulative_hitratio","cumulative_inserts","cumulative_evictions" ], "outputWriters" : [ { "@class" : "com.googlecode.jmxtrans.model.output.GangliaWriter", "settings" : { "groupName" : "Solr-JVM", "host" : "239.2.11.71", "port" : "8649" } }] }, { "obj" : "solr/collection1:type=searcher,id=org.apache.solr.search.SolrIndexSearcher", "resultAlias": "solr23.searcher", "attr" : [ "maxDoc","numDocs","warmupTime" ], "outputWriters" : [ { "@class" : "com.googlecode.jmxtrans.model.output.GangliaWriter", "settings" : { "groupName" : "Solr-JVM", "host" : "239.2.11.71", "port" : "8649" } }] }] }] }
配置完成后,需要依次,启动如下服务:
service httpd start //启动apache服务 /etc/init.d/gmetad start //启动绘图服务 /etc/init.d/gmond start //启动数据收集服务 这个放在solr前执行 jmx /etc/init.d/jmxtrans start //启动jmx /home/solr/start-solr.sh //启动solr
注意,solr启动的jetty的jar需要加上JMX的监控参数,内容如下:
java -Djava.rmi.server.hostname=192.168.46.23 -Dcom.sun.management.jmxremote -Dcom.sun.management.jmxremote.port=3000 -Dcom.sun.management.jmxremote.ssl=false -Dcom.sun.management.jmxremote.authenticate=false -jar start.jar
最后需要注意一点,为了防止访问apache服务出错,
如果出现:There was an error collecting ganglia data (127.0.0.1:8652): fsockopen error: Permission denied . 错误,我们需要进行以下的设置:
(1):临时可以使用命令setenforce 0来关闭selinux而不需要重启,刷新页面,即可访问! (2):永久的使用,需要关闭selinux:vi /etc/selinux/config,把SELINUX=enforcing改成SELINUX=disable;需要重启机器。
一切完成后,我们就是访问我们本机的ip地址,看到的界面如下所示:
![](http://dl2.iteye.com/upload/attachment/0097/7836/269c4f92-73c8-3146-a2aa-dae13d8ba73b.jpg)
![](http://dl2.iteye.com/upload/attachment/0097/7838/5965f06c-e117-3d4b-8282-08dde0744882.jpg)
到此,我们的单机监控solr的demo,就部署成功了,以同样的方式,我们还可以对hadoop进行监控,另外我们还可以配置多个datasource来监控多个应用。
发表评论
-
Apache Flink在阿里的使用(译)
2019-02-21 21:18 1238Flink是未来大数据实时 ... -
计算机图形处理的一些知识
2018-04-25 17:46 1240最近在搞opencv来做一些 ... -
如何在kylin中构建一个cube
2017-07-11 19:06 1304前面的文章介绍了Apache Kylin的安装及数据仓 ... -
Apache Kylin的入门安装
2017-06-27 21:27 2157Apache Kylin™是一个开源的分布式分析引擎,提供 ... -
ES-Hadoop插件介绍
2017-04-27 18:07 2007上篇文章,写了使用spark集成es框架,并向es写入数据,虽 ... -
如何在Scala中读取Hadoop集群上的gz压缩文件
2017-04-05 18:51 2149存在Hadoop集群上的文件,大部分都会经过压缩,如果是压缩 ... -
如何收集项目日志统一发送到kafka中?
2017-02-07 19:07 2805上一篇(http://qindongliang.iteye. ... -
Hue+Hive临时目录权限不够解决方案
2016-06-14 10:40 4748安装Hue后,可能会分配多个账户给一些业务部门操作hive,虽 ... -
Hadoop的8088页面失效问题
2016-03-31 11:21 4500前两天重启了测试的hadoop集群,今天访问集群的8088任 ... -
Hadoop+Hbase集群数据迁移问题
2016-03-23 21:00 2554数据迁移或备份是任何 ... -
如何监控你的Hadoop+Hbase集群?
2016-03-21 16:10 4932前言 监控hadoop的框架 ... -
Logstash与Kafka集成
2016-02-24 18:44 11685在ELKK的架构中,各个框架的角色分工如下: Elastic ... -
Kakfa集群搭建
2016-02-23 15:36 2664先来整体熟悉下Kafka的一些概念和架构 (一)什么是Ka ... -
大数据日志收集框架之Flume入门
2016-02-02 14:25 4201Flume是Cloudrea公司开源的一款优秀的日志收集框架 ... -
Apache Tez0.7编译笔记
2016-01-15 16:33 2555目前最新的Tez版本是0.8,但还不是稳定版,所以大家还 ... -
Bug死磕之hue集成的oozie+pig出现资源任务死锁问题
2016-01-14 15:52 3861这两天,打算给现有的 ... -
Hadoop2.7.1和Hbase0.98添加LZO压缩
2016-01-04 17:46 26131,执行命令安装一些依赖组件 yum install -y ... -
Hadoop2.7.1配置NameNode+ResourceManager高可用原理分析
2015-11-11 19:51 3193关于NameNode高可靠需要配置的文件有core-site ... -
设置Hadoop+Hbase集群pid文件存储位置
2015-10-20 13:40 2886有时候,我们对运行几 ... -
Hadoop+Maven项目打包异常
2015-08-11 19:36 1618先简单说下业务:有一个单独的模块,可以在远程下载Hadoop上 ...
相关推荐
在Linux集群上配置Ganglia监控系统并监控Solr的可用性,可以提供实时的系统状态信息,帮助管理员快速识别和解决性能问题。 1. **Ganglia组件详解** - **gmond** (Ganglia Metrics Daemon):在集群中的每个节点上...
通过以上步骤,你可以在Linux集群上成功部署Ganglia监控系统,并监控Solr的运行状态,为集群管理和优化提供关键的性能数据。定期检查和分析这些数据,有助于预防潜在的问题,提高集群的稳定性和效率。
4. **监控工具**:使用Solr提供的监控工具或者第三方工具(如Ganglia、Nagios等)对Solr集群进行监控。 #### 四、常见问题及解决方案 - **问题1:启动失败** - 解决方案:检查JDK环境变量是否正确设置;检查Solr的...
课时6:使用Ganglia监控HBase 课时7:过滤器实战之比较过滤器 课时8:过滤器实战之专用过滤器与FilterList 课时9:过滤器实战之自定义过滤器 课时10:Observer协处理器实战之Master级别原理剖析 课时11:Observer协...
该章节详细介绍了Hadoop分布式文件系统(HDFS)的基本原理和架构,包括如何在多台服务器上部署Hadoop集群,并进行基本的配置设置。此外,还介绍了资源管理器YARN(Yet Another Resource Negotiator)和分布式协调...
为了确保数据处理的质量和效率,书中还介绍了数据监控的相关知识,使用Hue、Nagios和Ganglia等工具来监控数据处理状态和集群性能。 对于大数据集群的管理,本书讲解了使用Ambari和CDH等管理平台来维护和优化Hadoop...