ganglia中gmond是负责搜集metrics数据的。gmond被设计为使用UDP搜集metrics数据,可以方便的使用python,脚本,java来发送metrics数据给gmond。这样,gmond上就可以包含除了本身搜集的机器级别的metrics之外的metrics内容。
gmond存储的metrics的信息如下:
<GANGLIA_XML VERSION="3.6.0" SOURCE="gmond"> <CLUSTER NAME="Yarn_Cluster" LOCALTIME="1397029444" OWNER="apache" LATLONG="unspecified" URL="unspecified"> <HOST NAME="host1" IP="192.168.2.6" TAGS="" REPORTED="1397029434" TN="10" TMAX="20" DMAX="86400" LOCATION="unspecified" GMOND_STARTED=" 1395401999"> ...... <METRIC NAME="jvm.JvmMetrics.GcTimeMillis" VAL="3730009" TYPE="float" UNITS="" TN="56" TMAX="60" DMAX="0" SLOPE="both"> <EXTRA_DATA> <EXTRA_ELEMENT NAME="GROUP" VAL="jvm.JvmMetrics"/> </EXTRA_DATA> </METRIC> ....... </HOST> </CLUSTER> </GANGLIA_XML>
可以看出,ganglia中的一个metrics是属于某个集群的某个机器的。它本身的属性有:NAME="jvm.JvmMetrics.GcTimeMillis" VAL="3730009" TYPE="float" UNITS="" TN="56" TMAX="60" DMAX="0" SLOPE="both"。很多属性都是自描述的,不再赘述。
其中slope比较重要。它的取值有zero,negative,positive和both。分别代表metrics的值不变,递减,递增和可以增加也可以减少。一般来说可以用both。但是RRD对其他三种数据结构有存储上的优化,所以如果确定值的趋势,可以选用前面的两个。
但是选择的时候一定要想清楚。有些值可能在应用运行的时候确实是递增的,但是随着程序的重启,可能又会重新计数,这时候RRD会被这种值扰乱,导致生成的图片也是无意义的。实际工作中,我们使用的hadoop就有一些metrics采取了positive,结果集群一重启就导致这些metrics没法看了。
下面是一个简单的java 的GangliaMetricsSender实现:
import org.apache.hadoop.metrics.spi.Util; import java.io.IOException; import java.net.*; import java.util.HashMap; import java.util.List; import java.util.Map; /** * This is NOT thread safe. * <p/> * User: mzang * Date: 1/7/14 * Time: 3:55 PM */ public class GangliaSender { public static final int SLOPE_ZERO = 0; public static final int SLOPE_POSITIVE = 1; public static final int SLOPE_NEGATIVE = 2; public static final int SLOPE_BOTH = 3; public static final int SPOOF_FALSE = 0; public static final int SPOOF_TRUE = 1; public static String intType = "int32"; public static String doubleType = "double"; public static String floatType = "float"; public int defaultSlope = SLOPE_BOTH; public int defaultSpoof = SPOOF_TRUE; public int tmax = 60; public int dmax = 0; public String units = ""; private List<InetSocketAddress> metricsServers; private DatagramSocket datagramSocket; protected byte[] buffer = new byte[1500]; protected int offset; public GangliaSender(String targetGmonds) { init(targetGmonds); } private void init(String targetGmonds) { metricsServers = Util.parse(targetGmonds, 8649); try { datagramSocket = new DatagramSocket(); } catch (SocketException se) { se.printStackTrace(); } } public void sendMetricInt32(String hostName, String metricName, int value) { try { this.sendMetric(hostName, metricName, intType, units, String.valueOf(value), defaultSpoof, defaultSlope, tmax, dmax); } catch (IOException e) { e.printStackTrace(); } } public void sendMetricDouble(String hostName, String metricName, double value) { try { this.sendMetric(hostName, metricName, doubleType, units, String.valueOf(value), defaultSpoof, defaultSlope, tmax, dmax); } catch (IOException e) { e.printStackTrace(); } } public void sendMetricFloat(String hostName, String metricName, double value) { try { this.sendMetric(hostName, metricName, floatType, units, String.valueOf(value), defaultSpoof, defaultSlope, tmax, dmax); } catch (IOException e) { e.printStackTrace(); } } public static void main(String[] args) throws UnknownHostException { String hostName1 = "192.168.5.9"; String metricName1 = "postive"; GangliaSender gs1 = new GangliaSender("host1:8649"); gs1.defaultSlope = SLOPE_POSITIVE; gs1.defaultSpoof = SPOOF_TRUE; String hostName2 = "192.168.5.22"; String metricName2 = "nagative"; GangliaSender gs2 = new GangliaSender("host2:8649"); gs2.defaultSlope = SLOPE_NEGATIVE; gs2.defaultSpoof = SPOOF_TRUE; String hostName3 = "192.168.5.33"; String metricName3 = "both"; GangliaSender gs3 = new GangliaSender("host3:8649"); gs3.defaultSlope = SLOPE_BOTH; gs3.defaultSpoof = SPOOF_TRUE; int positive = 0; int negative = 0; while (true) { gs1.sendMetricFloat(hostName1, metricName1 + ".doublevalue", positive += (Math.random() * 1000)); gs1.sendMetricInt32(hostName1, metricName1 + ".intvalue", positive += (int) (Math.random() * 1000)); gs2.sendMetricDouble(hostName2, metricName2 + ".doublevalue", negative -= (Math.random() * 1000)); gs2.sendMetricInt32(hostName2, metricName2 + ".intvalue", negative -= (int) (Math.random() * 1000)); gs3.sendMetricDouble(hostName3, metricName3 + ".doublevalue", (Math.random() * 1000)); gs3.sendMetricInt32(hostName3, metricName3 + ".intvalue", (int) (Math.random() * 1000)); try { Thread.sleep(1000); } catch (InterruptedException e) { } } } private static Map<String, String> hostname2IP = new HashMap<String, String>(); private static String getIPByHostname(String hostname) { String ip = hostname2IP.get(hostname); if (ip == null) { InetAddress ia = null; try { ia = InetAddress.getByName(hostname); ip = ia.getHostAddress(); } catch (UnknownHostException e) { e.printStackTrace(); ip = "NA"; } hostname2IP.put(hostname, ip); } return ip; } public void sendMetric(String hostName, String metricName, String type, String units, String value, int spoof, int slope, int tmax, int dmax) throws IOException { // format must be ip:hostname, e.g. 1.2.3.4:server000001 String ipAndHostName = getIPByHostname(hostName) + ":" + hostName; String groupName = metricName.substring(0, metricName.lastIndexOf(".")); // The following XDR recipe was done through a careful reading of // gm_protocol.x in Ganglia 3.1 and carefully examining the output of // the gmetric utility with strace. // First we send out a metadata message xdr_int(128); // metric_id = metadata_msg xdr_string(ipAndHostName); // hostname xdr_string(metricName); // metric name xdr_int(spoof); // spoof = True xdr_string(type); // metric type xdr_string(metricName); // metric name xdr_string(units); // units xdr_int(slope); // slope xdr_int(tmax); // tmax, the maximum time between metrics xdr_int(dmax); // dmax, the maximum data value xdr_int(1); /*Num of the entries in extra_value field for Ganglia 3.1.x*/ xdr_string("GROUP"); /*Group attribute*/ xdr_string(groupName); /*Group value*/ sendMetricData(); // Now we send out a message with the actual value. // Technically, we only need to send out the metadata message once for // each metric, but I don't want to have to record which metrics we did and // did not send. xdr_int(133); // we are sending a string value xdr_string(ipAndHostName); // ipAndHostName xdr_string(metricName); // metric name xdr_int(spoof); // spoof = True xdr_string("%s"); // format field xdr_string(value); // metric value sendMetricData(); } /** * Puts a string into the buffer by first writing the size of the string * as an int, followed by the bytes of the string, padded if necessary to * a multiple of 4. */ protected void xdr_string(String s) { byte[] bytes = s.getBytes(); int len = bytes.length; xdr_int(len); System.arraycopy(bytes, 0, buffer, offset, len); offset += len; pad(); } /** * Pads the buffer with zero bytes up to the nearest multiple of 4. */ private void pad() { int newOffset = ((offset + 3) / 4) * 4; while (offset < newOffset) { buffer[offset++] = 0; } } /** * Puts an integer into the buffer as 4 bytes, big-endian. */ protected void xdr_int(int i) { buffer[offset++] = (byte) ((i >> 24) & 0xff); buffer[offset++] = (byte) ((i >> 16) & 0xff); buffer[offset++] = (byte) ((i >> 8) & 0xff); buffer[offset++] = (byte) (i & 0xff); } protected void sendMetricData() throws IOException { try { for (SocketAddress socketAddress : metricsServers) { DatagramPacket packet = new DatagramPacket(buffer, offset, socketAddress); datagramSocket.send(packet); } } finally { offset = 0; } } }
代码参考了hadoop中向ganglia发送metrics的实现。
其中需要说明一下的是spoof这个属性值。gmond在收到一个metrics之后。如果spoof=true,那么就会采用metrics中执行的hostname和ip作为metrics的hostname和ip,否则,gmond会忽视这两个属性,而是用真正发送这个UDP包的hostname和ip作为metrics的hostname和ip。这是个坑…………
当然也有项目完成用java发送metrics到ganglia的功能:https://github.com/ganglia/gmetric4j
但是这个包相当的繁琐。。。其实挺简单的功能被设计的非常复杂。。。可能正是这个原因,hadoop选择自己写而不是依赖这个包吧。。。其实作为客户端,功能非常简单直接:根据参数构造UDP数据包,然后发给指定的gmond(s)。
也有项目将jmx整合进入ganglia http://ellios.github.io/blog/2013/04/16/ganglia-java/
相关推荐
3. **Gmetric**:Ganglia的客户端工具,用于在本地主机上收集性能数据并发送到Ganglia聚合服务器。 4. **Gmond**:Ganglia的守护进程(daemon),运行在每个节点上,接收来自Gmetric的数据,并将这些信息广播给其他...
部门绩效考核评价表excel
全面的公司行政费用统计表
视觉跟踪算法综述.pdf
CMD 命令行高级教程精选合编
1、文件内容:apr-devel-1.4.8-7.el7.rpm以及相关依赖 2、文件形式:tar.gz压缩包 3、安装指令: #Step1、解压 tar -zxvf /mnt/data/output/apr-devel-1.4.8-7.el7.tar.gz #Step2、进入解压后的目录,执行安装 sudo rpm -ivh *.rpm 4、安装指导:私信博主,全程指导安装
10-4-生产主管绩效考核表(自动计算、等级评价)
深度学习python基础(第三节) 函数、列表
岗位绩效考核评定表excel表格模板
成品库仓管员绩效考核表
一、智慧环卫管理平台的建设背景与目标 智慧环卫管理平台的建设源于对环卫管理全面升级的需求。当前,城管局已拥有139辆配备车载GPS系统、摄像头和油耗传感器的环卫车辆,但环卫人员尚未配备智能移动终端,公厕也缺乏信息化系统和智能终端设备。为了提升环卫作业效率、实现精细化管理并节省开支,智慧环卫管理平台应运而生。该平台旨在通过信息化技术和软硬件设备,如车载智能终端和环卫手机App,实时了解环卫人员、车辆的工作状态、信息和历史记录,使环卫作业管理透明化、精细化。同时,平台还期望通过数据模型搭建和数据研读,实现更合理的环卫动态资源配置,为环卫工作的科学、健康、持续发展提供决策支持。 二、智慧环卫管理平台的建设内容与功能 智慧环卫管理平台的建设内容包括运行机制体制建设、业务流程设计、智慧公厕系统建设、网络建设、主机和储存平台需求、平台运维管理体系、硬件标准规范体系以及考核评价体系等多个方面。其中,智慧公厕系统建设尤为关键,它能实时监控公厕运行状态,保障公厕的清洁和正常运行。平台建设还充分利用了现有的电子政务网络资源,并考虑了有线和无线网络的需求。在功能上,平台通过普查、整合等手段全面收集环卫车辆、企业、人员、设施、设备等数据,建立智慧环卫基础数据库。利用智能传感、卫星定位等技术实现环卫作业的在线监管和远程监控,实现对道路、公共场所等的作业状况和卫生状况的全面监管。此外,平台还建立了环卫作业网格化管理责任机制,实现从作业过程到结果的全面监管,科学评价区域、部门、单位和人员的作业效果。 三、智慧环卫管理平台的效益与风险规避 智慧环卫管理平台的建设将带来显著的环境、经济和管理效益。环境方面,它将有力推进环境卫生监管服务工作,改善环境卫生状况,为人民群众创造更加清洁、卫生的工作和生活环境。经济方面,通过智慧化监管,大大降低了传统管理手段的成本,提高了监管的准确性和效率。管理方面,平台能够追踪溯源市民反映的问题,如公厕异味、渣土车辆抛洒等,并找到相应的责任单位进行处置,防止类似事件再次发生。同时,平台还拥有强大的预警机制功能,能够在很多环卫问题尚未出现前进行处置。然而,平台建设也面临一定的风险,如部门协调、配合问题,建设单位选择风险以及不可预测的自然灾害等。为了规避这些风险,需要加强领导、统一思想,选择优秀的系统集成商承接项目建设,并做好计算机和应用系统的培训工作。同时,也要注意标准制定工作和相关法律法规的制定工作,以保证系统建设完成后能够真正为环卫管理工作带来便利。
基于平衡计分卡绩效考核表(管理高层)模板
网站运营各部门绩效考核表
XX公司行政部绩效考核指标
基于齿向修形的抛物线锥齿轮仿真分析.pdf
三相半桥逆变器低电压穿越控制策略设计:两级式光伏并网系统电路原理与容量优化报告,两级式光伏并网系统及其低电压穿越控制策略设计,容量30kW。 三相半桥逆变器,boost电路作前级。 带低电压穿越,有一万七千字的报告,没有水文字。 报告内容,电路原理,pi参数设计,bode和根轨迹分析,波形良好 ,关键词:两级式光伏并网系统;低电压穿越控制策略;30kW容量;三相半桥逆变器;boost电路;前级设计;低电压穿越功能;报告内容;电路原理;PI参数设计;Bode和根轨迹分析;波形良好。,基于30kW容量两级式光伏并网系统的控制策略设计:低电压穿越及高效逆变技术研究
毕业设计文本预测项目python源码+托尔斯泰《战争与和平》文本分析数据集-最新出炉 关于数据集 背景: 该数据集包含列夫·托尔斯泰的《战争与和平》的全文,这是一部于 1869 年出版的开创性文学作品。作为公共领域文本,它为对文学分析、自然语言处理和历史研究感兴趣的研究人员和爱好者提供了丰富的资源。这部小说以俄国拿破仑战争为背景,探讨了战争、和平和人类状况的主题。 内容: 数据集由一个纯文本文件组成,其中包含《战争与和平》的完整叙述。文本已进行预处理,以方便分析和建模,使其适用于各种应用,包括文本挖掘、情感分析和机器学习项目。该文件可通过以下链接访问:战争与和平文本数据集。
18 -广告部经理绩效考核表1