opentsdb连接put数据出错:
18:58:48.828 INFO [HBaseClient.discoverRegion] - Added client for region RegionInfo(table="tsdb-uid", region_name="tsdb-uid,,1464928116200.6008e69480bee4c8136374971c58a6cc.", stop_key=""), which was added to the regions cache. Now we know that RegionClient@1925314656(chan=[id: 0xde5b3969, /127.0.0.1:53708 => /127.0.1.1:54574], #pending_rpcs=0, #batched=0, #rpcs_inflight=0) is hosting 1 region.
18:58:48.830 ERROR [ConnectionManager.exceptionCaught] - Unexpected exception from downstream for [id: 0x3e4a858e, /127.0.0.1:58049 => /127.0.0.1:4242]
java.io.IOException: Broken pipe
at sun.nio.ch.FileDispatcherImpl.write0(Native Method) ~[na:1.7.0_101]
at sun.nio.ch.SocketDispatcher.write(SocketDispatcher.java:47) ~[na:1.7.0_101]
at sun.nio.ch.IOUtil.writeFromNativeBuffer(IOUtil.java:93) ~[na:1.7.0_101]
at sun.nio.ch.IOUtil.write(IOUtil.java:51) ~[na:1.7.0_101]
at sun.nio.ch.SocketChannelImpl.write(SocketChannelImpl.java:492) ~[na:1.7.0_101]
at org.jboss.netty.channel.socket.nio.SocketSendBufferPool$UnpooledSendBuffer.transferTo(SocketSendBufferPool.java:203) ~[netty-3.9.4.Final.jar:na]
at org.jboss.netty.channel.socket.nio.AbstractNioWorker.write0(AbstractNioWorker.java:201) [netty-3.9.4.Final.jar:na]
at org.jboss.netty.channel.socket.nio.AbstractNioWorker.writeFromUserCode(AbstractNioWorker.java:146) [netty-3.9.4.Final.jar:na]
at org.jboss.netty.channel.socket.nio.NioServerSocketPipelineSink.handleAcceptedSocket(NioServerSocketPipelineSink.java:99) [netty-3.9.4.Final.jar:na]
at org.jboss.netty.channel.socket.nio.NioServerSocketPipelineSink.eventSunk(NioServerSocketPipelineSink.java:36) [netty-3.9.4.Final.jar:na]
at org.jboss.netty.channel.DefaultChannelPipeline$DefaultChannelHandlerContext.sendDownstream(DefaultChannelPipeline.java:779) [netty-3.9.4.Final.jar:na]
at org.jboss.netty.channel.SimpleChannelHandler.writeRequested(SimpleChannelHandler.java:292) [netty-3.9.4.Final.jar:na]
at org.jboss.netty.channel.SimpleChannelHandler.handleDownstream(SimpleChannelHandler.java:254) [netty-3.9.4.Final.jar:na]
at org.jboss.netty.channel.DefaultChannelPipeline.sendDownstream(DefaultChannelPipeline.java:591) [netty-3.9.4.Final.jar:na]
at org.jboss.netty.channel.DefaultChannelPipeline$DefaultChannelHandlerContext.sendDownstream(DefaultChannelPipeline.java:784) [netty-3.9.4.Final.jar:na]
at org.jboss.netty.channel.Channels.write(Channels.java:725) [netty-3.9.4.Final.jar:na]
at org.jboss.netty.handler.codec.oneone.OneToOneEncoder.doEncode(OneToOneEncoder.java:71) [netty-3.9.4.Final.jar:na]
at org.jboss.netty.handler.codec.oneone.OneToOneEncoder.handleDownstream(OneToOneEncoder.java:59) [netty-3.9.4.Final.jar:na]
at org.jboss.netty.channel.DefaultChannelPipeline.sendDownstream(DefaultChannelPipeline.java:591) [netty-3.9.4.Final.jar:na]
at org.jboss.netty.channel.DefaultChannelPipeline.sendDownstream(DefaultChannelPipeline.java:582) [netty-3.9.4.Final.jar:na]
at org.jboss.netty.channel.Channels.write(Channels.java:704) [netty-3.9.4.Final.jar:na]
at org.jboss.netty.channel.Channels.write(Channels.java:671) [netty-3.9.4.Final.jar:na]
at org.jboss.netty.channel.AbstractChannel.write(AbstractChannel.java:248) [netty-3.9.4.Final.jar:na]
at net.opentsdb.tsd.PutDataPointRpc.execute(PutDataPointRpc.java:93) [tsdb-2.2.0RC3.jar:6d2e8dd]
at net.opentsdb.tsd.RpcHandler.handleTelnetRpc(RpcHandler.java:162) [tsdb-2.2.0RC3.jar:6d2e8dd]
at net.opentsdb.tsd.RpcHandler.messageReceived(RpcHandler.java:132) [tsdb-2.2.0RC3.jar:6d2e8dd]
at org.jboss.netty.channel.SimpleChannelUpstreamHandler.handleUpstream(SimpleChannelUpstreamHandler.java:70) [netty-3.9.4.Final.jar:na]
at org.jboss.netty.handler.timeout.IdleStateAwareChannelUpstreamHandler.handleUpstream(IdleStateAwareChannelUpstreamHandler.java:36) [netty-3.9.4.Final.jar:na]
at org.jboss.netty.channel.DefaultChannelPipeline.sendUpstream(DefaultChannelPipeline.java:564) [netty-3.9.4.Final.jar:na]
at org.jboss.netty.channel.DefaultChannelPipeline$DefaultChannelHandlerContext.sendUpstream(DefaultChannelPipeline.java:791) [netty-3.9.4.Final.jar:na]
at org.jboss.netty.handler.timeout.IdleStateHandler.messageReceived(IdleStateHandler.java:294) [netty-3.9.4.Final.jar:na]
at org.jboss.netty.channel.SimpleChannelUpstreamHandler.handleUpstream(SimpleChannelUpstreamHandler.java:70) [netty-3.9.4.Final.jar:na]
at org.jboss.netty.channel.DefaultChannelPipeline.sendUpstream(DefaultChannelPipeline.java:564) [netty-3.9.4.Final.jar:na]
at org.jboss.netty.channel.DefaultChannelPipeline$DefaultChannelHandlerContext.sendUpstream(DefaultChannelPipeline.java:791) [netty-3.9.4.Final.jar:na]
at org.jboss.netty.channel.Channels.fireMessageReceived(Channels.java:296) [netty-3.9.4.Final.jar:na]
at org.jboss.netty.handler.codec.oneone.OneToOneDecoder.handleUpstream(OneToOneDecoder.java:70) [netty-3.9.4.Final.jar:na]
at org.jboss.netty.channel.DefaultChannelPipeline.sendUpstream(DefaultChannelPipeline.java:564) [netty-3.9.4.Final.jar:na]
at org.jboss.netty.channel.DefaultChannelPipeline$DefaultChannelHandlerContext.sendUpstream(DefaultChannelPipeline.java:791) [netty-3.9.4.Final.jar:na]
at org.jboss.netty.channel.Channels.fireMessageReceived(Channels.java:296) [netty-3.9.4.Final.jar:na]
at org.jboss.netty.handler.codec.frame.FrameDecoder.unfoldAndFireMessageReceived(FrameDecoder.java:462) [netty-3.9.4.Final.jar:na]
at org.jboss.netty.handler.codec.frame.FrameDecoder.callDecode(FrameDecoder.java:443) [netty-3.9.4.Final.jar:na]
at org.jboss.netty.handler.codec.frame.FrameDecoder.messageReceived(FrameDecoder.java:303) [netty-3.9.4.Final.jar:na]
at org.jboss.netty.channel.SimpleChannelUpstreamHandler.handleUpstream(SimpleChannelUpstreamHandler.java:70) [netty-3.9.4.Final.jar:na]
at org.jboss.netty.channel.DefaultChannelPipeline.sendUpstream(DefaultChannelPipeline.java:564) [netty-3.9.4.Final.jar:na]
at org.jboss.netty.channel.DefaultChannelPipeline$DefaultChannelHandlerContext.sendUpstream(DefaultChannelPipeline.java:791) [netty-3.9.4.Final.jar:na]
at org.jboss.netty.channel.SimpleChannelHandler.messageReceived(SimpleChannelHandler.java:142) [netty-3.9.4.Final.jar:na]
at org.jboss.netty.channel.SimpleChannelHandler.handleUpstream(SimpleChannelHandler.java:88) [netty-3.9.4.Final.jar:na]
at net.opentsdb.tsd.ConnectionManager.handleUpstream(ConnectionManager.java:87) [tsdb-2.2.0RC3.jar:6d2e8dd]
at org.jboss.netty.channel.DefaultChannelPipeline.sendUpstream(DefaultChannelPipeline.java:564) [netty-3.9.4.Final.jar:na]
at org.jboss.netty.channel.DefaultChannelPipeline.sendUpstream(DefaultChannelPipeline.java:559) [netty-3.9.4.Final.jar:na]
at org.jboss.netty.channel.Channels.fireMessageReceived(Channels.java:268) [netty-3.9.4.Final.jar:na]
at org.jboss.netty.channel.Channels.fireMessageReceived(Channels.java:255) [netty-3.9.4.Final.jar:na]
at org.jboss.netty.channel.socket.nio.NioWorker.read(NioWorker.java:88) [netty-3.9.4.Final.jar:na]
at org.jboss.netty.channel.socket.nio.AbstractNioWorker.process(AbstractNioWorker.java:108) [netty-3.9.4.Final.jar:na]
at org.jboss.netty.channel.socket.nio.AbstractNioSelector.run(AbstractNioSelector.java:318) [netty-3.9.4.Final.jar:na]
at org.jboss.netty.channel.socket.nio.AbstractNioWorker.run(AbstractNioWorker.java:89) [netty-3.9.4.Final.jar:na]
at org.jboss.netty.channel.socket.nio.NioWorker.run(NioWorker.java:178) [netty-3.9.4.Final.jar:na]
at org.jboss.netty.util.ThreadRenamingRunnable.run(ThreadRenamingRunnable.java:108) [netty-3.9.4.Final.jar:na]
at org.jboss.netty.util.internal.DeadLockProofWorker$1.run(DeadLockProofWorker.java:42) [netty-3.9.4.Final.jar:na]
at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1145) [na:1.7.0_101]
at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:615) [na:1.7.0_101]
at java.lang.Thread.run(Thread.java:745) [na:1.7.0_101]
18:58:48.831 INFO [ConnectionManager.handleUpstream] - [id: 0x3e4a858e, /127.0.0.1:58049 :> /127.0.0.1:4242] DISCONNECTED
18:58:48.831 INFO [ConnectionManager.handleUpstream] - [id: 0x3e4a858e, /127.0.0.1:58049 :> /127.0.0.1:4242] UNBOUND
18:58:48.831 INFO [ConnectionManager.handleUpstream] - [id: 0x3e4a858e, /127.0.0.1:58049 :> /127.0.0.1:4242] CLOSED
18:58:48.832 INFO [ZooKeeper.close] - Session: 0x15524510325004c closed
18:58:48.832 INFO [ClientCnxn.run] - EventThread shut down
19:03:48.838 INFO [HBaseClient.channelIdle] - Closing idle connection to HBase region server: [id: 0xde5b3969, /127.0.0.1:53708 => /127.0.1.1:54574]
19:03:48.838 INFO [HBaseClient.handleDisconnect] - Channel [id: 0xde5b3969, /127.0.0.1:53708 => /127.0.1.1:54574] is disconnecting: [id: 0xde5b3969, /127.0.0.1:53708 => /127.0.1.1:54574] CLOSE
19:03:48.839 INFO [HBaseClient.removeClientFromCache] - Lost connection with the .META. region
在默认配置中: /etc/opentsdb/opentsdb.conf
tsd.core.auto_create_metrics = true 即可.
分享到:
相关推荐
opentsdb 写入数据方法,由于不提供格式化或者存储错误导致的数据点无法写入,所以不建议使用Telnet,而是使用Http API
- 在URL字段中输入OpenTSDB的HTTP API端点,例如:`http://localhost:4242/api/put` - 设置请求头为`Content-Type: application/json` - 在Body部分,选择“raw”选项卡,并设置格式为JSON,然后输入要写入的数据。 ...
OpenTSDB 的设计目标是支持数百万个数据点每秒的写入,同时在几秒钟内返回查询结果。 ### 1. 开源与工具性质 作为开源项目,OpenTSDB 的源代码可供社区成员审查、修改和贡献,这使得开发者可以根据自己的需求进行...
tcollector, 面向OpenTSDB的数据采集框架 tcollector是一个用来收集数据点并将它的存储在OpenTSDB中的框架。 它允许你编写简单的收集器,它将运行和监视。 它还处理与TSDs的通信。有关更多信息,请参见 TCollector...
为了实现高频率、高密度的能耗数据采集,研究者们提出了基于OpenTSDB(Time Series Database)和OPC(OLE for Process Control)技术的能耗数据采集存储方案。 OpenTSDB作为一种分布式的、可扩展的时间序列数据库,...
用户可以发送一系列PUT请求来插入时间序列数据,每个请求包含度量名、时间戳、值和可选的标签。 **4. 查询与聚合** OpenTSDB提供了一种强大的查询语言TQL(Time Series Query Language),允许用户按时间范围、度量...
OpenTSDB是一种分布式、可扩展的时间序列数据库,其设计目的是为了处理大量来自各种监控系统的数据,例如网络设备、操作系统或应用程序的监控数据。它基于HBase构建,能够高效地存储和检索大量时间序列数据,并且...
随着OpenTSDB 2.2版本的出现,我们现在可以围绕查询提供大量细节,因为我们专注于提高灵活性和性能。查询详细信息包括发出请求的人(通过标头和套接字),响应是什么(HTTP状态代码和/或异常)以及TSD采取的各种进程...
OpenTSDB 2.3 中文文档 OpenTSDB 2.3 中文文档 OpenTSDB 2.3 中文文档
本项目是一个风电实时采集系统,旨在通过利用Apache Flink、Kafka、OpenTSDB等技术实现实时数据采集、处理和存储,并通过Grafana进行数据可视化展示。 #### 主要组件介绍 - **Apache Flink**:是一款高性能流处理...
OpenTSDB也是一个数据绘图系统。OpenTSDB的绘制方式与其他系统略有不同。我们将在下面更详细地讨论绘图,但是现在重要的是要知道,对于OpenTSDB任何给定绘图的基础都是metric。它采用该metric,查找您选择的时间范围...
测试OpenTSDB数据写入是验证安装是否成功的重要步骤,包括: - 使用Telnet或其他API测试工具向OpenTSDB发送数据。 - 检查数据是否被正确存储和查询,通过OpenTSDB自带的Web界面或者其他工具来完成。 整体来看,安装...
OpenTSDB(Time Series Database)是一种高性能的时间序列数据库,专门设计用于处理大量的时间戳数据。它可以利用HBase作为后端存储层,为用户提供秒级的数据收集能力,支持永久存储数据,便于进行容量规划。 **1.2...
例如,假设温度传感器每秒向OpenTSDB系统发送数据。如果用户在一小时的时间跨度内查询数据,他们将收到3,600个数据点,这些数据点可以很容易地绘制出来。但是现在,如果用户要求整整一周的数据,他们将收到604,800个...
OpenTSDB是一个开源的时间序列数据库(Time Series Database,TSDB),它构建在HBase之上,专为大规模收集、存储、查询和分析时间序列数据而设计。这个“opentsdb-2.4.0.tar.gz”文件是Linux版本的OpenTSDB安装包,...
您或许想直接进入openTSDB并开始将数据写入你的TSD,但要要真正使用OpenTSDB的强大功能优势和灵活性,您可能需要暂停(先停下来)并思考您的命名模式(方式)。完成下面的操作后,您就可以继续通过Telnet或HTTP API...
OpenTSDB(Open Time Series Database)是一个分布式的、可扩展的时序数据库,专为收集、存储、查询和展示大量时间序列数据而设计。它最初由StumbleUpon开发,现在是开源社区的一个活跃项目。OpenTSDB基于HBase构建...
OpenTSDB提供了许多提取,操作和分析数据的方法。可以通过CLI工具,HTTP API查询数据,或者其通过GnuPlot图查看。开源工具如Grafana和Bseen也可以访问TSDB数据。使用OpenTSDB基于标签的系统进行查询可能有点棘手,...
OpenTSDB(全称为Open Time Series Database)是一个开源、分布式的时序数据库,设计用于大规模监控系统中存储和检索时间序列数据。它基于HBase构建,具有高度可扩展性和高吞吐量,能够处理大量的实时指标数据。在...
3. **数据传输**:收集器脚本执行完毕后,将生成的数据点发送给tcollector,tcollector再通过TCP连接将这些数据发送到OpenTSDB的时间序列数据服务(TSD)。 4. **数据存储**:TSD接收到数据后,会按照OpenTSDB的数据...