原文地址:http://www.1-blog.com/?p=38
flume-ng是时下比较流行的日志收集方案,log4j也是java领域内常用的日志组件。那有什么简单的办法把他们结合起来呢?
- 背景:
通常,我们的应用程序已经在使用log4j来记录日志了,有一天我们的日志需要导入到其他地方(同时文本日志暂时也不想丢),用来分析(hdfs)或者检索(elasticsearch),我们就想到通过一个数据管道来做这件事情,flume似乎是一个不错的选择。
- 解决方案:
- 写log4j日志的同时,集成flume-ng的SDK,同时把日志写到flume中。好处是:日志的内容和格式都可以随便定义
- 使用log4j-flume-appender,日志输出到文本的同时,也输出到flume中。好处是:基本不需要更改代码,方便快捷
结合实际考虑,决定采用第二种方式,最快捷
- 实施步骤:
1. 引入需要的lib包
最简单的方式,当然是使用maven来引入了,同时就把依赖的jar包自动包含了
<dependency>
<groupId>org.apache.flume.flume-ng-clients</groupId>
<artifactId>flume-ng-log4jappender</artifactId>
<version>1.6.0</version>
</dependency>
2. 配置log4j.xml
需要注意,为了避免记录日志对于应用程序的阻塞,最好添加AsyncAppender(所以好像就不能通过property文件来配置log4j了)。
<appender name="flumeAppender" class="org.apache.flume.clients.log4jappender.LoadBalancingLog4jAppender">
<param name="hosts" value="172.16.113.225:4141 172.16.113.219:4141" />
<param name="UnsafeMode" value="true" />
<param name="maxBackoff" value="5000" />
<param name="timeout" value="3000" />
<layout class="org.apache.log4j.PatternLayout">
<param name="ConversionPattern" value="%d [%t] (%F:%L) %-5p %c - %m%n" />
</layout>
</appender>
<appender name="async" class="org.apache.log4j.AsyncAppender">
<param name="Blocking" value="false" />
<param name="BufferSize" value="500"/>
<appender-ref ref="flumeAppender" />
</appender>
我这里采用了负载均衡的log4jappender,如果是单节点的flume的话,appender修改如下即可:
<appender name="flumeAppender" class="org.apache.flume.clients.log4jappender.Log4jAppender">
<param name="hostname" value="203.195.236.154" />
<param name="port" value="8082" />
<param name="UnsafeMode" value="true" />
<param name="timeout" value="3000" />
<layout class="org.apache.log4j.PatternLayout">
<param name="ConversionPattern" value="%d [%t] (%F:%L) %-5p %c - %m%n" />
</layout>
</appender>
另外需注意:flume-ng-log4jappender对异常部分是忽略掉的,如果想要记录这部分异常信息,需要在log4j.error的时候,把exception信息附加到message中。
详细的参数定义参考下一篇:flume-ng-log4jappender运行机制(源码)分析
相关推荐
《Flume NG与Elasticsearch 6.5.4集成详解》 Flume NG,全称为Apache Flume,是一款由Apache软件基金会开发的数据收集系统,主要用于日志聚合、监控和数据传输。它设计的目标是高效、可靠且易于扩展,特别适合...
7. **log4j-flume-ng**:Flume是Cloudera的数据收集工具,这个组件使Log4j能够与Flume协同工作,实现大规模日志数据的收集和传输。新版本可能提升了数据处理的吞吐量和可靠性。 8. **log4j-cassandra**:对于...
在集成Log4j与Flume的过程中,Avro Source是一种常用的方式。Avro Source允许远程客户端通过网络接口发送数据到Flume Agent。在这个场景中,Flume版本为1.5.2。 **步骤一:配置Flume** 首先需要对Flume的配置文件`...
- `log4j-flume-ng-2.23.1.jar`:与Apache Flume集成的插件,用于将日志发送到Flume服务器。 - `log4j-iostreams-2.23.1.jar`:提供了对I/O流的支持,例如处理输入/输出流的日志。 5. **下载慢的解决策略**: - ...
在本示例中,我们将探讨如何使用 Flume 来收集由 Log4j 产生的日志。 首先,`flume-conf.properties` 文件是 Flume 配置的核心,它定义了 Flume 的数据流拓扑。在这个示例中,你可能会看到如下的配置: ```...
创建一个文件 `1.log` 并写入 `hello flume`,然后查看 Flume 的控制台日志,应当看到如下输出: ``` 2017-03-20 15:13:51,868 (SinkRunner-PollingRunner-DefaultSinkProcessor) [INFO -org.apache.flume.sink....
<artifactId>log4j-flume-ng <version>2.6 ``` log4j2.xml配置 log4j2.xml文件是Log4j2的配置文件,用于配置日志记录方式。下面是一个简单的配置示例: ```xml <?xml version="1.0" encoding="UTF-8"?> ...
为了验证 Flume 集群的工作,可以在 hadoop12 的 `logs` 目录下创建一个测试文件,然后观察 hadoop13 上 `flume-use-case-test.log` 文件是否接收到并记录了这些数据。这可以确认 Flume 集群的正确运行。 参考文档...
3. `slf4j-api.jar`和`slf4j-log4j12.jar`:简单日志门面(SLF4J)接口和Log4j实现,用于日志记录。 4. `zookeeper.jar`:Apache ZooKeeper的jar包,Kafka通常依赖ZooKeeper来管理集群元数据。 5. `commons-lang3....
- **Client**:将原始 log 封装成 events 并发送到一个或多个 Agent 的实体,用以解耦数据源系统与 Flume。 - **Agent**:包含 Source、Channel 和 Sink 等组件,用于将 events 从一个节点传输到另一个节点或最终...
在本压缩包“flume+hdfs所需jar.rar”中,包含了 Flume 1.9.0 版本与 HDFS 3.2.2 版本相关的 jar 文件,这些 jar 文件是将 Flume 集成到 HDFS 生态系统的关键组件。 Flume 的核心概念包括源头(Source)、通道...
然后,可以通过执行`$FLUME_HOME/bin/flume-ng agent --conf $FLUME_HOME/conf --conf-file myAgent.conf --name a1 -Dflume.root.logger=INFO,console`来启动Flume代理。 2. **配置文件**:`myAgent.conf`是Flume...
./flume-ng agent --conf /opt/flume/conf --conf-file /opt/flume/conf/kafka.conf --name agentName -Dflume.root.logger=INFO,console ``` 启动后,Flume会开始监控日志文件,并将新产生的日志行实时地发送到...
在Flume的根目录下,通过`bin/flume-ng agent -c conf/ -n a1 -f jobs/flume-kafka.conf`启动Flume代理。 6. **测试**: 向`/opt/module/data/flume.log`文件追加数据,例如`echo hello >> /opt/module/data/...
**Flume NG Tail-File-Source详解** Flume NG(Next Generation)是Apache Flume的升级版,它是一个分布式、可靠且可用于有效收集、聚合和移动大量日志数据的系统。Tail-File-Source是Flume NG中的一个重要组件,专...
《Flume 1.7与Elasticsearch 5.2.2的数据集成详解》 在大数据处理领域,数据采集、传输和存储是至关重要的环节。Apache Flume作为一款高效、可靠且灵活的数据收集系统,广泛应用于日志收集、聚合以及传输。而...