`

log4j集成flume-ng

阅读更多

原文地址:http://www.1-blog.com/?p=38

flume-ng是时下比较流行的日志收集方案,log4j也是java领域内常用的日志组件。那有什么简单的办法把他们结合起来呢?

  • 背景:

通常,我们的应用程序已经在使用log4j来记录日志了,有一天我们的日志需要导入到其他地方(同时文本日志暂时也不想丢),用来分析(hdfs)或者检索(elasticsearch),我们就想到通过一个数据管道来做这件事情,flume似乎是一个不错的选择。

  • 解决方案:
  1. 写log4j日志的同时,集成flume-ng的SDK,同时把日志写到flume中。好处是:日志的内容和格式都可以随便定义
  2. 使用log4j-flume-appender,日志输出到文本的同时,也输出到flume中。好处是:基本不需要更改代码,方便快捷

结合实际考虑,决定采用第二种方式,最快捷

  • 实施步骤:

1. 引入需要的lib包

最简单的方式,当然是使用maven来引入了,同时就把依赖的jar包自动包含了

<dependency>
        <groupId>org.apache.flume.flume-ng-clients</groupId>
        <artifactId>flume-ng-log4jappender</artifactId>
        <version>1.6.0</version>
</dependency>

2. 配置log4j.xml

需要注意,为了避免记录日志对于应用程序的阻塞,最好添加AsyncAppender(所以好像就不能通过property文件来配置log4j了)。

<appender name="flumeAppender" class="org.apache.flume.clients.log4jappender.LoadBalancingLog4jAppender">
        <param name="hosts" value="172.16.113.225:4141 172.16.113.219:4141" />
        <param name="UnsafeMode" value="true" />
        <param name="maxBackoff" value="5000" />
        <param name="timeout" value="3000" />

        <layout class="org.apache.log4j.PatternLayout">
                <param name="ConversionPattern" value="%d [%t] (%F:%L) %-5p %c - %m%n" />
        </layout>
</appender>

<appender name="async" class="org.apache.log4j.AsyncAppender">
        <param name="Blocking" value="false" />
        <param name="BufferSize" value="500"/>
        <appender-ref ref="flumeAppender" />
</appender>

我这里采用了负载均衡的log4jappender,如果是单节点的flume的话,appender修改如下即可:

<appender name="flumeAppender" class="org.apache.flume.clients.log4jappender.Log4jAppender">
        <param name="hostname" value="203.195.236.154" />
        <param name="port" value="8082" />
        <param name="UnsafeMode" value="true" />
        <param name="timeout" value="3000" />
        <layout class="org.apache.log4j.PatternLayout">
                <param name="ConversionPattern" value="%d [%t] (%F:%L) %-5p %c - %m%n" />
        </layout>
</appender>

 

另外需注意:flume-ng-log4jappender对异常部分是忽略掉的,如果想要记录这部分异常信息,需要在log4j.error的时候,把exception信息附加到message中。

详细的参数定义参考下一篇:flume-ng-log4jappender运行机制(源码)分析

分享到:
评论

相关推荐

    flume-ng-elasticsearch-sink-6.5.4.jar.zip

    《Flume NG与Elasticsearch 6.5.4集成详解》 Flume NG,全称为Apache Flume,是一款由Apache软件基金会开发的数据收集系统,主要用于日志聚合、监控和数据传输。它设计的目标是高效、可靠且易于扩展,特别适合...

    logging-log4j2-log4j-2.15.0-rc2.7z

    7. **log4j-flume-ng**:Flume是Cloudera的数据收集工具,这个组件使Log4j能够与Flume协同工作,实现大规模日志数据的收集和传输。新版本可能提升了数据处理的吞吐量和可靠性。 8. **log4j-cassandra**:对于...

    log4j+flume+kafka+storm

    在集成Log4j与Flume的过程中,Avro Source是一种常用的方式。Avro Source允许远程客户端通过网络接口发送数据到Flume Agent。在这个场景中,Flume版本为1.5.2。 **步骤一:配置Flume** 首先需要对Flume的配置文件`...

    日志-Apache-log4j2-Java-下载慢

    - `log4j-flume-ng-2.23.1.jar`:与Apache Flume集成的插件,用于将日志发送到Flume服务器。 - `log4j-iostreams-2.23.1.jar`:提供了对I/O流的支持,例如处理输入/输出流的日志。 5. **下载慢的解决策略**: - ...

    flume log4f示例源码

    在本示例中,我们将探讨如何使用 Flume 来收集由 Log4j 产生的日志。 首先,`flume-conf.properties` 文件是 Flume 配置的核心,它定义了 Flume 的数据流拓扑。在这个示例中,你可能会看到如下的配置: ```...

    集群flume详细安装步骤

    创建一个文件 `1.log` 并写入 `hello flume`,然后查看 Flume 的控制台日志,应当看到如下输出: ``` 2017-03-20 15:13:51,868 (SinkRunner-PollingRunner-DefaultSinkProcessor) [INFO -org.apache.flume.sink....

    Spring Boot使用Log4j2的实例代码

    &lt;artifactId&gt;log4j-flume-ng &lt;version&gt;2.6 ``` log4j2.xml配置 log4j2.xml文件是Log4j2的配置文件,用于配置日志记录方式。下面是一个简单的配置示例: ```xml &lt;?xml version="1.0" encoding="UTF-8"?&gt; ...

    Flume集群搭建1

    为了验证 Flume 集群的工作,可以在 hadoop12 的 `logs` 目录下创建一个测试文件,然后观察 hadoop13 上 `flume-use-case-test.log` 文件是否接收到并记录了这些数据。这可以确认 Flume 集群的正确运行。 参考文档...

    flume与kafka整合需要的jar包

    3. `slf4j-api.jar`和`slf4j-log4j12.jar`:简单日志门面(SLF4J)接口和Log4j实现,用于日志记录。 4. `zookeeper.jar`:Apache ZooKeeper的jar包,Kafka通常依赖ZooKeeper来管理集群元数据。 5. `commons-lang3....

    java大数据内容_7Flume、Kafka、Sqoop、Lucene

    - **Client**:将原始 log 封装成 events 并发送到一个或多个 Agent 的实体,用以解耦数据源系统与 Flume。 - **Agent**:包含 Source、Channel 和 Sink 等组件,用于将 events 从一个节点传输到另一个节点或最终...

    flume+hdfs所需jar.rar

    在本压缩包“flume+hdfs所需jar.rar”中,包含了 Flume 1.9.0 版本与 HDFS 3.2.2 版本相关的 jar 文件,这些 jar 文件是将 Flume 集成到 HDFS 生态系统的关键组件。 Flume 的核心概念包括源头(Source)、通道...

    flume 1.6 cdh tar包

    然后,可以通过执行`$FLUME_HOME/bin/flume-ng agent --conf $FLUME_HOME/conf --conf-file myAgent.conf --name a1 -Dflume.root.logger=INFO,console`来启动Flume代理。 2. **配置文件**:`myAgent.conf`是Flume...

    大数据采集技术-flume至kafka.pdf

    ./flume-ng agent --conf /opt/flume/conf --conf-file /opt/flume/conf/kafka.conf --name agentName -Dflume.root.logger=INFO,console ``` 启动后,Flume会开始监控日志文件,并将新产生的日志行实时地发送到...

    快速学习-Flume 对接 Kafka

    在Flume的根目录下,通过`bin/flume-ng agent -c conf/ -n a1 -f jobs/flume-kafka.conf`启动Flume代理。 6. **测试**: 向`/opt/module/data/flume.log`文件追加数据,例如`echo hello &gt;&gt; /opt/module/data/...

    tail-file-source:用于拖尾文件的 Flume NG 源

    **Flume NG Tail-File-Source详解** Flume NG(Next Generation)是Apache Flume的升级版,它是一个分布式、可靠且可用于有效收集、聚合和移动大量日志数据的系统。Tail-File-Source是Flume NG中的一个重要组件,专...

    es522_flume17_bak0827_succ_modify.zip

    《Flume 1.7与Elasticsearch 5.2.2的数据集成详解》 在大数据处理领域,数据采集、传输和存储是至关重要的环节。Apache Flume作为一款高效、可靠且灵活的数据收集系统,广泛应用于日志收集、聚合以及传输。而...

Global site tag (gtag.js) - Google Analytics