`

使用Log4j将程序日志实时写入Kafka

 
阅读更多

 

收集了日志后,可以给别的地方做实时计算

 

很多应用程序使用Log4j记录日志,如何使用Kafka实时的收集与存储这些Log4j产生的日志呢?一种方案是使用其他组件(比如Flume,或者自己开发程序)实时监控这些日志文件,然后发送至Kafka。而另外一种比较便捷的方案是使用Kafka自带的Log4jAppender,在Log4j配置文件中进行相应的配置,即可完成将Log4j产生的日志实时发送至Kafka中。

本文以Kafka0.8.2为例,介绍KafkaLog4jAppender的配置方法:

log4j.properties文件内容如下:

  1. log4j.rootLogger=INFO,console,KAFKA
  2.  
  3. ## appender KAFKA
  4. log4j.appender.KAFKA=kafka.producer.KafkaLog4jAppender
  5. log4j.appender.KAFKA.topic=lxw1234
  6. log4j.appender.KAFKA.brokerList=brokerNode1:9091,brokerNode2:9092
  7. log4j.appender.KAFKA.compressionType=none
  8. log4j.appender.KAFKA.syncSend=true
  9. log4j.appender.KAFKA.layout=org.apache.log4j.PatternLayout
  10. log4j.appender.KAFKA.layout.ConversionPattern=%d{yyyy-MM-dd HH:mm:ss} %-5p %c{1}:%%% - %m%n
  11.  
  12. ## appender console
  13. log4j.appender.console=org.apache.log4j.ConsoleAppender
  14. log4j.appender.console.target=System.err
  15. log4j.appender.console.layout=org.apache.log4j.PatternLayout
  16. log4j.appender.console.layout.ConversionPattern=%(%t) [%- %l] %m%n

注意:KAFKA appender的配置参数,和Kafka版本有关,具体参数可参考kafka.producer. KafkaLog4jAppender中的定义。

一个使用了Log4j记录日志的Java Application Demo:

  1. package com.lxw1234.kafka;
  2.  
  3. import org.apache.log4j.Logger;
  4.  
  5. public class TestLog4j2Kafka {
  6. private static Logger logger = Logger.getLogger(TestLog4j2Kafka.class);
  7. public static void main(String[] args) throws InterruptedException {
  8. for(int i = 0;<= 10; i++) {
  9. logger.info("This is Message [" + i + "] from log4j producer .. ");
  10. Thread.sleep(1000);
  11. }
  12. }
  13. }

先启动Kafka自带的consumer模拟脚本,消费Topic lxw1234的消息:

  1. cd $KAFKA_HOME/bin
  2. ./kafka-console-consumer.sh --zookeeper localhost:2181 --topic lxw1234 --from-beginning

再运行上面的Java Demo程序,控制台打印的内容:

log4j kafka

在Consumer控制台打印消费的消息:

log4j kafka

如图所示,KafkaLog4jAppender已经将消息正常发送至Kafka。

 

http://www.cnblogs.com/gaopeng527/p/5266351.html

分享到:
评论

相关推荐

    kafka_Java_Log4j

    当我们需要将Log4j的日志实时地发送到Kafka时,可以借助Kafka提供的Log4jAppender实现这一功能。现在,我们详细探讨如何配置和使用这个功能。 首先,了解`Kafka`。Kafka是一种高度可扩展和耐用的消息中间件,它允许...

    log4j写入kafka测试程序

    log4j写入kafka测试程序

    logback日志记录写入kafka

    SLF4J提供了一组API,允许我们在应用程序中插入日志语句,而具体的日志实现(如Logback、Log4j等)可以通过绑定的方式进行切换。这样,我们可以在不影响代码的情况下,选择最适合当前项目需求的日志系统。 接下来,...

    java应用使用log4j将日志发送到Kafka

    总结来说,通过集成Log4j和Kafka,Java应用可以将日志实时发送到Kafka,这样不仅提高了日志处理的效率,还便于进行大数据分析和日志集中管理。在实际应用中,可以根据具体需求调整Log4j和Kafka的配置,以实现更高效...

    log4j2+kafka

    将Log4j2与Kafka结合,首先需要在Log4j2的配置文件中添加KafkaAppender。通过设置Appender,我们可以指定日志信息被发送到哪个Kafka主题。KafkaAppender允许我们配置如Producer的相关参数,如Bootstrap Servers、...

    log4j-2.0-alpha2

    此外,通过使用AsyncAppender,可以实现异步日志写入,进一步提高了日志处理速度。 **4. 异步日志记录** Log4j 2.0支持异步日志记录,这使得在高负载环境下仍能保持高性能。异步模式利用了Java的ExecutorService,...

    将Logback日志输出到websocket

    这种组合使得应用程序能够实时地将日志信息推送到前端展示,而不仅仅是通过传统的文件或日志服务器。 描述中的关键点包括: 1. **无需读取日志文件**:传统方式下,日志通常被写入到磁盘文件中,然后由其他进程读取...

    flume 简介安装使用案例(将log4j数据写到hdfs中)

    Flume 是 Apache Hadoop 生态系统中的一个分布式、可靠且可用于有效收集、聚合和移动大量日志数据的工具。...对于 log4j 数据,Flume 可以实时监控日志文件并将其无缝地导入 HDFS,为后续的大数据分析提供基础。

    flume-kafka之日志数据模拟

    在Java环境中模拟生产环境的日志,可以通过简单的控制台输出或者使用如Log4j、SLF4J等日志框架来实现。例如,你可以创建一个Java应用,生成包含特定格式的日志信息,并将其写入到Flume正在监控的目录中: ```java ...

    spring-boot-kafka-log:该项目是一个示例应用程序,该应用程序将通过Kafka将写入日志文件的日志记录到Elasticsearch中

    先决条件码头工人Docker撰写安装docker-compose up -d使用的依赖Spring启动网Spring Boot log4j2 春天卡夫卡Spring Boot数据Elasticsearch 弹簧启动执行器Sringdoc OpenApi 弹簧启动执行器Spring Boot配置处理器...

    springBoot整合kafka和elasticSearch,实现批量拉取日志以及批量更新到es里

    本项目将详细讲解如何利用SpringBoot整合Kafka和Elasticsearch,实现日志的批量拉取和更新。 首先,我们需要在SpringBoot项目中引入相应的依赖。对于Kafka,我们需要添加`spring-kafka`依赖,它提供了与Kafka交互的...

    spark通过kafka-appender指定日志输出到kafka引发的死锁问题

    标题中的“spark通过kafka-appender指定日志输出到kafka引发的死锁问题”指出,在使用Apache Spark并配置Kafka-Appender(一个Log4j的插件)将Spark任务的日志输出到Kafka时,可能会遇到死锁的问题。这个问题可能...

    使用kafka进行自定义注解日志存储,日志存储使用的是influxDB数据库

    消费者从Kafka主题中拉取消息,解析出日志数据,然后将这些数据写入InfluxDB,形成完整的日志存储链路。 在实际应用中,我们需要注意以下几点: 1. **数据格式**:确保日志数据格式适合InfluxDB的写入要求,通常...

    基于springboot+kafka的日志处理系统.zip

    生产者(Producer)将日志写入Kafka主题(Topic),而消费者(Consumer)则从这些主题中读取并处理日志。Kafka的高可用性和可扩展性使其成为大数据实时处理的理想选择。 在本项目中,Spring Boot应用会作为Kafka的...

    springboot - 2.7.3版本 - (八)ELK整合Kafka

    在Logstash配置文件(如`logstash.conf`)中,我们需要定义一个input插件来读取Kafka主题,以及output插件将处理后的日志写入Elasticsearch。 ```ruby input { kafka { bootstrap_servers =&gt; "localhost:9092" ...

    PyFlink UDF 实时日志监控告警实现

    在 PyFlink 中,可以使用 `StreamExecutionEnvironment` 创建流处理环境,然后定义数据源、数据转换(包括应用 UDF)和数据接收器(如打印或写入数据库)。 ```python from pyflink.streaming import ...

    kafka配置调优实践

    * 不要将 kafka 的日志和其他应用日志与 kafka 的数据盘放在一起,让数据盘专注于 kafka 数据的写入,减少对 kafka 顺序写数据的影响。 二、垃圾回收优化 * 使用 G1 垃圾回收器,可以减少长时间 STW 的情况,避免 ...

    kafka入门必备手册

    4. 日志聚合:从多个服务中收集日志,并将日志数据发送到中央日志服务中。 5. 流处理:Kafka可以作为流处理平台,结合其他工具如Apache Storm或Apache Flink进行实时分析。 6. 事件源:作为事件驱动架构的中心,存储...

    flume与kafka整合需要的jar包

    3. `slf4j-api.jar`和`slf4j-log4j12.jar`:简单日志门面(SLF4J)接口和Log4j实现,用于日志记录。 4. `zookeeper.jar`:Apache ZooKeeper的jar包,Kafka通常依赖ZooKeeper来管理集群元数据。 5. `commons-lang3....

    行业文档-设计装置-日志数据写入方法和日志系统.zip

    2. **日志库/框架**:大部分高级语言都提供了专门的日志库,如Java的Log4j、Python的logging模块。这些库提供了一套完整的日志API,支持不同级别的日志(如DEBUG、INFO、WARN、ERROR等),并允许自定义日志格式和...

Global site tag (gtag.js) - Google Analytics