`
ynp
  • 浏览: 438426 次
  • 性别: Icon_minigender_1
  • 来自: 北京
社区版块
存档分类
最新评论

storm、hbase、kafka整合过程中遇到的log4j冲突问题

阅读更多
storm、hbase、kafka整合过程中遇到的log4j冲突问题

---》报错
SLF4J: Detected both log4j-over-slf4j.jar AND slf4j-log4j12.jar on the class path, preempting StackOverflowError.
SLF4J: See also http://www.slf4j.org/codes.html#log4jDelegationLoop for more details.

10059 [Thread-15-KafkaSpout] ERROR backtype.storm.util - Async loop died!
java.lang.NoClassDefFoundError: Could not initialize class org.apache.log4j.Log4jLoggerFactory
at org.apache.log4j.Logger.getLogger(Logger.java:39) ~[log4j-over-slf4j-1.6.6.jar:1.6.6]
at kafka.utils.Logging$class.logger(Logging.scala:24) ~[kafka_2.11-0.8.2.1.jar:na]

---》原因
log4j-over-slf4j.jar AND slf4j-log4j12.jar 循环调用冲突了,再进一步原因是kafka、hbase中用的是log4j。

---》解决方法

* 方案一:把storm中的log4j-over-slf4j 依赖排除;
		<dependency>
			<groupId>org.apache.storm</groupId>
			<artifactId>storm-core</artifactId>
			<version>0.9.5</version>
			<scope>provided</scope>
			<exclusions>
				<exclusion>
					<groupId>org.slf4j</groupId>
					<artifactId>log4j-over-slf4j</artifactId>
				</exclusion>
			</exclusions>
		</dependency>
			     	
		<dependency>
			<groupId>org.apache.kafka</groupId>
			<artifactId>kafka_2.11</artifactId>
			<version>0.8.2.1</version>
		</dependency>
		
		<dependency>
			<groupId>org.apache.hbase</groupId>
			<artifactId>hbase-client</artifactId>
			<version>1.0.1.1</version>
		</dependency>


* 方案二:把kafka和hbase中的slf4j-log4j12 依赖排除;

		<dependency>
			<groupId>org.apache.storm</groupId>
			<artifactId>storm-core</artifactId>
			<version>0.9.5</version>
			<scope>provided</scope>
			<exclusions>
				<exclusion>
					<groupId>org.slf4j</groupId>
					<artifactId>log4j-over-slf4j</artifactId>
				</exclusion>
				<exclusion>
					<groupId>org.slf4j</groupId>
					<artifactId>slf4j-api</artifactId>
				</exclusion>
			</exclusions>
			 -->
		</dependency>
			     	
		<dependency>
			<groupId>org.apache.kafka</groupId>
			<artifactId>kafka_2.11</artifactId>
			<version>0.8.2.1</version>
			<exclusions>
		        <exclusion>
		            <groupId>org.slf4j</groupId>
		            <artifactId>slf4j-log4j12</artifactId>
		        </exclusion>
		        <exclusion>
		            <groupId>log4j</groupId>
		            <artifactId>log4j</artifactId>
		        </exclusion>
		    </exclusions>
		</dependency>
		
		<dependency>
			<groupId>org.apache.hbase</groupId>
			<artifactId>hbase-client</artifactId>
			<version>1.0.1.1</version>
			<exclusions>
		        <exclusion>
		            <groupId>org.slf4j</groupId>
		            <artifactId>slf4j-log4j12</artifactId>
		        </exclusion>
		        <exclusion>
		            <groupId>log4j</groupId>
		            <artifactId>log4j</artifactId>
		        </exclusion>
		    </exclusions>			
		</dependency>
<!-- 
		<dependency>
			<groupId>org.apache.hbase</groupId>
			<artifactId>hbase-common</artifactId>
			<version>1.0.1.1</version>
		</dependency>
		 -->
		<dependency>
			<groupId>redis.clients</groupId>
			<artifactId>jedis</artifactId>
			<version>2.7.0</version>
		</dependency>


* 采用方案二便于集群发布
* storm的日志时采用的 SLF4J和Logback日志框架,所以自己写的storm代码统一使用 slf4j 的包,可以避免大多数包冲突问题。

import org.slf4j.Logger;
import org.slf4j.LoggerFactory;

public class MyBolt {
    private static final Logger LOG = LoggerFactory
            .getLogger(MyBolt.class);
}

---》参考
http://www.tuicool.com/articles/aIzyqiy
http://stackoverflow.com/questions/21630860/storm-topology-not-submit
http://blog.csdn.net/gongmf/article/details/40379547
分享到:
评论

相关推荐

    storm-kafka-Log-Consumer:这是一个来自kafka集群的风暴日志数据处理项目,最终存储到HBase

    标题中的"storm-kafka-Log-Consumer"是一个基于Apache Storm的项目,它的主要任务是消费来自Kafka集群的日志数据。Kafka是一个分布式流处理平台,常用于实时数据管道和处理,而Storm则是一个分布式实时计算系统,...

    LogAnalyzer:分析大数据组件的客户日志,例如HDFS,Hive,HBase,Yarn,MapReduce,Storm,Spark,Spark 2,Knox,Ambari Metrics,Nifi,Accumulo,Kafka,Flume,Oozie,Falcon,Atlas和Zookeeper

    日志分析器-分析大数据组件的客户日志,例如HDFS,Hive,HBase,Yarn,MapReduce,Storm,Spark,Spark 2,Knox,Ambari Metrics,Nifi,Accumulo,Kafka,Flume,Oozie,Falcon,Atlas和Zookeeper。 内部架构 分析...

    大数据课程体系.docx

    - **集群搭建常见问题解决**:总结集群搭建过程中可能遇到的问题及其解决方案。 - **Storm常用组件和编程API**:介绍Topology、Spout、Bolt等核心组件的使用方法。 - **Storm分组策略(stream groupings)**:解释...

    Kafka & Mafka技术分享及讨论

    - **Apache Kylin (Hadoop+Spark+Kafka+HBase) 大数据 OLAP 引擎:** 为数据分析提供了高性能的查询能力。 - **Kafka 作为纯消息系统:** 在许多需要高吞吐量和低延迟的应用场景中发挥着重要作用。 #### 关键角色与...

    千锋-kafka11

    - 灵活性:Kafka支持多种数据集成,如与Hadoop、HBase、Solr等大数据处理框架集成,也支持与Storm、Spark等实时流处理工具配合使用。 4. Kafka的部署与配置 Kafka的部署通常包括安装JDK、ZooKeeper和Kafka本身。...

    apache-storm-0.9.3

    通过log4j配置,可以方便地管理和查看日志。 5. **应用场景** - **实时分析**:在广告定向、社交媒体分析等领域,实时处理用户行为数据,快速响应市场变化。 - **数据清洗与预处理**:对大量原始数据进行清洗、...

    summingbird-storm_2.9.3-0.3.2.zip

    【标题】"summingbird-storm_2.9.3-0.3.2.zip" 涉及的知识点主要集中在大数据处理框架Summingbird和流处理系统Storm上。 Summingbird是Twitter开源的一个大数据实时计算框架,它将离线批处理(如Apache Hadoop)与...

    大数据技术分享.pptx

    HBase的存储结构由RegionServer、Region、Memcache、Log和Store组成。HBase的数据存储方式不同于传统的关系数据库,它是基于列的而不是基于行的模式,这使得HBase在处理大数据时具有很高的效率。 数据分析 在数据...

    《大数据平台搭建与配置管理》期末考试卷及答案.docx

    - **知识点**: Storm可以方便地与Hadoop、Kafka等多种大数据生态系统中的组件进行整合,以便更好地处理流式数据。 #### 二、填空题解析 21. **JDK安装路径** - **知识点**: 安装JDK后,Java的开发工具(如javac...

    《大数据平台搭建与配置管理》期末试题试卷及答案AB卷2套.docx

    试题中还涉及了文件系统的操作(如删除、权限检查),Java基础(类定义、import语句),以及Hadoop生态系统的其他组件,如YARN、HDFS的块和副本策略、Hive的数据模型(行、列族、表分区)、HBase的LSM(Log-...

    亿级大数据实时分析平台.pptx

    小米的数据统计分析平台架构包括LVS/NGINX Analytics Server、Scribe Log、HDFS、Kafka、Storm、MapReduce、Spark、HBase、MySQL、ES Query Server和Redis等组件。HBase因其天生适合大数据处理、灵活的Schema变更、...

    java核心知识点整理

    - 日志框架如Log4j、Logback和SLF4J用于记录应用程序运行过程中的信息,便于调试和问题追踪。 8. 消息中间件: - Kafka和RabbitMQ是常用的消息队列,用于异步处理和解耦系统组件。 - HBase、MongoDB和Cassandra...

    美团点评技术团队-餐饮生态大数据架构实践.pdf

    在这个过程中,美团构建了一套高效、灵活的大数据架构,旨在解决业务问题,最大化数据的价值,并驱动业务的持续发展。 1. **大数据架构概述**:美团的技术团队构建了一个全面的数据处理平台,它涵盖了数据采集、...

    亿级大数据实时分析之旅v520.pdf

    - **运营洞察**:LVS/NGINX、Analytics Server、Scribe、Log、Kafka、Storm、FE-WEB、Query Server、MapReduce、Spark、Redis、HDFS、ES、HBase、MySQL、DRUID。 通过文档中的描述,可以得知小米在大数据实时分析的...

    架构设计思路样例.zip

    3. **采集框架**:选择或自建适合的日志采集工具,如Log4j、Fluentd、Logstash等,以实时或批量方式收集日志。 4. **数据传输**:设计安全、高效的数据传输机制,确保日志能够及时、完整地传输到处理中心。 5. **...

    apache-flink

    Flink 与YARN和Mesos等资源管理工具兼容,并能够处理存储在HDFS、HBase、Kafka等系统中的数据流。 Flink的设计愿景是结合传统数据库技术和Hadoop技术的优点,创造出一个既具备传统数据库的“什么”(What)—即声明...

    xmljava系统源码-bigdata:大数据平台

    操作审计(hdfs,hive,hbase,kafka,storm等) 能知道谁在什么时候操作了什么资源 5 权限控制(支持hdfs,hive,hbase,kafka,storm等) 支持行列级的权限管理 6 监控告警(不止是系统的监控 还包括各种组件的jvm metrics的...

    Github Account

    推荐系统的整体架构包括前端系统(如Android、iOS、HTML5等)、后端系统(Nginx、Java、Spring等)、日志系统(scribe、flume、log stash、kafka等)、ETL系统(离线如Spark、Map/Reduce,在线如Spark Streaming、...

Global site tag (gtag.js) - Google Analytics