storm、hbase、kafka整合过程中遇到的log4j冲突问题
---》报错
SLF4J: Detected both log4j-over-slf4j.jar AND slf4j-log4j12.jar on the class path, preempting StackOverflowError.
SLF4J: See also http://www.slf4j.org/codes.html#log4jDelegationLoop for more details.
10059 [Thread-15-KafkaSpout] ERROR backtype.storm.util - Async loop died!
java.lang.NoClassDefFoundError: Could not initialize class org.apache.log4j.Log4jLoggerFactory
at org.apache.log4j.Logger.getLogger(Logger.java:39) ~[log4j-over-slf4j-1.6.6.jar:1.6.6]
at kafka.utils.Logging$class.logger(Logging.scala:24) ~[kafka_2.11-0.8.2.1.jar:na]
---》原因
log4j-over-slf4j.jar AND slf4j-log4j12.jar 循环调用冲突了,再进一步原因是kafka、hbase中用的是log4j。
---》解决方法
* 方案一:把storm中的log4j-over-slf4j 依赖排除;
<dependency>
<groupId>org.apache.storm</groupId>
<artifactId>storm-core</artifactId>
<version>0.9.5</version>
<scope>provided</scope>
<exclusions>
<exclusion>
<groupId>org.slf4j</groupId>
<artifactId>log4j-over-slf4j</artifactId>
</exclusion>
</exclusions>
</dependency>
<dependency>
<groupId>org.apache.kafka</groupId>
<artifactId>kafka_2.11</artifactId>
<version>0.8.2.1</version>
</dependency>
<dependency>
<groupId>org.apache.hbase</groupId>
<artifactId>hbase-client</artifactId>
<version>1.0.1.1</version>
</dependency>
* 方案二:把kafka和hbase中的slf4j-log4j12 依赖排除;
<dependency>
<groupId>org.apache.storm</groupId>
<artifactId>storm-core</artifactId>
<version>0.9.5</version>
<scope>provided</scope>
<exclusions>
<exclusion>
<groupId>org.slf4j</groupId>
<artifactId>log4j-over-slf4j</artifactId>
</exclusion>
<exclusion>
<groupId>org.slf4j</groupId>
<artifactId>slf4j-api</artifactId>
</exclusion>
</exclusions>
-->
</dependency>
<dependency>
<groupId>org.apache.kafka</groupId>
<artifactId>kafka_2.11</artifactId>
<version>0.8.2.1</version>
<exclusions>
<exclusion>
<groupId>org.slf4j</groupId>
<artifactId>slf4j-log4j12</artifactId>
</exclusion>
<exclusion>
<groupId>log4j</groupId>
<artifactId>log4j</artifactId>
</exclusion>
</exclusions>
</dependency>
<dependency>
<groupId>org.apache.hbase</groupId>
<artifactId>hbase-client</artifactId>
<version>1.0.1.1</version>
<exclusions>
<exclusion>
<groupId>org.slf4j</groupId>
<artifactId>slf4j-log4j12</artifactId>
</exclusion>
<exclusion>
<groupId>log4j</groupId>
<artifactId>log4j</artifactId>
</exclusion>
</exclusions>
</dependency>
<!--
<dependency>
<groupId>org.apache.hbase</groupId>
<artifactId>hbase-common</artifactId>
<version>1.0.1.1</version>
</dependency>
-->
<dependency>
<groupId>redis.clients</groupId>
<artifactId>jedis</artifactId>
<version>2.7.0</version>
</dependency>
* 采用方案二便于集群发布
* storm的日志时采用的 SLF4J和Logback日志框架,所以自己写的storm代码统一使用 slf4j 的包,可以避免大多数包冲突问题。
import org.slf4j.Logger;
import org.slf4j.LoggerFactory;
public class MyBolt {
private static final Logger LOG = LoggerFactory
.getLogger(MyBolt.class);
}
---》参考
http://www.tuicool.com/articles/aIzyqiy
http://stackoverflow.com/questions/21630860/storm-topology-not-submit
http://blog.csdn.net/gongmf/article/details/40379547
分享到:
相关推荐
标题中的"storm-kafka-Log-Consumer"是一个基于Apache Storm的项目,它的主要任务是消费来自Kafka集群的日志数据。Kafka是一个分布式流处理平台,常用于实时数据管道和处理,而Storm则是一个分布式实时计算系统,...
日志分析器-分析大数据组件的客户日志,例如HDFS,Hive,HBase,Yarn,MapReduce,Storm,Spark,Spark 2,Knox,Ambari Metrics,Nifi,Accumulo,Kafka,Flume,Oozie,Falcon,Atlas和Zookeeper。 内部架构 分析...
- **集群搭建常见问题解决**:总结集群搭建过程中可能遇到的问题及其解决方案。 - **Storm常用组件和编程API**:介绍Topology、Spout、Bolt等核心组件的使用方法。 - **Storm分组策略(stream groupings)**:解释...
- **Apache Kylin (Hadoop+Spark+Kafka+HBase) 大数据 OLAP 引擎:** 为数据分析提供了高性能的查询能力。 - **Kafka 作为纯消息系统:** 在许多需要高吞吐量和低延迟的应用场景中发挥着重要作用。 #### 关键角色与...
- 灵活性:Kafka支持多种数据集成,如与Hadoop、HBase、Solr等大数据处理框架集成,也支持与Storm、Spark等实时流处理工具配合使用。 4. Kafka的部署与配置 Kafka的部署通常包括安装JDK、ZooKeeper和Kafka本身。...
通过log4j配置,可以方便地管理和查看日志。 5. **应用场景** - **实时分析**:在广告定向、社交媒体分析等领域,实时处理用户行为数据,快速响应市场变化。 - **数据清洗与预处理**:对大量原始数据进行清洗、...
【标题】"summingbird-storm_2.9.3-0.3.2.zip" 涉及的知识点主要集中在大数据处理框架Summingbird和流处理系统Storm上。 Summingbird是Twitter开源的一个大数据实时计算框架,它将离线批处理(如Apache Hadoop)与...
HBase的存储结构由RegionServer、Region、Memcache、Log和Store组成。HBase的数据存储方式不同于传统的关系数据库,它是基于列的而不是基于行的模式,这使得HBase在处理大数据时具有很高的效率。 数据分析 在数据...
- **知识点**: Storm可以方便地与Hadoop、Kafka等多种大数据生态系统中的组件进行整合,以便更好地处理流式数据。 #### 二、填空题解析 21. **JDK安装路径** - **知识点**: 安装JDK后,Java的开发工具(如javac...
试题中还涉及了文件系统的操作(如删除、权限检查),Java基础(类定义、import语句),以及Hadoop生态系统的其他组件,如YARN、HDFS的块和副本策略、Hive的数据模型(行、列族、表分区)、HBase的LSM(Log-...
小米的数据统计分析平台架构包括LVS/NGINX Analytics Server、Scribe Log、HDFS、Kafka、Storm、MapReduce、Spark、HBase、MySQL、ES Query Server和Redis等组件。HBase因其天生适合大数据处理、灵活的Schema变更、...
- 日志框架如Log4j、Logback和SLF4J用于记录应用程序运行过程中的信息,便于调试和问题追踪。 8. 消息中间件: - Kafka和RabbitMQ是常用的消息队列,用于异步处理和解耦系统组件。 - HBase、MongoDB和Cassandra...
在这个过程中,美团构建了一套高效、灵活的大数据架构,旨在解决业务问题,最大化数据的价值,并驱动业务的持续发展。 1. **大数据架构概述**:美团的技术团队构建了一个全面的数据处理平台,它涵盖了数据采集、...
- **运营洞察**:LVS/NGINX、Analytics Server、Scribe、Log、Kafka、Storm、FE-WEB、Query Server、MapReduce、Spark、Redis、HDFS、ES、HBase、MySQL、DRUID。 通过文档中的描述,可以得知小米在大数据实时分析的...
3. **采集框架**:选择或自建适合的日志采集工具,如Log4j、Fluentd、Logstash等,以实时或批量方式收集日志。 4. **数据传输**:设计安全、高效的数据传输机制,确保日志能够及时、完整地传输到处理中心。 5. **...
Flink 与YARN和Mesos等资源管理工具兼容,并能够处理存储在HDFS、HBase、Kafka等系统中的数据流。 Flink的设计愿景是结合传统数据库技术和Hadoop技术的优点,创造出一个既具备传统数据库的“什么”(What)—即声明...
操作审计(hdfs,hive,hbase,kafka,storm等) 能知道谁在什么时候操作了什么资源 5 权限控制(支持hdfs,hive,hbase,kafka,storm等) 支持行列级的权限管理 6 监控告警(不止是系统的监控 还包括各种组件的jvm metrics的...
推荐系统的整体架构包括前端系统(如Android、iOS、HTML5等)、后端系统(Nginx、Java、Spring等)、日志系统(scribe、flume、log stash、kafka等)、ETL系统(离线如Spark、Map/Reduce,在线如Spark Streaming、...