flume-ng+Kafka+Storm+HDFS 实时系统组合
1).数据采集
负责从各节点上实时采集数据,选用cloudera的flume来实现
2).数据接入
由于采集数据的速度和数据处理的速度不一定同步,因此添加一个消息中间件来作为缓冲,选用apache的kafka
3).流式计算
对采集到的数据进行实时分析,选用apache的storm
4).数据输出
对分析后的结果持久化,暂定用mysql
另一方面是模块化之后,假如当Storm挂掉了之后,数据采集和数据接入还是继续在跑着,数据不会丢失,storm起来之后可以继续进行流式计算;
那么接下来我们来看下整体的架构图
详细介绍各个组件及安装配置:
操作系统:ubuntu
Flume
Flume是Cloudera提供的一个分布式、可靠、和高可用的海量日志采集、聚合和传输的日志收集系统,支持在日志系统中定制各类数据发送方,用于收集数据;同时,Flume提供对数据进行简单处理,并写到各种数据接受方(可定制)的能力。
下图为flume典型的体系结构:
Flume数据源以及输出方式:
Flume 提供了从console(控制台)、RPC(Thrift-RPC)、text(文件)、tail(UNIX tail)、syslog(syslog日志系统,支持TCP和UDP等2种模式),exec(命令执行)等数据源上收集数据的能力,在我们的系统中目前 使用exec方式进行日志采集。
Flume的数据接受方,可以是console(控制台)、text(文件)、dfs(HDFS文件)、RPC(Thrift-RPC)和syslogTCP(TCP syslog日志系统)等。在我们系统中由kafka来接收。
Flume下载及文档:
http://flume.apache.org/
Flume安装:
- $tar zxvf apache-flume-1.4.0-bin.tar.gz/usr/local
- $bin/flume-ng agent --conf conf --conf-file conf/flume-conf.properties --name producer -Dflume.root.logger=INFO,console
kafka是一种高吞吐量的分布式发布订阅消息系统,她有如下特性:
- 通过O(1)的磁盘数据结构提供消息的持久化,这种结构对于即使数以TB的消息存储也能够保持长时间的稳定性能。
- 高吞吐量:即使是非常普通的硬件kafka也可以支持每秒数十万的消息。
- 支持通过kafka服务器和消费机集群来分区消息。
- 支持Hadoop并行数据加载。
kafka的目的是提供一个发布订阅解决方案,它可以处理消费者规模的网站中的所有动作流数 据。 这种动作(网页浏览,搜索和其他用户的行动)是在现代网络上的许多社会功能的一个关键因素。 这些数据通常是由于吞吐量的要求而通过处理日志和日志聚合来解决。 对于像Hadoop的一样的日志数据和离线分析系统,但又要求实时处理的限制,这是一个可行的解决方案。kafka的目的是通过Hadoop的并行加载机 制来统一线上和离线的消息处理,也是为了通过集群机来提供实时的消费。
kafka分布式订阅架构如下图:--取自Kafka官网
罗宝兄弟文章上的架构图是这样的
其实两者没有太大区别,官网的架构图只是把Kafka简洁的表示成一个Kafka Cluster,而上面架构图就相对详细一些;
Kafka版本:0.8.0
Kafka下载及文档:http://kafka.apache.org/
Kafka安装:
- > tar xzf kafka-<VERSION>.tgz
- > cd kafka-<VERSION>
- > ./sbt update
- > ./sbt package
- > ./sbt assembly-package-dependency
这里可能有很多童鞋执行sbt的时候会报找不到这个命令
[plain] view plaincopy
No command 'sbt' found, did you mean:
Command 'skt' from package 'latex-sanskrit' (main)
Command 'sb2' from package 'scratchbox2' (universe)
Command 'sbd' from package 'cluster-glue' (main)
Command 'mbt' from package 'mbt' (universe)
Command 'sbmt' from package 'atfs' (universe)
Command 'lbt' from package 'lbt' (universe)
Command 'st' from package 'suckless-tools' (universe)
Command 'sb' from package 'lrzsz' (universe)
sbt: command not found
这个是需要自己安装的,安装包可以到sbt官网下载。我这边用的ubuntu系统,所以我下载了个deb包,官网地址:http://www.scala-sbt.org/
deb包地址:http://repo.scala-sbt.org/scalasbt/sbt-native-packages/org/scala-sbt/sbt/0.13.1/sbt.deb
rpm包地址:http://repo.scala-sbt.org/scalasbt/sbt-native-packages/org/scala-sbt/sbt/0.13.1/sbt.rpm
[plain] view plaincopy
No command 'sbt' found, did you mean:
Command 'skt' from package 'latex-sanskrit' (main)
Command 'sb2' from package 'scratchbox2' (universe)
Command 'sbd' from package 'cluster-glue' (main)
Command 'mbt' from package 'mbt' (universe)
Command 'sbmt' from package 'atfs' (universe)
Command 'lbt' from package 'lbt' (universe)
Command 'st' from package 'suckless-tools' (universe)
Command 'sb' from package 'lrzsz' (universe)
sbt: command not found
这个是需要自己安装的,安装包可以到sbt官网下载。我这边用的ubuntu系统,所以我下载了个deb包,官网地址:http://www.scala-sbt.org/
deb包地址:http://repo.scala-sbt.org/scalasbt/sbt-native-packages/org/scala-sbt/sbt/0.13.1/sbt.deb
rpm包地址:http://repo.scala-sbt.org/scalasbt/sbt-native-packages/org/scala-sbt/sbt/0.13.1/sbt.rpm
启动及测试命令:
(1) start server
- > bin/zookeeper-server-start.shconfig/zookeeper.properties
- > bin/kafka-server-start.shconfig/server.properties
配置独立的zookeeper集群需要配置server.properties文件,讲zookeeper.connect修改为独立集群的IP和端口
- zookeeper.connect=nutch1:2181
- > bin/kafka-create-topic.sh --zookeeper localhost:2181 --replica 1 --partition 1 --topic test
- > bin/kafka-list-topic.sh --zookeeperlocalhost:2181
- > bin/kafka-console-producer.sh--broker-list localhost:9092 --topic test
- > bin/kafka-console-consumer.sh--zookeeper localhost:2181 --topic test --from-beginning
kafka-console-producer.sh和kafka-console-cousumer.sh只是系统提供的命令行工具。这里启动是为了测试是否能正常生产消费;验证流程正确性
在实际开发中还是要自行开发自己的生产者与消费者;
Storm
Twitter 将Storm正式开源了,这是一个分布式的、容错的实时计算系统,它被托管在GitHub上,遵循 Eclipse Public License 1.0。Storm是由BackType开发的实时处理系统,BackType现在已在Twitter麾下。GitHub上的最新版本是Storm 0.5.2,基本是用Clojure写的。
Storm的主要特点如下:
- 简单的编程模型。类似于MapReduce降低了并行批处理复杂性,Storm降低了进行实时处理的复杂性。
- 可以使用各种编程语言。你可以在Storm之上使用各种编程语言。默认支持Clojure、Java、Ruby和Python。要增加对其他语言的支持,只需实现一个简单的Storm通信协议即可。
- 容错性。Storm会管理工作进程和节点的故障。
- 水平扩展。计算是在多个线程、进程和服务器之间并行进行的。
- 可靠的消息处理。Storm保证每个消息至少能得到一次完整处理。任务失败时,它会负责从消息源重试消息。
- 快速。系统的设计保证了消息能得到快速的处理,使用ØMQ作为其底层消息队列。(0.9.0.1版本支持ØMQ和netty两种模式)
- 本地模式。Storm有一个“本地模式”,可以在处理过程中完全模拟Storm集群。这让你可以快速进行开发和单元测试。
由于篇幅问题,具体的安装步骤可以参考:Storm-0.9.0.1安装部署 指导
接下来重头戏开始拉!那就是框架之间的整合啦
flume和kafka整合
1.下载flume-kafka-plus:https://github.com/beyondj2ee/flumeng-kafka-plugin
2.提取插件中的flume-conf.properties文件
修改该文件:#source section
producer.sources.s.type = exec
producer.sources.s.command = tail -f -n+1 /mnt/hgfs/vmshare/test.log
producer.sources.s.channels = c
producer.sources.s.command = tail -f -n+1 /mnt/hgfs/vmshare/test.log
producer.sources.s.channels = c
修改所有topic的值改为test
将改后的配置文件放进flume/conf目录下
在该项目中提取以下jar包放入环境中flume的lib下:
注:这里的flumeng-kafka-plugin.jar这个包,后面在github项目中已经移动到package目录了。找不到的童鞋可以到package目录获取。
完成上面的步骤之后,我们来测试下flume+kafka这个流程有没有走通;
我们先启动flume,然后再启动kafka,启动步骤按之前的步骤执行;接下来我们使用kafka的kafka-console-consumer.sh脚本查看是否有flume有没有往Kafka传输数据;
以上这个是我的test.log文件通过flume抓取传到kafka的数据;说明我们的flume和kafka流程走通了;
大家还记得刚开始我们的流程图么,其中有一步是通过flume到kafka,还有一步是到hdfs的;而我们这边还没有提到如何存入kafka且同时存如hdfs;
flume是支持数据同步复制,同步复制流程图如下,取自于flume官网,官网用户指南地址:http://flume.apache.org/FlumeUserGuide.html
怎么设置同步复制呢,看下面的配置:
- #2个channel和2个sink的配置文件 这里我们可以设置两个sink,一个是kafka的,一个是hdfs的;
- a1.sources = r1
- a1.sinks = k1 k2
- a1.channels = c1 c2
kafka和storm的整合
1.下载kafka-storm0.8插件:https://github.com/wurstmeister/storm-kafka-0.8-plus
2.使用maven package进行编译,得到storm-kafka-0.8-plus-0.3.0-SNAPSHOT.jar包 --有转载的童鞋注意下,这里的包名之前写错了,现在改正确了!不好意思!
3.将该jar包及kafka_2.9.2-0.8.0-beta1.jar、metrics-core-2.2.0.jar、scala-library-2.9.2.jar (这三个jar包在kafka项目中能找到)
备注:如果开发的项目需要其他jar,记得也要放进storm的Lib中比如用到了mysql就要添加mysql-connector-java-5.1.22-bin.jar到storm的lib下
那么接下来我们把storm也重启下;
完成以上步骤之后,我们还有一件事情要做,就是使用kafka-storm0.8插件,写一个自己的Storm程序;
这里我给大伙附上一个我弄的storm程序,代码:
public class KafkaSpout implements IRichSpout { private static final Log logger = LogFactory.getLog(KafkaSpout.class); /** * */ private static final long serialVersionUID = -5569857211173547938L; SpoutOutputCollector collector; private ConsumerConnectorconsumer; private Stringtopic; public KafkaSpout(String topic) { this.topic = topic; } @Override public void open(Map conf, TopologyContext context, SpoutOutputCollector collector) { this.collector = collector; } private static ConsumerConfig createConsumerConfig() { Properties props = newProperties(); props.put("zookeeper.connect","xx.xx.xx.xx:2181"); props.put("group.id","0"); props.put("zookeeper.session.timeout.ms","10000"); //props.put("zookeeper.sync.time.ms", "200"); //props.put("auto.commit.interval.ms", "1000"); return new ConsumerConfig(props); } @Override public void close() { // TODOAuto-generated method stub } @Override public void activate() { this.consumer = Consumer.createJavaConsumerConnector(createConsumerConfig()); Map<String, Integer> topickMap = newHashMap<String, Integer>(); topickMap.put(topic,new Integer(1)); Map<String, List<KafkaStream<byte[],byte[]>>>streamMap =consumer.createMessageStreams(topickMap); KafkaStream<byte[],byte[]>stream = streamMap.get(topic).get(0); ConsumerIterator<byte[],byte[]> it =stream.iterator(); while (it.hasNext()) { String value = newString(it.next().message()); System.out.println("(consumer)-->" + value); collector.emit(new Values(value), value); } } @Override public void deactivate() { // TODOAuto-generated method stub } private boolean isComplete; @Override public void nextTuple() { } @Override public void ack(Object msgId) { // TODOAuto-generated method stub } @Override public void fail(Object msgId) { // TODOAuto-generated method stub } @Override public void declareOutputFields(OutputFieldsDeclarer declarer) { declarer.declare(new Fields("KafkaSpout")); } @Override public Map<String, Object> getComponentConfiguration() { // TODOAuto-generated method stub return null; } } public class FileBlots implementsIRichBolt{ OutputCollector collector; public void prepare(Map stormConf, TopologyContext context, OutputCollector collector) { this.collector = collector; } public void execute(Tuple input) { String line = input.getString(0); for(String str : line.split("\\s+")){ List a = newArrayList(); a.add(input); this.collector.emit(a,newValues(str)); } this.collector.ack(input); } public void cleanup() { } public void declareOutputFields(OutputFieldsDeclarer declarer) { declarer.declare(new Fields("words")); } public Map<String, Object> getComponentConfiguration() { // TODOAuto-generated method stub return null; } } public class WordsCounterBlots implementsIRichBolt{ OutputCollector collector; Map<String, Integer> counter; public void prepare(Map stormConf, TopologyContext context, OutputCollector collector) { this.collector = collector; this.counter =new HashMap<String, Integer>(); } public void execute(Tuple input) { String word = input.getString(0); Integer integer = this.counter.get(word); if(integer !=null){ integer +=1; this.counter.put(word, integer); }else{ this.counter.put(word, 1); } System.out.println("execute"); Jedis jedis = JedisUtils.getJedis(); jedis.incrBy(word, 1); System.out.println("============================================="); this.collector.ack(input); } public void cleanup() { for(Entry<String, Integer> entry :this.counter.entrySet()){ System.out.println("------:"+entry.getKey()+"=="+entry.getValue()); } } public void declareOutputFields(OutputFieldsDeclarer declarer) { } public Map<String, Object> getComponentConfiguration() { // TODOAuto-generated method stub return null; } }
先稍微看下程序的创建Topology代码
public class KafkaTopology { public static void main(String[] args) { try { JedisUtils.initialPool("xx.xx.xx.xx", 6379); } catch (Exception e) { e.printStackTrace(); } TopologyBuilder builder = newTopologyBuilder(); builder.setSpout("kafka",new KafkaSpout("kafka")); builder.setBolt("file-blots",new FileBlots()).shuffleGrouping("kafka"); builder.setBolt("words-counter",new WordsCounterBlots(),2).fieldsGrouping("file-blots",new Fields("words")); Config config = new Config(); config.setDebug(true); LocalCluster local = newLocalCluster(); local.submitTopology("counter", config, builder.createTopology()); } }
- storm-0.9.0.1/bin/storm jar storm-start-demo-0.0.1-SNAPSHOT.jar com.storm.topology.KafkaTopology
先看下日志,这里打印出来了往数据库里面插入数据了
然后我们查看下数据库;插入成功了!
到这里我们的整个整合就完成了!
但是这里还有一个问题,不知道大伙有没有发现。
由于我们使用storm进行分布式流式计算,那么分布式最需要注意的是数据一致性以及避免脏数据的产生;所以我提供的测试项目只能用于测试,正式开发不能这样处理
相关推荐
在这个过程中,文档《Twitter Storm系列》flume-ng+Kafka+Storm+HDFS 实时系统搭建.docx和《安装扎记.pdf》将提供详细的步骤指导和常见问题解决方案,帮助你顺利完成整个系统的搭建和优化。 总的来说,LNMP与实时大...
直以来都想接触Storm实时计算这块的东西,最近在群里看到上海一哥们罗宝写的Flume+Kafka+Storm的实时日志流系统的搭建文档,自己也跟着整了一遍,之前罗宝的文章中有一些要注意点没提到的,以后一些写错的点,在这边...
启动Flume时,使用flume-ng命令并指定配置文件和代理名称。 Kafka的安装和配置过程包括下载源码包,执行sbt更新、打包、组装包依赖,以及执行启动脚本。启动Kafka服务需要先启动Zookeeper服务,然后启动Kafka服务...
标题中的“利用Flume将MySQL表数据准实时抽取到HDFS、MySQL、Kafka”是一项数据集成任务,涉及Apache Flume、MySQL数据库、Hadoop Distributed File System (HDFS) 和Apache Kafka这四个关键技术。Flume是Apache的一...
本文将详细介绍如何利用Kafka、FlumeNG、Storm与HBase搭建一套高效的数据处理系统。该系统旨在实现以下目标: - 实时处理任意规模的数据集。 - 支持多种类型的处理操作。 - 结合多种技术和工具,构建一个全方位的大...
在大数据处理领域,Flume、Kafka和Storm是三个至关重要的工具,它们分别在数据采集、数据分发和实时处理方面发挥着核心作用。这里我们将深入探讨这三个组件以及如何搭建它们。 1. Flume:Flume是Apache软件基金会的...
在大数据处理领域,Flume、Kafka和Storm是三个非常重要的工具,它们分别负责数据采集、消息中间件和实时流处理。"flume-kafka-storm源程序"这个压缩包很可能是包含这三个组件的集成示例或者源代码,用于帮助开发者...
在实际应用中,Flume NG 1.6.0-cdh5.14.0 常常与其他大数据组件如 Hadoop、Kafka 和 Storm 结合使用,构建复杂的数据处理流水线。例如,可以先使用 Flume 从多台服务器收集日志数据,然后通过 Kafka 进行消息队列...
- **启动Flume**:执行`bin/flume-ng agent --conf conf --conf-file conf/flume.conf --name a1 -Dflume.root.logger=INFO,console`启动Flume Agent。 2. **Kafka环境构建**: - **安装Zookeeper**:Kafka依赖...
### 实时日志分析知识点详解 ...综上所述,Flume-ng+Kafka+Storm+HDFS构成了一个强大的实时日志分析系统,不仅能够满足当前项目的需求,还具备良好的扩展性和维护性,适用于大规模的日志处理场景。
这个文档是《云计算之Flume+Kafka+Storm+Redis/Hbase+Hadoop+Hive+Mahout+Spark 技术文档分享V1.0.0》系列的一部分,涵盖了多种云计算技术。 首先,Hadoop-2.2.0是一个开源的分布式计算框架,其核心由HDFS(Hadoop ...
本文对基于 Flume 的美团日志收集系统进行了详细的介绍和分析,包括日志收集系统的架构设计、Flume-NG 与 Scribe 的比较、美团日志收集系统的架构和设计、美团日志收集系统的设计和优化等方面。同时,本文还对 Flume...
emsite框架集成了dubbo服务层、单点登录、Auth2.0认证、storm+kafka消息处理系统、日志分析系统(kafka+ flume+storm+hdfs+hadoop)、配置中心、分布式任务调度系统、服务器实时监控系统以及搜索引擎系统(elastic...
Flume-NG是一个高可用、高可靠的分布式日志采集系统,由Cloudera开发并已纳入Apache项目。与Scribe相比,Flume-NG在容错性和可扩展性方面表现出色。它不仅在Agent和Collector之间,也在Collector和Store之间提供了...
- emsite采用dubbo作为服务层框架,后台将集成单点登录、oauth2.0、storm+kafka消息处理系统、kafka+ flume+storm+hdfs+hadoop作为日志分析系统、配置中心、分布式任务调度系统、服务器实时监控系统、搜索引擎系统...
采用dubbo作为服务层框架,后台将集成单点登录、Auth2.0、storm+kafka消息处理系统、kafka+ flume+storm+hdfs+hadoop作为日志分析系统、配置中心、分布式任务调度系统、服务器实时监控系统、搜索引擎系统(elastic...
- **Kafka+Flume+Storm 在线计算:** 适用于实时数据流处理。 - **Flume+Kafka+HDFS 用于 MR 离线计算:** 适用于批处理作业。 - **Kafka+Spark 用于数据挖掘和机器学习:** 为复杂的数据分析任务提供了强大的支持。...
【云计算】此外,教程还涉及了云计算相关的技术,如Kafka(分布式消息系统)、Storm(实时流处理)、Spark(快速大数据处理引擎)以及Oozie(工作流调度器)、Impala(交互式查询服务)、Solr(全文搜索引擎)等,...