系统版本:Ubuntu 16.04 LTS
内核:4.4.0-42-generic
JDK:1.8.0_101
zookeeper:3.4.9
flume:1.6.0
kafka:2.11-0.10.0.1
安装目录:/opt/bigdata/
一:zookeeper
下载tar包,解压到/opt/bigdata/zookeeper-3.4.9
创建配置文件:sudo cp zoo_sample.cfg zoo.cfg
修改dataDir为dataDir=/opt/bigdata/zookeeper-3.4.9/data
启动zookeeper:sudo bin/zkServer.sh start
查看zookpeeper状态: sudo bin/zkServer.sh status
cxh@ubuntu:/opt/bigdata/zookeeper-3.4.9$ sudo bin/zkServer.sh status
[sudo] password for cxh:
ZooKeeper JMX enabled by default
Using config: /opt/bigdata/zookeeper-3.4.9/bin/../conf/zoo.cfg
Mode: standalone
启动日志输出在zookeeper.out里
二:flume
下载解压到/opt/bigdata/flume-1.6.0
创建配置文件:cp flume-conf.properties.template flume-conf.properties
修改:
a1.sources = r1
a1.sinks = k1
a1.channels = c1
# Describe/configure the source
a1.sources.r1.type = exec
#a1.sources.r1.type = netcat
#a1.sources.r1.bind = localhost
#a1.sources.r1.port = 44444
#从文件中读取
a1.sources.r1.command = tail -f n+1 /opt/bigdata/flume-1.6.0/logs/flume.log
# Describe the sink
a1.sinks.k1.type = logger
# Use a channel which buffers events in memory
a1.channels.c1.type = memory
a1.channels.c1.capacity = 1000
a1.channels.c1.transactionCapacity = 100
# Bind the source and sink to the channel
a1.sources.r1.channels = c1
a1.sinks.k1.channel = c1
a1.sinks.k1.type = org.apache.flume.sink.kafka.KafkaSink
a1.sinks.k1.topic = test
a1.sinks.k1.brokerList = localhost:9092
a1.sinks.k1.requiredAcks = 1
a1.sinks.k1.batchSize = 20
a1.sinks.k1.channel = c1
启动flume:
sudo bin/flume-ng agent --conf conf --conf-file conf/flume-conf.properties --name a1 -Dflume.root.logger=INFO,console
三:kafka
下载解压到/opt/bigdata/kafka_2.11-0.10.0.1
修改配置文件:conf/server.properties
listeners=PLAINTEXT://localhost:9092
log.dirs=/opt/bigdata/kafka_2.11-0.10.0.1/logs
启动服务 sudo bin/kafka-server-start.sh config/server.properties &
查看topic bin/kafka-topics.sh --list --zookeeper localhost:2181
创建test topic bin/kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 1 --partitions 1 --topic test
查看again sudo bin/kafka-topics.sh --list --zookeeper localhost:2181
模拟生产者 sudo bin/kafka-console-producer.sh --broker-list localhost:9092 --topic test
消费者 sudo bin/kafka-console-consumer.sh --zookeeper localhost:2181 --topic test --from-beginning
相关推荐
本文将深入探讨这些技术及其在"flume+kafka+flink+mysql数据统计"中的应用。 首先,Flume 是 Apache Hadoop 的一个子项目,主要用于收集、聚合和移动大量日志数据。在本场景中,Flume 可以从 Nginx 服务器收集 Web ...
### Flume+kafka+Storm整合知识点详解 #### 一、Flume、Kafka与Storm概述 在大数据领域,数据采集、传输与实时处理是至关重要的环节。本篇内容重点介绍了如何利用Flume、Kafka与Storm这三个开源工具实现一套完整的...
基于flume+kafka+HBase+spark+ElasticSearch的用户轨迹查询大数据开发项目 项目名称:实时的用户轨迹查询项目 项目介绍: 利用企业建设的WIFI基站,实时采集用户的信息,可以基于这些信息做用户画像处理,网络安全...
搭建Hadoop集群,并使用flume+kafka+storm+hbase实现日志抓取分析,使用一个主节点master、两个slave节点
《LNMP环境构建与Flume+Kafka+Storm+HDFS实时系统集成详解》 在当前的互联网时代,数据量的急剧增长使得大数据处理成为一项关键任务。本篇将深入探讨如何在Linux环境下搭建LNMP(Linux + Nginx + MySQL + PHP)...
这里提到的"基于Flume+kafka+spark大型电商网站日志分析系统(离线+实时)"就是一个这样的解决方案,结合了三个关键组件:Apache Flume、Apache Kafka和Apache Spark。下面将详细介绍这三个技术及其在系统中的作用。...
本项目"基于spark streaming+flume+kafka+hbase的实时日志处理分析系统"结合了多个关键技术,构建了一个高效、实时的数据处理流水线。下面将详细阐述这些技术及其在系统中的作用。 1. Spark Streaming: Spark ...
flume+Logstash+Kafka+Spark Streaming进行实时日志处理分析【大数据】
这里提到的"人工智能-spark"项目,结合了Flume、Kafka、HBase以及Spark-Streaming,构建了一个高效且实时的数据处理管道。下面我们将详细探讨这些组件各自的作用及其相互间的协同工作原理。 1. **Apache Flume**:...
本科毕业设计项目,基于spark streaming+flume+kafka+hbase的实时日志处理分析系统 基于spark streaming+flume+kafka+hbase的实时日志处理分析系统 本科毕业设计项目,基于spark streaming+flume+kafka+hbase的...
基于Flume+Kafka+Hbase+Flink+FineBI的实时综合案例.txt基于Flume+Kafka+Hbase+Flink+FineBI的实时综合案例.txt基于Flume+Kafka+Hbase+Flink+FineBI的实时综合案例.txt基于Flume+Kafka+Hbase+Flink+FineBI的实时综合...
在这个“Flume+Kafka+HBase实例”中,我们将深入探讨如何在电信客服项目中整合这三个工具,以实现高效的数据处理和存储。 Flume是Apache的一款开源工具,专门用于高效、可靠地收集、聚合和移动大量日志数据。在电信...
基于flume+kafka+HBase+spark+ElasticSearch的用户轨迹查询大数据开发项目源代码+文档说明。项目架构: 主要是基于Flume+Kafka+Sparkstreaming +HBase+ES来实现实时的用户信息存储轨迹查询任务。 含有代码注释,满分...
基于flume+kafka+HBase+spark+ElasticSearch的用户轨迹查询大数据开发项目 项目名称:实时的用户轨迹查询项目 项目介绍: 利用企业建设的WIFI基站,实时采集用户的信息,可以基于这些信息做用户画像处理,网络...
基于flume+kafka+HBase+spark+ElasticSearch的用户统计查询大数据开发项目无线上网基于flume+kafka+HBase+spark+ElasticSearch的用户统计查询大数据开发项目项目名称实时用户账单查询项目项目介绍利用企业建设的WIFI...
基于flume+kafka+HBase+spark+ElasticSearch的用户轨迹查询大数据开发项目 项目名称:实时的用户轨迹查询项目 项目介绍: 利用企业建设的WIFI基站,实时采集用户的信息,可以基于这些信息做用户画像处理,网络安全...
本资源中的源码都是经过本地编译过可运行的,下载后按照文档配置好环境就可以运行。资源项目的难度比较适中,内容都是经过助教老师审定过的,应该能够满足学习、使用需求,如果有需要的话可以放心下载使用。...