搭建一个flume集群,设置2个节点,如下图这样的集群
2个节点分别为192.168.5.220和192.168.5.221
设置成这样的情景,第一个接受日志传过来的数据(这里使用配置log4j往里面写数据),
第一个节点的sink指向第二个节点的source,第二个节点sink配制成hdfs
首先,配置第一个节点,
这里面source的port设置成41414,log4j输出的port也必须配制成41414,才能把数据传到flume
sink配置的port必须和第二个节点source配置的一样才行
配置第二个节点
source的bind配置本机ip,端口配置和第一个节点的sink.port一样
这个节点sink写入hdfs,配置了2个拦截器,对输出hdfs目录进行格式化
然后先启动第2个节点
bin/flume-ng agent --conf ./conf/ -f ./conf/agent2.conf -n agent2 -Dflume.root.logger=DEBUG,console
再启动第一个节点
bin/flume-ng agent --conf ./conf/ -f ./conf/agent1.conf -n agent1 -Dflume.root.logger=DEBUG,console
都启动完成,写个java测试类进行测试
package cn.han;
import org.apache.log4j.Logger;
public class MyTest {
public Logger log=Logger.getLogger(MyTest.class);
public static void main(String[] args) {
MyTest ss=new MyTest();
for(int i=0;i<20;i++){
ss.log.info(System.currentTimeMillis());
}
}
}
配置下log4j
log4j.rootLogger=INFO,flume
log4j.appender.flume = org.apache.flume.clients.log4jappender.Log4jAppender
log4j.appender.flume.Hostname = 192.168.5.220
log4j.appender.flume.Port = 41414
log4j.appender.flume.UnsafeMode = true
测试类运行的时候可能会报错,把flume-ng-log4jappender-1.5.0-cdh5.1.3-jar-with-dependencies.jar放入测试项目的环境变量中
运行测试类,去hdfs的目录查看文件已经生成,这样,flume集群就配置好了
- 大小: 22 KB
- 大小: 11.8 KB
- 大小: 26.6 KB
分享到:
相关推荐
Flume集群搭建与使用文档 Flume是一种分布式、可靠、可扩展的日志聚合系统,用于收集、聚合和移动大量日志数据。下面是Flume集群搭建与使用文档的知识点总结: Flume集群搭建 1. 硬件环境:三台物理服务器,,每...
### Flume集群搭建详解 #### 一、Flume简介 Flume是一款高可靠、高性能的日志采集、聚合和传输的系统,支持在日志系统中定制各类数据发送方(source)、接收方(sink)和数据通道(channel)。Flume的设计理念是...
1. [Flume 集群搭建](https://1csh1.github.io/2016/04/21/Flume%E9%9B%86%E7%BE%A4%E6%90%AD%E5%BB%BA/) 2. [Flume 配置详解](https://blog.csdn.net/volitationlong/article/details/82186379) 通过以上步骤,你...
3. **集群环境搭建:** 根据官方文档的推荐架构进行Flume集群的搭建,注意使用合适的版本,并正确配置各个组件。 4. **监控配置与使用:** 掌握如何开启和配置Flume的监控功能,以及如何访问和解读监控数据,以便于...
综上所述,搭建这样一个大数据集群需要深入了解每个组件的特性和配置要求,同时还需要具备一定的网络和系统管理知识。过程中可能遇到的问题包括网络配置、权限设置、依赖冲突等,解决这些问题通常需要查阅官方文档、...
### 大数据组件-Flume高可用集群搭建 #### Flume概述 Flume是一个高度可靠的分布式数据收集系统,主要用于从多种数据源收集并传输数据至Hadoop生态系统内进行后续处理。由于其强大的可扩展性和可靠性,Flume在大型...
自己整理的Hadoop环境的一些安装,和一些简单的使用,其中包括Hadoop、hbase、hive、mysql、zookeeper、Kafka、flume。都是一些简单的安装步骤和使用,只在自己的虚拟机(Linux centOS7)上使用测试过。按照步骤一步...
Hadoop&Hbase&Kafka&ZooKeeper&Mysql8.0&Spark&Flume集群搭建文档内涵软件包链接 Anaconda
- 启动Kafka集群以及Flume-ng的各个组件。 - 验证数据是否能够正确地从客户端Flume-ng传输到服务器端Flume-ng,并最终保存至HDFS中。 #### 五、总结 通过上述步骤,我们可以成功搭建起一套Kafka+Flume-ng的数据...
本资源《Kafka集群调优实战+分布式集群搭建》是一部全面覆盖Kafka从基础到进阶、实战到调优的全方位教程。内容涵盖Kafka集群的核心组件讲解、集群架构设计、分布式集群搭建与伪集群配置,帮助读者快速上手Kafka环境...
CentOS集群搭建、Hadoop集群搭建 配置免密 连接外网,Hive安装 Zookeeper搭建 Kafka scala flume安装 Spark搭建及启动
Kafka 集群搭建是整个系统的基础,需要确保 Kafka 能够正常运行。 1. **准备工作**: - 下载并安装 Kafka。具体操作可以参考文档《kafka集群搭建文档.docx》。 - 配置 Kafka 相关参数,如 broker.id、listeners ...
cdh5.5.4 集群搭建 【自动化脚本+hadoop-ha,yarn-ha,zk,hbase,hive,flume,kafka,spark】全套高可用环境搭建,还有自动化启动脚本。只需要复制粘贴命令,就可以完成。3台机器。相关资源可以留言发邮件,我发资料。cdh...
此外,搭建过程中也需要注意各个组件之间的网络通信问题,如Zookeeper与Kafka之间的通信、Kafka集群内部的通信,以及Flume和Kafka之间的数据交互。确保通信顺畅需要做好相应的网络安全和权限设置。 总结来看,利用...
在这个“大数据集群搭建aaaa.zip”文件中,可能包含了搭建大数据集群所需的各种步骤、配置文件和指导文档。 首先,大数据集群通常基于Hadoop生态系统,这包括Hadoop Distributed File System (HDFS) 和 MapReduce ...
Hadoop-Apache2.7.3和Spark2.0集群搭建涉及众多步骤和技术细节,下面详细阐述这些知识点。 首先,搭建Hadoop-Apache2.7.3和Spark2.0集群之前,需要了解相关硬件和软件的环境要求。在硬件设备方面,单台物理机应至少...
在大数据处理领域,Flume、Kafka和Storm是三个至关重要的工具,它们分别在数据采集、数据分发和实时处理方面发挥着核心作用。这里我们将深入探讨这三个组件以及如何搭建它们。 1. Flume:Flume是Apache软件基金会的...
Spark集群搭建涉及主节点和工作节点的配置,包括Spark环境变量设置、配置文件spark-defaults.conf和slaves,以及YARN或Mesos等资源管理器的集成。Spark高可用通过设置多个Spark Master节点并配置Zookeeper实现。 ...