`
字母哥
  • 浏览: 70312 次
  • 性别: Icon_minigender_1
  • 来自: 北京
社区版块
存档分类
最新评论

flume集群搭建

阅读更多
搭建一个flume集群,设置2个节点,如下图这样的集群


2个节点分别为192.168.5.220和192.168.5.221
设置成这样的情景,第一个接受日志传过来的数据(这里使用配置log4j往里面写数据),
第一个节点的sink指向第二个节点的source,第二个节点sink配制成hdfs

首先,配置第一个节点,


这里面source的port设置成41414,log4j输出的port也必须配制成41414,才能把数据传到flume
sink配置的port必须和第二个节点source配置的一样才行

配置第二个节点


source的bind配置本机ip,端口配置和第一个节点的sink.port一样
这个节点sink写入hdfs,配置了2个拦截器,对输出hdfs目录进行格式化

然后先启动第2个节点
bin/flume-ng agent --conf ./conf/ -f ./conf/agent2.conf -n agent2 -Dflume.root.logger=DEBUG,console


再启动第一个节点
bin/flume-ng agent --conf ./conf/ -f ./conf/agent1.conf -n agent1 -Dflume.root.logger=DEBUG,console


都启动完成,写个java测试类进行测试
package cn.han;

import org.apache.log4j.Logger;

public class MyTest {
	public Logger log=Logger.getLogger(MyTest.class);
	public static void main(String[] args) {
		MyTest ss=new MyTest();
		for(int i=0;i<20;i++){
			ss.log.info(System.currentTimeMillis());
		}
	}
}


配置下log4j
log4j.rootLogger=INFO,flume
log4j.appender.flume = org.apache.flume.clients.log4jappender.Log4jAppender
log4j.appender.flume.Hostname = 192.168.5.220
log4j.appender.flume.Port = 41414
log4j.appender.flume.UnsafeMode = true


测试类运行的时候可能会报错,把flume-ng-log4jappender-1.5.0-cdh5.1.3-jar-with-dependencies.jar放入测试项目的环境变量中
运行测试类,去hdfs的目录查看文件已经生成,这样,flume集群就配置好了
  • 大小: 22 KB
  • 大小: 11.8 KB
  • 大小: 26.6 KB
1
1
分享到:
评论

相关推荐

    flume集群搭建与使用文档

    Flume集群搭建与使用文档 Flume是一种分布式、可靠、可扩展的日志聚合系统,用于收集、聚合和移动大量日志数据。下面是Flume集群搭建与使用文档的知识点总结: Flume集群搭建 1. 硬件环境:三台物理服务器,,每...

    Flume集群搭建

    ### Flume集群搭建详解 #### 一、Flume简介 Flume是一款高可靠、高性能的日志采集、聚合和传输的系统,支持在日志系统中定制各类数据发送方(source)、接收方(sink)和数据通道(channel)。Flume的设计理念是...

    Flume集群搭建1

    1. [Flume 集群搭建](https://1csh1.github.io/2016/04/21/Flume%E9%9B%86%E7%BE%A4%E6%90%AD%E5%BB%BA/) 2. [Flume 配置详解](https://blog.csdn.net/volitationlong/article/details/82186379) 通过以上步骤,你...

    Flume集群环境搭建,flume监控

    3. **集群环境搭建:** 根据官方文档的推荐架构进行Flume集群的搭建,注意使用合适的版本,并正确配置各个组件。 4. **监控配置与使用:** 掌握如何开启和配置Flume的监控功能,以及如何访问和解读监控数据,以便于...

    Hadoop+Spark+Hive+HBase+Oozie+Kafka+Flume+Flink+ES+Redash等详细安装部署

    综上所述,搭建这样一个大数据集群需要深入了解每个组件的特性和配置要求,同时还需要具备一定的网络和系统管理知识。过程中可能遇到的问题包括网络配置、权限设置、依赖冲突等,解决这些问题通常需要查阅官方文档、...

    大数据组件-Flume高可用集群搭建

    ### 大数据组件-Flume高可用集群搭建 #### Flume概述 Flume是一个高度可靠的分布式数据收集系统,主要用于从多种数据源收集并传输数据至Hadoop生态系统内进行后续处理。由于其强大的可扩展性和可靠性,Flume在大型...

    大数据hadoop分布式集群搭建(Hadoop、hbase、hive、mysql、zookeeper、Kafka、flume)

    自己整理的Hadoop环境的一些安装,和一些简单的使用,其中包括Hadoop、hbase、hive、mysql、zookeeper、Kafka、flume。都是一些简单的安装步骤和使用,只在自己的虚拟机(Linux centOS7)上使用测试过。按照步骤一步...

    Hadoop集群.docx

    Hadoop&Hbase&Kafka&ZooKeeper&Mysql8.0&Spark&Flume集群搭建文档内涵软件包链接 Anaconda

    Kafka+Flume-ng搭建

    - 启动Kafka集群以及Flume-ng的各个组件。 - 验证数据是否能够正确地从客户端Flume-ng传输到服务器端Flume-ng,并最终保存至HDFS中。 #### 五、总结 通过上述步骤,我们可以成功搭建起一套Kafka+Flume-ng的数据...

    Kafka集群调优实战+分布式集群搭建,分布式集群搭建与调优实战,Kafka专家之路!课程内容全程实战,没有拖泥带水

    本资源《Kafka集群调优实战+分布式集群搭建》是一部全面覆盖Kafka从基础到进阶、实战到调优的全方位教程。内容涵盖Kafka集群的核心组件讲解、集群架构设计、分布式集群搭建与伪集群配置,帮助读者快速上手Kafka环境...

    从0开始搭建Spark集群

    CentOS集群搭建、Hadoop集群搭建 配置免密 连接外网,Hive安装 Zookeeper搭建 Kafka scala flume安装 Spark搭建及启动

    flume+kafka搭建.docx

    Kafka 集群搭建是整个系统的基础,需要确保 Kafka 能够正常运行。 1. **准备工作**: - 下载并安装 Kafka。具体操作可以参考文档《kafka集群搭建文档.docx》。 - 配置 Kafka 相关参数,如 broker.id、listeners ...

    cdh5.5.4 集群搭建 【自动化脚本+hadoop-ha,yarn-ha,zk,hbase,hive,flume,kafka,spark】

    cdh5.5.4 集群搭建 【自动化脚本+hadoop-ha,yarn-ha,zk,hbase,hive,flume,kafka,spark】全套高可用环境搭建,还有自动化启动脚本。只需要复制粘贴命令,就可以完成。3台机器。相关资源可以留言发邮件,我发资料。cdh...

    flume+kafka+storm搭建

    此外,搭建过程中也需要注意各个组件之间的网络通信问题,如Zookeeper与Kafka之间的通信、Kafka集群内部的通信,以及Flume和Kafka之间的数据交互。确保通信顺畅需要做好相应的网络安全和权限设置。 总结来看,利用...

    大数据集群搭建aaaa.zip

    在这个“大数据集群搭建aaaa.zip”文件中,可能包含了搭建大数据集群所需的各种步骤、配置文件和指导文档。 首先,大数据集群通常基于Hadoop生态系统,这包括Hadoop Distributed File System (HDFS) 和 MapReduce ...

    hadoop-Apache2.7.3+Spark2.0集群搭建

    Hadoop-Apache2.7.3和Spark2.0集群搭建涉及众多步骤和技术细节,下面详细阐述这些知识点。 首先,搭建Hadoop-Apache2.7.3和Spark2.0集群之前,需要了解相关硬件和软件的环境要求。在硬件设备方面,单台物理机应至少...

    flume及kafka及storm搭建.rar

    在大数据处理领域,Flume、Kafka和Storm是三个至关重要的工具,它们分别在数据采集、数据分发和实时处理方面发挥着核心作用。这里我们将深入探讨这三个组件以及如何搭建它们。 1. Flume:Flume是Apache软件基金会的...

    hadoop集群搭建以及大数据平台搭建

    Spark集群搭建涉及主节点和工作节点的配置,包括Spark环境变量设置、配置文件spark-defaults.conf和slaves,以及YARN或Mesos等资源管理器的集成。Spark高可用通过设置多个Spark Master节点并配置Zookeeper实现。 ...

Global site tag (gtag.js) - Google Analytics