`
bit1129
  • 浏览: 1067907 次
  • 性别: Icon_minigender_1
  • 来自: 北京
社区版块
存档分类
最新评论

【Flume二】HDFS sink细说

 
阅读更多

1. Flume配置

 

a1.sources=r1  
a1.channels=c1  
a1.sinks=k1  

###Flume负责启动44444端口
  
a1.sources.r1.type=avro  
a1.sources.r1.bind=0.0.0.0  
a1.sources.r1.port=44444  
a1.sources.r1.channels=c1  
  
a1.channels.c1.type=memory  
a1.channels.c1.capacity=10000  
a1.channels.c1.transactionCapacity=1000  
a1.channels.c1.keep-alive=30  
  
a1.sinks.k1.type=hdfs  
a1.sinks.k1.channel=c1  
a1.sinks.k1.hdfs.path=hdfs://hadoop.master:9000/user/hadoop/flume
a1.sinks.k1.hdfs.fileType=DataStream  
a1.sinks.k1.hdfs.writeFormat=Text  
a1.sinks.k1.hdfs.rollInterval=0  
a1.sinks.k1.hdfs.rollSize=10240  
a1.sinks.k1.hdfs.rollCount=0  
a1.sinks.k1.hdfs.idleTimeout=60

 

此处,Flume开启了44444端口,用于接受avro event,

 

将 sink的type由logger变为hdfs,然后指定输出path, 默认是输出到HDFS后为sequencefile,里面的内容无法直接打开浏览,为了便于直观看到我们输出的日志信息,所以我这里将fileType为 DataStream, writeFormat=Text,这样就可以直接打开生成的文件进行查看了。

下面几个roll开头的参数都是用来控制滚动日志输出的,官方文档上的说明也很详细,我这里配置的只按文件大小来滚动rollSize=10240,也就 是10K滚动生成一个新的文件用来接收新的EVENTS。实际中这个Size应该更大一些,我觉得设置成HDFS的blocksize大小应该挺合适的。

idleTimeout设置为60秒(默认值为0),这里面的原理是这样的,flume里面每生成一个接收文件时的命名规则 如:FlumeData.1406251462179.tmp,.tmp表示这个文件正在被使用来接收EVENTS,当满10K之后,这个文件会被 rename成FlumeData.1406251462179,把.tmp后缀去掉,但是如果你停止了应用程序 后,FlumeData.1406251462179.tmp还没满10K,按照默认的idleTimeout设置,不会将它rename,也就 是.tmp后缀一直在,造成了这个文件一直在使用当中的一个假象,这是有问题的,我们设置idleTimeout=60,即60秒后这个文件还没有被写入 数据,就会关闭它然后rename它去掉.tmp,以后新进来的events,会新开一个.tmp文件来接收。

我们再运行第一篇文章中的那个示例应用程序,然后去path指定的目录下面就能看到log4j输出的日志信息了。

 

注意点:

首先在hdfs上创建/flume目录:hadoop fs -mkdir /flume
给该目录授权给flume用户和组:hadoop fs -chown -R flume:flume /flume
注意给目录授权很重要,不然会报错。

 

 

Flume启动44444端口,监听来自于44444端口的网络输出,那么如何往44444写入数据呢?目前有三种做法:

1. 实验目的,可以是用telnet localhost 44444,然后写入数据

2. 使用Flume提供的avro-client,写入一个文件到44444

3. 使用Flume结合log4j,log4j的日志打到两个位置:一个是本地日志文件,一个是使用FlumeAppender,将日志发送到指定的端口,如下配置:

log4j.properties配置:

log4j.rootLogger=INFO
log4j.category.com.besttone=INFO,flume
log4j.appender.flume = org.apache.flume.clients.log4jappender.Log4jAppender
log4j.appender.flume.Hostname = localhost
log4j.appender.flume.Port = 44444

log4j.appender.flume.UnsafeMode = tr

 

 

 

参考:

http://blog.niubua.com/flume%E5%AD%A6%E4%B9%A0%EF%BC%88%E4%B8%80%EF%BC%89%EF%BC%9Alog4j%E7%9B%B4%E6%8E%A5%E8%BE%93%E5%87%BA%E6%97%A5%E5%BF%97%E5%88%B0flume/

http://blog.niubua.com/flume%E5%AD%A6%E4%B9%A0%EF%BC%88%E4%B8%89%EF%BC%89%EF%BC%9Aflume%E5%B0%86log4j%E6%97%A5%E5%BF%97%E6%95%B0%E6%8D%AE%E5%86%99%E5%85%A5%E5%88%B0hdfs/

分享到:
评论

相关推荐

    Flume配置双HA hdfsSink.docx

    在默认情况下,Flume 的 HDFSSink 只能连接到一个Hadoop集群,并且能够通过配置支持HA模式。这意味着它可以根据`hdfs-site.xml`和`core-site.xml`中的设置自动选择活动的NameNode进行通信。但是,当需要同时将数据...

    Flume-HDFS-驱动-jar包

    在大数据处理领域,Flume 和 HDFS 是两个重要的组件。Flume 是一个分布式、可靠且可用于有效收集、聚合和移动大量日志数据的系统,而 HDFS(Hadoop Distributed File System)是 Apache Hadoop 项目的核心部分,提供...

    flume所需要的hdfs包.zip

    这个 Sink 可能会包含配置文件、Java 类库或者二进制可执行文件,用于连接到 HDFS 并进行数据写入操作。 2. **配置文件**:Flume 的配置文件(通常为 `flume.conf`)可能已经预设了与 HDFS 相关的配置,包括 HDFS ...

    flume+hdfs所需jar.rar

    在配置 Flume 以将数据写入 HDFS 时,我们需要在 Flume 的配置文件(通常是 `flume.conf`)中指定 HDFS Sink。例如: ```properties a.sources = r1 a.sinks = k1 a.channels = c1 a.sources.r1.type = exec a....

    flume连hdfs需要的4个包.rar

    commons-io-2.4.jar,hadoop-auth-2.7.3.jar,hadoop-common-2.7.3.jar,hadoop-hdfs-2.7.3.jar,htrace-core-3.1.0-incubating.jar五个包是flume1.7连hdfs所需要的外部包,这是其中一个,其他四个看其他的下载。

    flume连hdfs需要的1个包.rar

    commons-io-2.4.jar,hadoop-auth-2.7.3.jar,hadoop-common-2.7.3.jar,hadoop-hdfs-2.7.3.jar,htrace-core-3.1.0-incubating.jar五个包是flume1.7连hdfs所需要的外部包,这是其中一个,其他四个看其他的下载。

    flume连hdfs需要的3个包.rar

    commons-io-2.4.jar,hadoop-auth-2.7.3.jar,hadoop-common-2.7.3.jar,hadoop-hdfs-2.7.3.jar,htrace-core-3.1.0-incubating.jar五个包是flume1.7连hdfs所需要的外部包,这是其中一个,其他四个看其他的下载。

    flume连hdfs需要的第5个包.rar

    commons-io-2.4.jar,hadoop-auth-2.7.3.jar,hadoop-common-2.7.3.jar,hadoop-hdfs-2.7.3.jar,htrace-core-3.1.0-incubating.jar五个包是flume1.7连hdfs所需要的外部包,这是其中一个,其他四个看其他的下载。

    flume-flume-hdfs.conf

    flume-flume-hdfs.conf

    flume-ng-hdfs-sink-1.7.0.jar

    flume-ng-hdfs-sink-1.7.0.jar,这个包里包含了flume和HDFS集成的所有类

    Flume采集Rabbitmq数据同步到HDFS

    agent.sinks.hdfsSink.hdfs.filePrefix = flume_ agent.sinks.hdfsSink.hdfs.fileSuffix = .txt ``` 在这个配置中,`rabbitSource`是Source,它连接到RabbitMQ服务器的`myQueue`队列;`memoryChannel`是内存Channel...

    flume定制化sink

    flume定制化sink,用于参考,使用了多线程及读取配置文件的技术

    flume sink直写mysql

    flume 自定义sink组件 实现sink直接写入mysql数据库

    flume-hadoop-fonxian1024.zip

    配置Flume的HDFS Sink时,我们需要在Flume配置文件(通常是conf/flume.conf)中定义一个Sink。例如: ``` agent_name.sink.type = hdfs agent_name.sink.hdfs.path = hdfs://namenode:port/path/to/store/logs ...

    flume连hdfs需要的2个包.rar

    commons-io-2.4.jar,hadoop-auth-2.7.3.jar,hadoop-common-2.7.3.jar,hadoop-hdfs-2.7.3.jar,htrace-core-3.1.0-incubating.jar五个包是flume1.7连hdfs所需要的外部包,这是其中一个,其他四个看其他的下载。

    基于flume和HDFS的日志收集系统.pptx

    自己制作的基于flume的日志收集系统概念介绍,非常浅显,不算是资源,拿出来与大家讨论

Global site tag (gtag.js) - Google Analytics