Flume Sinks
1、Flume’s Collector Tier Event Sinks
collectorSink( "fsdir","fsfileprefix",rollmillis)
|
collectorSink,数据通过collector汇聚之后发送到hdfs, fsdir 是hdfs目录,fsfileprefix为文件前缀码
|
2、Flume’s Agent Tier Event Sinks
agentSink[("machine"[,port])]
|
Defaults to agentE2ESink,如果省略,machine参数,默认使用flume.collector.event.host与flume.collector.event.port作为默认collecotr(以下同此)
|
agentE2ESink[("machine"[,port])]
|
执着的agent,如果agent发送event没有收到collector成功写入的状态码,该event将被agent重复发送,直到接到成功写入的状态码
|
agentDFOSink[("machine" [,port])]
|
本地热备agent,agent发现collector节点故障后,不断检查collector的存活状态以便重新发送event,在此间产生的数据将缓存到本地磁盘中
|
agentBESink[("machine"[,port])]
|
不负责的agent,如果collector故障,将不做任何处理,它发送的数据也将被直接丢弃
|
agentE2EChain("m1[:_p1_]" [,"m2[:_p2_]"[,…]])
|
指定多个collector提高可用性。 当向主collector发送event失效后,转向第二个collector发送,当所有的collector失败后,它会非常执着的再来一遍...
|
agentDFOChain("m1[:_p1_]"[, "m2[:_p2_]"[,…]])
|
同上,当向所有的collector发送事件失效后,他会将event缓存到本地磁盘,并检查collector状态,尝试重新发送
|
agentBEChain("m1[:_p1_]"[, "m2[:_p2_]"[,…]])
|
同上,当向所有的collector发送事件失效后,他会将event丢弃
|
autoE2EChain
|
无需指定collector, 由master协调管理event的流向
|
autoDFOChain
|
同上
|
autoBEChain
|
同上
|
3、Flume’s Logical Sinks
logicalSink("logicalnode")
|
|
4、Flume’s Basic Sinks
在不使用collector收集event的情况下,可将source直接发向basic sinks
null
|
null
|
console[("formatter")]
|
转发到控制台
|
text("txtfile" [,"formatter"])
|
转发到文本文件
|
seqfile("filename")
|
转发到seqfile
|
dfs("hdfspath")
|
转发到hdfs
|
customdfs("hdfspath"[, "format"])
|
自定义格式dfs
|
+escapedCustomDfs("hdfspath", "file", "format")
|
|
rpcSink("host"[, port])
|
Rpc框架
|
syslogTcp("host"[,port])
|
发向网络地址
|
irc("host",port, "nick", "chan")
|
|
分享到:
相关推荐
自定义 Flume sinks 的相关类或 jar 文件可以放在 Flume classpath 中,也可以将 sinks 与 Flume Source 一起编译。 配置水槽 将接收器的类型设置为类名,例如: agent1.sinks.influxDBSink1.type = org.apache....
flume支持RabbitMQ插件
Flume-NG 安装与配置指南 Flume-NG 是一个分布式日志收集系统,能够从各种数据源中实时采集数据,并将其传输到集中式存储系统中。本文将指导您完成 Flume-NG 的安装和基本配置。 安装 Flume-NG 1. 先决条件:...
### Flume 1.6.0 入门详解:安装、部署及案例分析 #### 一、Flume 概述 Flume 是 Cloudera 开发的一款高效、可靠且易于扩展的日志收集系统,适用于大数据环境下的日志采集任务。Flume 的初始版本被称为 FlumeOG...
Apache Flume 是一个分布式、可靠且可用的数据收集系统,用于高效地聚合、移动大量日志数据。Flume 提供了简单灵活的架构,允许数据在多个数据源和数据接收器之间流动。它被广泛应用于大数据处理环境,尤其适合监控...
Apache Flume 是一个分布式、可靠且可用的服务,用于有效地收集、聚合和移动大量日志数据。它是Apache Hadoop生态系统的一部分,特别设计用于处理和传输大规模流式数据。Flume通过简单而灵活的架构实现了数据的高效...
flume1.9采集数据入存入elasticsearch6.2.4,flume1.9本身只支持低版本的elasticsearch,基于apache-flume-1.9.0-src的flume-ng-sinks/flume-ng-elasticsearch-sink源码修改,支持es6.2.4,打的包,直接替换flume/...
### Flume+kafka+Storm整合知识点详解 #### 一、Flume、Kafka与Storm概述 在大数据领域,数据采集、传输与实时处理是至关重要的环节。本篇内容重点介绍了如何利用Flume、Kafka与Storm这三个开源工具实现一套完整的...
这个过程中的关键在于正确配置 Flume 的 Sources、Channels 和 Sinks,以及确保 MongoDB 驱动已添加到 Flume 类路径。在实际环境中,你可能需要根据具体需求调整配置,例如增加日志解析拦截器,或者改变数据写入 ...
3. **Sinks**:Sinks是Flume将数据流出的出口,它们负责将接收到的事件发送到目的地,如HDFS、HBase、Kafka或其他Flume Agent。常见的Sink包括HDFS Sink、HBase Sink、Null Sink等。 4. **Agents**:Flume的核心...
- 获取Flume的源码,找到`flume-ng-sinks`模块下的`flume-elasticsearch-sink`项目。 - 检查与Elasticsearch的API兼容性,可能需要升级`elasticsearch`的依赖库到5.2.6版本。 - 修改`src/main/java/org/apache/...
4. 配置 flume-conf.properties 文件:将 `flume-conf.properties.template` 文件复制为 `flume-conf.properties`,然后修改文件,添加配置项,例如 `agent.sources=s1`、`agent.channels=c1`、`agent.sinks=k1` 等...
通过这样的配置,你可以创建复杂的Flume拓扑,包含多个Sources、Sinks和Channels,以实现更复杂的数据流处理。例如,可以添加更多的Sinks来将数据发送到不同的目的地,如HDFS、HBase或其他日志分析工具。此外,Flume...
### Flume的高级案例分析:ReplicatingChannelSelector详解 #### 概述 Flume作为Hadoop生态体系中的一种高效、可靠的服务,主要用于收集、聚合并传输大量的日志数据或其他类型的数据。它提供了丰富的功能来满足...
下面将详细讲解 Flume 的工作原理以及如何在项目中使用 `flume-sinks-safe-roll-file-sink-master`。 1. **Flume 工作原理** Flume 主要由三个核心组件构成:Source、Channel 和 Sink。Source 负责从数据源处收集...
Flume 的配置是基于文本文件的,通常使用 YAML 格式,其中定义了 Agent(Flume 运行实例)的配置,包括 Sources、Channels 和 Sinks。配置文件可以包含多个 Agent 配置,每个 Agent 可以有多个执行线程。 Flume ...
agent.sinks.kafkaSink.type = org.apache.flume.sink.kafka.KafkaSink agent.sinks.kafkaSink.topic = myTopic agent.sinks.kafkaSink.brokerList = localhost:9092 agent.sinks.kafkaSink.batchSize = 100 agent....
Sinks是Flume的数据输出端,它们负责将数据从Channels传输到目标位置,如HDFS(Hadoop分布式文件系统)、Elasticsearch、Kafka或其他日志存储或分析系统。通过灵活的配置,Sinks可以实现数据的多样化处理和分发。 ...
agent.sinks.kafka-sink.type = org.apache.flume.sink.kafka.KafkaSink agent.sinks.kafka-sink.topic = my-topic agent.sinks.kafka-sink.brokerList = localhost:9092 agent.sinks.kafka-sink.batchSize = 100 ``...
sinks.sk1.type = org.apache.flume.sink.kafka.KafkaSink sinks.sk1.topic = test sinks.sk1.kafka.bootstrap.servers = localhost:9092 sinks.sk1.producer.acks = all sinks.sk1.producer.request.timeout....