`
astroboyx
  • 浏览: 24877 次
  • 性别: Icon_minigender_1
  • 来自: 上海
社区版块
存档分类

Flume Sinks

 
阅读更多

Flume Sinks

1、Flume’s Collector Tier Event Sinks

collectorSink( "fsdir","fsfileprefix",rollmillis)

collectorSink,数据通过collector汇聚之后发送到hdfs, fsdir 是hdfs目录,fsfileprefix为文件前缀码

2、Flume’s Agent Tier Event Sinks

agentSink[("machine"[,port])]

Defaults to agentE2ESink,如果省略,machine参数,默认使用flume.collector.event.host与flume.collector.event.port作为默认collecotr(以下同此)

agentE2ESink[("machine"[,port])]

执着的agent,如果agent发送event没有收到collector成功写入的状态码,该event将被agent重复发送,直到接到成功写入的状态码

agentDFOSink[("machine" [,port])]

本地热备agent,agent发现collector节点故障后,不断检查collector的存活状态以便重新发送event,在此间产生的数据将缓存到本地磁盘中

agentBESink[("machine"[,port])]

不负责的agent,如果collector故障,将不做任何处理,它发送的数据也将被直接丢弃

agentE2EChain("m1[:_p1_]" [,"m2[:_p2_]"[,…]])

指定多个collector提高可用性。 当向主collector发送event失效后,转向第二个collector发送,当所有的collector失败后,它会非常执着的再来一遍...

agentDFOChain("m1[:_p1_]"[, "m2[:_p2_]"[,…]])

同上,当向所有的collector发送事件失效后,他会将event缓存到本地磁盘,并检查collector状态,尝试重新发送

agentBEChain("m1[:_p1_]"[, "m2[:_p2_]"[,…]])

同上,当向所有的collector发送事件失效后,他会将event丢弃

autoE2EChain

无需指定collector, 由master协调管理event的流向

autoDFOChain

同上

autoBEChain

同上

3、Flume’s Logical Sinks

logicalSink("logicalnode")

4、Flume’s Basic Sinks

在不使用collector收集event的情况下,可将source直接发向basic sinks

null

null

console[("formatter")]

转发到控制台

text("txtfile" [,"formatter"])

转发到文本文件

seqfile("filename")

转发到seqfile

dfs("hdfspath")

转发到hdfs

customdfs("hdfspath"[, "format"])

自定义格式dfs

+escapedCustomDfs("hdfspath", "file", "format")

rpcSink("host"[, port])

Rpc框架

syslogTcp("host"[,port])

发向网络地址

irc("host",port, "nick", "chan")


分享到:
评论

相关推荐

    influxdb-flume-sink:处理 JSON 格式的 Flume 事件并将它们发送到 InfluxDB 系列的可配置 Flume Sink

    自定义 Flume sinks 的相关类或 jar 文件可以放在 Flume classpath 中,也可以将 sinks 与 Flume Source 一起编译。 配置水槽 将接收器的类型设置为类名,例如: agent1.sinks.influxDBSink1.type = org.apache....

    flume支持RabbitMQ插件

    flume支持RabbitMQ插件

    flume-ng安装

    Flume-NG 安装与配置指南 Flume-NG 是一个分布式日志收集系统,能够从各种数据源中实时采集数据,并将其传输到集中式存储系统中。本文将指导您完成 Flume-NG 的安装和基本配置。 安装 Flume-NG 1. 先决条件:...

    Flume1.6.0入门:安装、部署、及flume的案例

    ### Flume 1.6.0 入门详解:安装、部署及案例分析 #### 一、Flume 概述 Flume 是 Cloudera 开发的一款高效、可靠且易于扩展的日志收集系统,适用于大数据环境下的日志采集任务。Flume 的初始版本被称为 FlumeOG...

    apache-flume-1.9.0-bin.tar.gz

    Apache Flume 是一个分布式、可靠且可用的数据收集系统,用于高效地聚合、移动大量日志数据。Flume 提供了简单灵活的架构,允许数据在多个数据源和数据接收器之间流动。它被广泛应用于大数据处理环境,尤其适合监控...

    flume安装程序

    Apache Flume 是一个分布式、可靠且可用的服务,用于有效地收集、聚合和移动大量日志数据。它是Apache Hadoop生态系统的一部分,特别设计用于处理和传输大规模流式数据。Flume通过简单而灵活的架构实现了数据的高效...

    flume-ng-elasticsearch6-sink.zip

    flume1.9采集数据入存入elasticsearch6.2.4,flume1.9本身只支持低版本的elasticsearch,基于apache-flume-1.9.0-src的flume-ng-sinks/flume-ng-elasticsearch-sink源码修改,支持es6.2.4,打的包,直接替换flume/...

    Flume+kafka+Storm整合

    ### Flume+kafka+Storm整合知识点详解 #### 一、Flume、Kafka与Storm概述 在大数据领域,数据采集、传输与实时处理是至关重要的环节。本篇内容重点介绍了如何利用Flume、Kafka与Storm这三个开源工具实现一套完整的...

    flume向mongodb写入环境搭建所需

    这个过程中的关键在于正确配置 Flume 的 Sources、Channels 和 Sinks,以及确保 MongoDB 驱动已添加到 Flume 类路径。在实际环境中,你可能需要根据具体需求调整配置,例如增加日志解析拦截器,或者改变数据写入 ...

    Flume安装包、安装文档

    3. **Sinks**:Sinks是Flume将数据流出的出口,它们负责将接收到的事件发送到目的地,如HDFS、HBase、Kafka或其他Flume Agent。常见的Sink包括HDFS Sink、HBase Sink、Null Sink等。 4. **Agents**:Flume的核心...

    flume1.8.0和elasticsearch5.2.6整合

    - 获取Flume的源码,找到`flume-ng-sinks`模块下的`flume-elasticsearch-sink`项目。 - 检查与Elasticsearch的API兼容性,可能需要升级`elasticsearch`的依赖库到5.2.6版本。 - 修改`src/main/java/org/apache/...

    Flume1.8安装部署

    4. 配置 flume-conf.properties 文件:将 `flume-conf.properties.template` 文件复制为 `flume-conf.properties`,然后修改文件,添加配置项,例如 `agent.sources=s1`、`agent.channels=c1`、`agent.sinks=k1` 等...

    Flume学习文档(2){Flume安装部署、Flume配置文件}.docx

    通过这样的配置,你可以创建复杂的Flume拓扑,包含多个Sources、Sinks和Channels,以实现更复杂的数据流处理。例如,可以添加更多的Sinks来将数据发送到不同的目的地,如HDFS、HBase或其他日志分析工具。此外,Flume...

    Flume的高级案例

    ### Flume的高级案例分析:ReplicatingChannelSelector详解 #### 概述 Flume作为Hadoop生态体系中的一种高效、可靠的服务,主要用于收集、聚合并传输大量的日志数据或其他类型的数据。它提供了丰富的功能来满足...

    flume 文件备份

    下面将详细讲解 Flume 的工作原理以及如何在项目中使用 `flume-sinks-safe-roll-file-sink-master`。 1. **Flume 工作原理** Flume 主要由三个核心组件构成:Source、Channel 和 Sink。Source 负责从数据源处收集...

    flume-1.9.0.tgz

    Flume 的配置是基于文本文件的,通常使用 YAML 格式,其中定义了 Agent(Flume 运行实例)的配置,包括 Sources、Channels 和 Sinks。配置文件可以包含多个 Agent 配置,每个 Agent 可以有多个执行线程。 Flume ...

    flume与kafka整合需要的jar包

    agent.sinks.kafkaSink.type = org.apache.flume.sink.kafka.KafkaSink agent.sinks.kafkaSink.topic = myTopic agent.sinks.kafkaSink.brokerList = localhost:9092 agent.sinks.kafkaSink.batchSize = 100 agent....

    apache-flume-1.7.0-bin.tar.gz

    Sinks是Flume的数据输出端,它们负责将数据从Channels传输到目标位置,如HDFS(Hadoop分布式文件系统)、Elasticsearch、Kafka或其他日志存储或分析系统。通过灵活的配置,Sinks可以实现数据的多样化处理和分发。 ...

    flume-mysql.zip

    agent.sinks.kafka-sink.type = org.apache.flume.sink.kafka.KafkaSink agent.sinks.kafka-sink.topic = my-topic agent.sinks.kafka-sink.brokerList = localhost:9092 agent.sinks.kafka-sink.batchSize = 100 ``...

    flume-kafka流程

    sinks.sk1.type = org.apache.flume.sink.kafka.KafkaSink sinks.sk1.topic = test sinks.sk1.kafka.bootstrap.servers = localhost:9092 sinks.sk1.producer.acks = all sinks.sk1.producer.request.timeout....

Global site tag (gtag.js) - Google Analytics