一、下载/解压缩
[root@hadoop0 opt]# wget http://mirror.bit.edu.cn/apache/flume/1.6.0/apache-flume-1.6.0-bin.tar.gz
--1999-05-08 19:02:36-- http://mirror.bit.edu.cn/apache/flume/1.6.0/apache-flume-1.6.0-bin.tar.gz
Resolving mirror.bit.edu.cn... 114.247.56.117
Connecting to mirror.bit.edu.cn|114.247.56.117|:80... connected.
HTTP request sent, awaiting response... 200 OK
Length: 52550402 (50M) [application/octet-stream]
Saving to: apache-flume-1.6.0-bin.tar.gz
100%[===========================>] 52,550,402 621K/s in 1m 41s
1999-05-08 19:04:17 (507 KB/s) - apache-flume-1.6.0-bin.tar.gz saved [52550402/52550402]
[root@hadoop0 opt]# tar -zxvf apache-flume-1.6.0-bin.tar.gz
[root@hadoop0 opt]# cd apache-flume-1.6.0-bin
[root@hadoop0 apache-flume-1.6.0-bin]# ./bin/flume-ng help
Usage: ./bin/flume-ng <command> [options]...
commands:
help display this help text
agent run a Flume agent
avro-client run an avro Flume client
version show Flume version info
global options:
--conf,-c <conf> use configs in <conf> directory
--classpath,-C <cp> append to the classpath
--dryrun,-d do not actually start Flume, just print the command
--plugins-path <dirs> colon-separated list of plugins.d directories. See the
plugins.d section in the user guide for more details.
Default: $FLUME_HOME/plugins.d
-Dproperty=value sets a Java system property value
-Xproperty=value sets a Java -X option
agent options:
--name,-n <name> the name of this agent (required)
--conf-file,-f <file> specify a config file (required if -z missing)
--zkConnString,-z <str> specify the ZooKeeper connection to use (required if -f missing)
--zkBasePath,-p <path> specify the base path in ZooKeeper for agent configs
--no-reload-conf do not reload config file if changed
--help,-h display help text
avro-client options:
--rpcProps,-P <file> RPC client properties file with server connection params
--host,-H <host> hostname to which events will be sent
--port,-p <port> port of the avro source
--dirname <dir> directory to stream to avro source
--filename,-F <file> text file to stream to avro source (default: std input)
--headerFile,-R <file> File containing event headers as key/value pairs on each new line
--help,-h display help text
Either --rpcProps or both --host and --port must be specified.
Note that if <conf> directory is specified, then it is always included first
in the classpath.
二、增加配置文件
[root@hadoop0 apache-flume-1.6.0-bin]# vi conf/hw.conf
agent.sources=s1
agent.channels=c1
agent.sinks=k1
agent.sources.s1.type=netcat
agent.sources.s1.channels=c1
agent.sources.s1.bind=192.168.1.111
agent.sources.s1.port=12345
agent.channels.c1.type=memory
agent.sinks.k1.type=logger
agent.sinks.k1.channel=c1
三、启动、验证
[root@hadoop0 apache-flume-1.6.0-bin]
# ./bin/flume-ng agent -n agent -c conf -f conf/hw.conf -Dflume.root.logger=INFO,console
[root@hadoop0 ~]# netstat -tnpl
Active Internet connections (only servers)
Proto Recv-Q Send-Q Local Address Foreign Address State PID/Program name
tcp 0 0 0.0.0.0:9447 0.0.0.0:* LISTEN 1349/rpc.statd
tcp 0 0 0.0.0.0:111 0.0.0.0:* LISTEN 1304/rpcbind
tcp 0 0 0.0.0.0:22 0.0.0.0:* LISTEN 1538/sshd
tcp 0 0 127.0.0.1:631 0.0.0.0:* LISTEN 1382/cupsd
tcp 0 0 127.0.0.1:25 0.0.0.0:* LISTEN 1618/master
tcp 0 0 :::111 :::* LISTEN 1304/rpcbind
tcp 0 0 :::13683 :::* LISTEN 1349/rpc.statd
tcp 0 0 :::22 :::* LISTEN 1538/sshd
tcp 0 0 ::1:631 :::* LISTEN 1382/cupsd
tcp 0 0 ::1:25 :::* LISTEN 1618/master
[root@hadoop0 ~]# nc -l 12345
nc: Address already in use
[root@hadoop0 ~]# nc localhost 12345
[root@hadoop0 ~]# nc 192.168.1.111 12345
sdfsdfdsf
OK
sdfsdfsdf
OK
gaojingsong
OK
whomai
OK
四、验证结果
相关推荐
尚硅谷大数据技术之Flume Flume 是 Cloudera 提供的一个高可用的、 高可靠的、分布式的海量日志采集、聚合和传输的系统。 Flume 基于流式架构,灵活简单。 1.1 Flume 定义 Flume 是一个高可用的、 高可靠的、...
文档虽然没有提供完整的Flume配置和运行示例,但根据上面提到的组件,一个基本的Flume配置文件可能包含以下内容: - **定义一个或多个代理**(Agent):每个代理包含一个或多个源、通道和接收器。 - **指定每个源的...
大数据技术之Flume Flume是Cloudera提供的一个高可用的,高可靠的,分布式的海量日志采集、聚合和传输的系统。它基于流式架构,灵活简单。 Flume定义 Flume是一个高可用的,高可靠的,分布式的海量日志采集、...
【尚硅谷大数据技术之Flume笔记1】 Flume是Cloudera开发的一款专门用于大数据收集、聚合和传输的系统,其设计目标是提供高可用、高可靠性和分布式的服务。Flume基于流处理架构,简化了日志数据的管理和传输过程。 ...
这个名为 "flume-demo_大数据_flume_DEMO_自定义拦截器_" 的项目,显然是一个示例,展示了如何在 Flume 中创建并使用自定义拦截器来过滤数据。下面我们将深入探讨 Flume 的基本概念、拦截器的作用以及如何自定义拦截...
**大数据Ambari之flume集成编译好的源码包** Apache Ambari 是一个用于管理和监控Hadoop集群的开源工具,它提供了直观的Web界面和RESTful API,使得安装、配置、管理Hadoop生态系统变得更加简单。Flume是Apache的一...
### 大数据技术之Flume教程 #### 一、Flume概述 Flume是由Cloudera公司提供的一个高效、可靠且分布式的大规模日志采集、汇聚与传输的系统。其设计基于流式架构,旨在为用户提供灵活且简单的日志管理方案。 **1.1 ...
**大数据技术之Flume笔记** Apache Flume 是一个分布式、可靠且可用于有效收集、聚合和移动大量日志数据的系统。在大数据处理中,Flume 作为数据收集器扮演着关键角色,它能够从各种数据源高效地抽取数据,然后将...
【尚硅谷大数据技术之 Flume 1】章节主要介绍了Apache Flume的基础知识,这是一个用于高效收集、聚合和传输大规模日志数据的分布式服务。Flume以其流数据流的简单灵活架构设计,具备高可靠性和容错性,适用于实时...
大数据Flume架构原理 Flume是一个分布式、可靠、和高可用的海量日志聚合的系统,支持在系统中定制各类数据发送方,用于收集数据;同时,Flume提供对数据进行简单处理,并写到各种数据接受方(可定制)的能力。目前...
### 大数据Flume学习视频知识点详解 #### 一、Flume简介与应用场景 Flume是一种高可靠、高性能的服务,用于收集、聚合和移动大量日志数据。它具有灵活的架构,可以根据不同的需求进行配置,并支持多种数据源类型。...
文档强调了实验的两个目的:掌握Flume的安装和使用方法,以及理解Flume Agent及其组件的基本功能。 ### 知识点总结 - Flume是用于数据采集的分布式系统。 - 实验者需准备本地目录和HDFS目录。 - Flume的安装包括...
**大数据Flume组件使用指导手册中文版** Apache Flume 是一个分布式、可靠且可用于有效收集、聚合和移动大量日志数据的系统。它设计简洁,易于扩展,是大数据环境中常用的数据采集工具,尤其在离线数据处理场景下,...
### 大数据组件-Flume高可用集群搭建 #### Flume概述 Flume是一个高度可靠的分布式数据收集系统,主要用于从多种数据源收集并传输数据至Hadoop生态系统内进行后续处理。由于其强大的可扩展性和可靠性,Flume在大型...
1. **Event**:这是Flume处理的基本数据单元,带有可选的消息头和字节数组构成的正文。消息头用于传递元数据,而正文则承载实际数据。 2. **Flow**:Event从源头到目的地的传输抽象,代表数据流动的过程。 3. **...