Flume入门教程-简单案例
1.下载安装
官方网站:http://flume.apache.org/ http://mirror.bit.edu.cn/apache/flume/1.6.0/apache-flume-1.6.0-bin.tar.gz tar -zxvf apache-flume-1.6.0-bin.tar.gz
2.修改配置
重命名flume-conf.properties.template文件为simple.conf,并修改为以下内容
Agent名称定义为agent. Source:可以理解为输入端,定义名称为s1 channel:传输频道,定义为c1,设置为内存模式 sinks:可以理解为输出端,定义为sk1, agent.sources = s1 agent.channels = c1 agent.sinks = sk1 #设置Source的内省为netcat 端口为5678,使用的channel为c1 agent.sources.s1.type = netcat agent.sources.s1.bind = localhost agent.sources.s1.port = 5678 agent.sources.s1.channels = c1 #设置Sink为logger模式,使用的channel为c1 agent.sinks.sk1.type = logger agent.sinks.sk1.channel = c1 #设置channel信息 agent.channels.c1.type = memory #内存模式 agent.channels.c1.capacity = 1000 agent.channels.c1.transactionCapacity = 100 #传输参数设置。
3.启动Agent
bin/flume-ng agent -c conf -f conf/simple.conf --name agent -Dflume.root.logger=INFO,console
4.发送测试数据
telnet localhost 5678 hello,world.
5.验证数据接收
验证flume是否接收到了数据
6.简单优化配置:
修改flume-env.sh,设置JDK版本,Flume1.6.0需要JDK1.6+
export JAVA_HOME=/opt/jdk1.7/jdk1.7.0_45/
设置内存相关参数
JAVA_OPTS="-Xms8192m -Xmx8192m -Xss256k -Xmn2g -XX:+UseParNewGC -XX:+UseConcMarkSweepGC -XX:-UseGCOverheadLimit"
7.其他配置案例
使用命令行模式Tail读取日志文件配置
agent.sources = s1 agent.channels = c1 agent.sinks = sk1 #设置Tail方式跟踪日志内容 agent.sources.s1.type = exec agent.sources.s1.command = tail -F /usr/local/logstash-1.4.2/new_log.2015-03-26.txt agent.sources.s1.channels = c1 agent.sinks.sk1.type = logger agent.sinks.sk1.channel = c1 #In Memory !!! agent.channels.c1.type = memory agent.channels.c1.capacity = 10004 agent.channels.c1.transactionCapacity = 100
设置跟踪目录方式
agent.sources = s1 agent.channels = c1 agent.sinks = sk1 #设置spooldir agent.sources.s1.type = spooldir agent.sources.s1.spoolDir = /usr/local/logstash-1.4.2/logs agent.sources.s1.fileHeader = true agent.sources.s1.channels = c1 agent.sinks.sk1.type = logger agent.sinks.sk1.channel = c1 #In Memory !!! agent.channels.c1.type = memory agent.channels.c1.capacity = 10004 agent.channels.c1.transactionCapacity = 100
相关推荐
### Flume 1.6.0 入门详解:安装、部署及案例分析 #### 一、Flume 概述 Flume 是 Cloudera 开发的一款高效、可靠且易于扩展的日志收集系统,适用于大数据环境下的日志采集任务。Flume 的初始版本被称为 FlumeOG...
flume入门介绍,简单介绍flume的背景和应用场景,flume的实现原理以及案例分享
Flume是的一个分布式、高可用、高可靠的海量日志采集、聚合和传输的系统,支持在日志系统中定制各类数据发送方,用于收集数据,同时提供了对数据进行简单处理并写到各种数据接收方的能力。 2、适应人群 有一定的...
Apache Flume 是一个强大的、分布式的日志聚合工具,特别适用于大数据环境中的日志收集。Flume 1.5.0 版本是其发展历程中的一个重要里程碑,提供了更稳定、高效和可扩展的功能。以下是对 Flume 的详细介绍: **...
Apache Flume是一个分布式、可靠且可用的系统,...以上内容详细介绍了Flume的核心概念、架构组件、系统要求、安装步骤和一个简单的入门案例。理解这些知识点对于成功配置和使用Flume来收集、聚合和传输数据至关重要。
监控端口数据也可以通过Flume进行收集,如案例需求所示,使用Flume来实现实时的数据捕获和传输。 总结来说,Flume是大数据领域的重要工具,它提供了简单而强大的方式来处理和传输日志数据,是构建大数据基础设施不...
在解决 Flume 入门案例的过程中,可能会遇到一些难点,如配置文件的编写、错误排查等。教师可以通过示范教学,提供学习视频,指导学生逐步解决问题。学生在遇到困难时,可以借助教学资源,如在线平台、大数据技术实...
在本文中,我们将深入探讨 Flume 的安装、配置、测试以及如何将其应用于实际案例,即从不同节点采集日志并存储到 HDFS。 首先,我们从安装 Flume 开始。Flume 的安装包括解压安装包,重命名 Flume 目录,配置 `...
#### 四、Flume快速入门 **2.1 Flume安装地址** - **官方地址**:[http://flume.apache.org/](http://flume.apache.org/) - **文档地址**:[http://flume.apache.org/FlumeUserGuide.html]...
Flume的入门案例包括监控端口数据官方案例,使用Flume监听一个端口,收集该端口数据,并打印到控制台。 Flume的应用场景非常广泛,包括大数据采集、日志采集、数据传输等。Flume的优点包括高可用性、灵活性、可靠...
Flume入门案例** 以监控端口数据为例,Flume可以监听特定端口,收集流入数据并输出到控制台。实现步骤包括安装必要的工具(如netcat),配置Flume Agent的Source为netcat类型,Sink为logger,然后启动Flume并验证...
Spark Streaming 入门案例 Spark Streaming 是一种构建在 Spark 上的实时计算框架,用来处理大规模流式数据。它将从数据源(如 Kafka、Flume、Twitter、ZeroMQ、HDFS 和 TCP 套接字)获得的连续数据流,离散化成一...
- **Hadoop入门数据分析实战**:通过实际案例介绍Hadoop在数据分析中的应用。 2. **HDFS**: - **HDFS Shell命令**:教授如何使用命令行操作HDFS,如上传、下载、查看文件等。 - **HDFS文件接口**:讲解HDFS的...
### Hadoop基础入门知识点详解 #### 一、Hadoop概览与背景介绍 **1.1 什么是Hadoop** Hadoop是由Apache基金会维护的一个开源软件框架,它支持使用普通的硬件来构建大规模的数据处理集群。Hadoop的核心优势在于...
12-数据采集工具Flume企业级综合实战 13-Sqoop数据迁移和Azkaban任务调度企业实战 14-离线数据仓库项目案例实践(一) 15-离线数据仓库项目案例实践(二) 16-离线数据仓库项目案例实践(三) 17-Spark的核心介绍和...
这套教程旨在帮助初学者快速掌握大数据处理的核心技术,并通过实际案例和高级实现,提升在大数据领域的专业技能。 首先,我们要关注的重点之一是HBase,这是一个分布式的、面向列的数据库,它是Google Bigtable的...