`
corejava2008
  • 浏览: 295778 次
  • 性别: Icon_minigender_1
  • 来自: 北京
社区版块
存档分类
最新评论

Flume入门教程-简单案例

阅读更多

Flume入门教程-简单案例

 

1.下载安装

 

官方网站:http://flume.apache.org/
http://mirror.bit.edu.cn/apache/flume/1.6.0/apache-flume-1.6.0-bin.tar.gz
tar -zxvf apache-flume-1.6.0-bin.tar.gz

 

 

2.修改配置

重命名flume-conf.properties.template文件为simple.conf,并修改为以下内容

 

Agent名称定义为agent. 
Source:可以理解为输入端,定义名称为s1
channel:传输频道,定义为c1,设置为内存模式
sinks:可以理解为输出端,定义为sk1,

agent.sources = s1  
agent.channels = c1
agent.sinks = sk1

#设置Source的内省为netcat 端口为5678,使用的channel为c1
agent.sources.s1.type = netcat
agent.sources.s1.bind = localhost
agent.sources.s1.port = 5678
agent.sources.s1.channels = c1

#设置Sink为logger模式,使用的channel为c1
agent.sinks.sk1.type = logger
agent.sinks.sk1.channel = c1
#设置channel信息
agent.channels.c1.type = memory #内存模式
agent.channels.c1.capacity = 1000   
agent.channels.c1.transactionCapacity = 100 #传输参数设置。

 

 

3.启动Agent

bin/flume-ng agent -c conf -f conf/simple.conf --name agent -Dflume.root.logger=INFO,console

 

4.发送测试数据

 

telnet localhost 5678
hello,world.

 

5.验证数据接收

验证flume是否接收到了数据

 

 

6.简单优化配置:
修改flume-env.sh,设置JDK版本,Flume1.6.0需要JDK1.6+
export JAVA_HOME=/opt/jdk1.7/jdk1.7.0_45/

设置内存相关参数
JAVA_OPTS="-Xms8192m -Xmx8192m -Xss256k -Xmn2g -XX:+UseParNewGC -XX:+UseConcMarkSweepGC -XX:-UseGCOverheadLimit"

 

7.其他配置案例

 使用命令行模式Tail读取日志文件配置

agent.sources = s1
agent.channels = c1
agent.sinks = sk1

#设置Tail方式跟踪日志内容
agent.sources.s1.type = exec
agent.sources.s1.command = tail -F /usr/local/logstash-1.4.2/new_log.2015-03-26.txt 
agent.sources.s1.channels = c1

agent.sinks.sk1.type = logger
agent.sinks.sk1.channel = c1

#In Memory !!!
agent.channels.c1.type = memory
agent.channels.c1.capacity = 10004
agent.channels.c1.transactionCapacity = 100

 

设置跟踪目录方式

 

agent.sources = s1
agent.channels = c1
agent.sinks = sk1

#设置spooldir
agent.sources.s1.type = spooldir
agent.sources.s1.spoolDir = /usr/local/logstash-1.4.2/logs
agent.sources.s1.fileHeader = true

agent.sources.s1.channels = c1
agent.sinks.sk1.type = logger
agent.sinks.sk1.channel = c1

#In Memory !!!
agent.channels.c1.type = memory
agent.channels.c1.capacity = 10004
agent.channels.c1.transactionCapacity = 100

 

 

 

1
0
分享到:
评论

相关推荐

    Flume1.6.0入门:安装、部署、及flume的案例

    ### Flume 1.6.0 入门详解:安装、部署及案例分析 #### 一、Flume 概述 Flume 是 Cloudera 开发的一款高效、可靠且易于扩展的日志收集系统,适用于大数据环境下的日志采集任务。Flume 的初始版本被称为 FlumeOG...

    入门简介教程-大数据组件flume

    flume入门介绍,简单介绍flume的背景和应用场景,flume的实现原理以及案例分享

    最全Flume视频教程,大数据入门必学

    Flume是的一个分布式、高可用、高可靠的海量日志采集、聚合和传输的系统,支持在日志系统中定制各类数据发送方,用于收集数据,同时提供了对数据进行简单处理并写到各种数据接收方的能力。 2、适应人群 有一定的...

    Flume1.5.0入门:安装、部署、及flume的案例

    Apache Flume 是一个强大的、分布式的日志聚合工具,特别适用于大数据环境中的日志收集。Flume 1.5.0 版本是其发展历程中的一个重要里程碑,提供了更稳定、高效和可扩展的功能。以下是对 Flume 的详细介绍: **...

    hadoop集群配置之————flume安装配置(详细版)

    Apache Flume是一个分布式、可靠且可用的系统,...以上内容详细介绍了Flume的核心概念、架构组件、系统要求、安装步骤和一个简单的入门案例。理解这些知识点对于成功配置和使用Flume来收集、聚合和传输数据至关重要。

    尚硅谷大数据技术之Flume笔记1

    监控端口数据也可以通过Flume进行收集,如案例需求所示,使用Flume来实现实时的数据捕获和传输。 总结来说,Flume是大数据领域的重要工具,它提供了简单而强大的方式来处理和传输日志数据,是构建大数据基础设施不...

    Flume日志采集系统-教案.pdf

    在解决 Flume 入门案例的过程中,可能会遇到一些难点,如配置文件的编写、错误排查等。教师可以通过示范教学,提供学习视频,指导学生逐步解决问题。学生在遇到困难时,可以借助教学资源,如在线平台、大数据技术实...

    flime安装+配置+测试+案例(采集日志至HDFS)

    在本文中,我们将深入探讨 Flume 的安装、配置、测试以及如何将其应用于实际案例,即从不同节点采集日志并存储到 HDFS。 首先,我们从安装 Flume 开始。Flume 的安装包括解压安装包,重命名 Flume 目录,配置 `...

    大数据技术之Flume.docx

    #### 四、Flume快速入门 **2.1 Flume安装地址** - **官方地址**:[http://flume.apache.org/](http://flume.apache.org/) - **文档地址**:[http://flume.apache.org/FlumeUserGuide.html]...

    Flume基本理论与实践.docx

    Flume的入门案例包括监控端口数据官方案例,使用Flume监听一个端口,收集该端口数据,并打印到控制台。 Flume的应用场景非常广泛,包括大数据采集、日志采集、数据传输等。Flume的优点包括高可用性、灵活性、可靠...

    关于Flume学习视频的对照文档.docx

    Flume入门案例** 以监控端口数据为例,Flume可以监听特定端口,收集流入数据并输出到控制台。实现步骤包括安装必要的工具(如netcat),配置Flume Agent的Source为netcat类型,Sink为logger,然后启动Flume并验证...

    SparkStreaming入门案例

    Spark Streaming 入门案例 Spark Streaming 是一种构建在 Spark 上的实时计算框架,用来处理大规模流式数据。它将从数据源(如 Kafka、Flume、Twitter、ZeroMQ、HDFS 和 TCP 套接字)获得的连续数据流,离散化成一...

    精品课程推荐 大数据与云计算教程课件 优质大数据课程 32.Spark入门之Scala(共173页).pptx

    - **Hadoop入门数据分析实战**:通过实际案例介绍Hadoop在数据分析中的应用。 2. **HDFS**: - **HDFS Shell命令**:教授如何使用命令行操作HDFS,如上传、下载、查看文件等。 - **HDFS文件接口**:讲解HDFS的...

    hadoop基础入门

    ### Hadoop基础入门知识点详解 #### 一、Hadoop概览与背景介绍 **1.1 什么是Hadoop** Hadoop是由Apache基金会维护的一个开源软件框架,它支持使用普通的硬件来构建大规模的数据处理集群。Hadoop的核心优势在于...

    大数据研发工程十三期 培训视频.zip

    12-数据采集工具Flume企业级综合实战 13-Sqoop数据迁移和Azkaban任务调度企业实战 14-离线数据仓库项目案例实践(一) 15-离线数据仓库项目案例实践(二) 16-离线数据仓库项目案例实践(三) 17-Spark的核心介绍和...

    Hadoop大数据零基础实战培训教程

    这套教程旨在帮助初学者快速掌握大数据处理的核心技术,并通过实际案例和高级实现,提升在大数据领域的专业技能。 首先,我们要关注的重点之一是HBase,这是一个分布式的、面向列的数据库,它是Google Bigtable的...

Global site tag (gtag.js) - Google Analytics