首先到网站下载Flume
地址:http://flume.apache.org/download.html
然后放到/usr/local/目录下解压
tar -zxvf apache-flume-1.5.2-bin.tar.gz
下载MongoDB插件
地址:https://github.com/leonlee/flume-ng-mongodb-sink
下载后是一个工程,需要自己打包成jar,然后直接放到解压后的Flume目录下的lib目录即可,当然还需要把mongodb驱动一起放入
进入Flume目录下的conf目录,编辑flume-server.conf文件如下:
# 定义组件名称 agent2.sources = source2 agent2.sinks = sink2 agent2.channels = channel2 # 定义数据入口 agent2.sources.source2.type = syslogudp agent2.sources.source2.host = 0.0.0.0 agent2.sources.source2.port = 10001 agent2.sources.source2.channels = channel2 # 定义数据出口 agent2.sinks.sink2.type = org.riderzen.flume.sink.MongoSink agent2.sinks.sink2.host = 192.168.8.30 agent2.sinks.sink2.port = 27017 agent2.sinks.sink2.model = single agent2.sinks.sink2.db = test agent2.sinks.sink2.collection = log agent2.sinks.sink2.batch = 2 agent2.sinks.sink2.channel = channel2 # 使用内存管道 agent2.channels.channel2.type = memory agent2.channels.channel2.capacity = 1000 agent2.channels.channel2.transactionCapacity = 100
然后进入Flume的bin目录启动服务
./flume-ng agent -n agent2 -c ../conf -f ../conf/flume-server.conf
-n表示当前运行的这个agent名称
-c表示配置文件存放目录
-f表示运行agent所使用的配置文件
如果想要程序后台运行,只需要在最后空格一下,加上&即可。(非永久性,远程断开linux时会停止)
如果想要永久性程序后台运行,只需要在最前面加上nohup,然后加一个空格隔开
如果想要使用debug模式查看日志,只需要在最后加上-Dflume.root.logger=INFO,console即可
相关推荐
bson-3.0.2.jarbson-3.12.10.jarmongodb-driver-3.0.2.jarmongodb-driver-3.12.10.jarmongodb-driver-3.12.11.jarmongodb-driver-core-3.0.2.jarmongodb-driver-core-3.12.10.jar
在这个场景中,Flume 将作为日志数据的 Sources,将接收到的日志数据写入 MongoDB 这个 Sinks。 **1. 安装 Flume** 确保你的系统已经安装了 Java 开发环境(JDK)并设置了环境变量。然后,可以从 Apache 官方网站...
该源已实现为将JSON填充到MongoDB中。入门克隆存储库安装最新的Maven并通过“ mvn软件包”构建源通过'MVN依赖:生成类路径'生成类路径在$ FLUME_HOME / conf / flume-env.sh中附加类路径根据配置添加接收器定义组态...
基于Flume的分布式日志采集分析系统设计与实现 Flume是一种分布式日志采集系统,可以实时地采集和处理大量日志数据。该系统基于Flume、Elasticsearch和Kibana等技术手段,能够对海量日志数据进行实时采集、处理和...
flume采集日志所用的jar包,将自动采集生成的日志,配合博客使用。
以下是关于"Flume监控日志到HDFS"的详细知识点: 1. **Flume简介**:Flume是一个分布式、可靠且可用于有效收集、聚合和移动大量日志数据的系统。它具有高可用性、可扩展性和容错性,能够处理各种来源的数据,并将其...
让你快速认识flume及安装和使用flume1 5传输数据 日志 到hadoop2 2 中文文档 认识 flume 1 flume 是什么 这里简单介绍一下 它是 Cloudera 的一个产品 2 flume 是干什么的 收集日志的 3 flume 如何搜集日志 我们把...
本文将详细介绍如何利用Flume采集日志数据,并将其发送到Kafka中,最后将这些数据从Kafka取出并存储到HDFS上。这一流程不仅适用于大规模的日志数据采集场景,还能帮助读者快速熟悉Flume、Kafka和HDFS等大数据组件的...
总结来说,"flume解析日志所需jar"涉及到的技术点包括:Flume的基本架构、Kafka Source、日志解析、Channel、HBase和Elasticsearch的Sink配置,以及Flume类路径的管理。理解并掌握这些知识点对于构建高效的数据流...
Flume采集Nginx日志到Hive的事务表时需要导入到Flume下的Jar文件,具体使用方式可参见博文:https://blog.csdn.net/l1028386804/article/details/97975539
Flume 是一个功能强大且灵活的日志采集工具,它可以从各种数据源采集日志信息,并将其传输到多种目的地。Flume 的强大之处在于它的 Output 方式多样,可以将日志信息输出到文件、数据库、Kafka、HDFS 等多种存储介质...
华为大数据认证,Flume组件介绍
Flume-ng 在 Windows 环境搭建并测试 + Log4j 日志通过 Flume 输出到 HDFS Flume-ng 是一个高可用、可靠、分布式的日志聚合系统,可以实时地从各种数据源(如日志文件、网络 socket、数据库等)中收集数据,并将其...
该系统设计中,日志采集首先通过Flume从各种数据源接收日志数据,然后将这些数据发送到Kafka进行临时存储和缓冲。Kafka的高并发处理能力保证了即使在数据洪峰时也能稳定运行。接着,数据通过Hadoop的MapReduce进行...
Flume日志收集与MapReduce模式
flume修改源码读日志到hbase,①日志文件为json数据②修改文件编译打包并替换flumejar中的对应文件
在这个场景中,我们利用Flume来从Nginx服务器收集日志,并将这些日志数据导入到新版的Hive数据仓库中。下面将详细阐述这个过程涉及的技术要点。 首先,Nginx是一款高性能的HTTP和反向代理服务器,它的日志记录了...
[Packt Publishing] Apache Flume 分布式日志采集应用 (Hadoop 实现) (英文版) [Packt Publishing] Apache Flume Distributed Log Collection for Hadoop (E-Book) ☆ 图书概要:☆ Stream data to Hadoop using ...
虽然描述中没有明确提及数据库,但在实际日志分析系统中,通常会将经过处理的日志数据存入数据库以便长期保存和查询。这可能包括关系型数据库如MySQL,或者时序数据库如InfluxDB,甚至可以是Elasticsearch这样的全文...
其中上篇介绍了HDFS以及流式数据/日志的问题,同时还谈到了Flume是如何解决这些问题的。本书展示了Flume的架构,包括将数据移动到数据库中以及从数据库中获取数据、NoSQL数据存储和性能调优。