`
java_my_life
  • 浏览: 261302 次
  • 性别: Icon_minigender_1
  • 来自: 北京
社区版块
存档分类
最新评论

Flume保存日志到MongoDB

 
阅读更多

首先到网站下载Flume

地址:http://flume.apache.org/download.html

然后放到/usr/local/目录下解压

 

tar -zxvf apache-flume-1.5.2-bin.tar.gz

 

下载MongoDB插件

地址:https://github.com/leonlee/flume-ng-mongodb-sink

下载后是一个工程,需要自己打包成jar,然后直接放到解压后的Flume目录下的lib目录即可,当然还需要把mongodb驱动一起放入

 

进入Flume目录下的conf目录,编辑flume-server.conf文件如下:

# 定义组件名称  
agent2.sources = source2  
agent2.sinks = sink2  
agent2.channels = channel2  
  
# 定义数据入口  
agent2.sources.source2.type = syslogudp 
agent2.sources.source2.host = 0.0.0.0  
agent2.sources.source2.port = 10001  
agent2.sources.source2.channels = channel2  
  
# 定义数据出口  
agent2.sinks.sink2.type = org.riderzen.flume.sink.MongoSink  
agent2.sinks.sink2.host = 192.168.8.30
agent2.sinks.sink2.port = 27017  
agent2.sinks.sink2.model = single
agent2.sinks.sink2.db = test
agent2.sinks.sink2.collection = log  
agent2.sinks.sink2.batch = 2  
agent2.sinks.sink2.channel = channel2  
  
  
  
# 使用内存管道  
agent2.channels.channel2.type = memory  
agent2.channels.channel2.capacity = 1000  
agent2.channels.channel2.transactionCapacity = 100

 然后进入Flume的bin目录启动服务

./flume-ng agent -n agent2 -c ../conf -f ../conf/flume-server.conf

 -n表示当前运行的这个agent名称

 -c表示配置文件存放目录

 -f表示运行agent所使用的配置文件

如果想要程序后台运行,只需要在最后空格一下,加上&即可。(非永久性,远程断开linux时会停止)

如果想要永久性程序后台运行,只需要在最前面加上nohup,然后加一个空格隔开

如果想要使用debug模式查看日志,只需要在最后加上-Dflume.root.logger=INFO,console即可

分享到:
评论

相关推荐

    flume采集日志到Mongodb所需所有驱动jar包

    bson-3.0.2.jarbson-3.12.10.jarmongodb-driver-3.0.2.jarmongodb-driver-3.12.10.jarmongodb-driver-3.12.11.jarmongodb-driver-core-3.0.2.jarmongodb-driver-core-3.12.10.jar

    flume向mongodb写入环境搭建所需

    在这个场景中,Flume 将作为日志数据的 Sources,将接收到的日志数据写入 MongoDB 这个 Sinks。 **1. 安装 Flume** 确保你的系统已经安装了 Java 开发环境(JDK)并设置了环境变量。然后,可以从 Apache 官方网站...

    flume-ng-mongodb-sink:Flume NG MongoDB源

    该源已实现为将JSON填充到MongoDB中。入门克隆存储库安装最新的Maven并通过“ mvn软件包”构建源通过'MVN依赖:生成类路径'生成类路径在$ FLUME_HOME / conf / flume-env.sh中附加类路径根据配置添加接收器定义组态...

    基于Flume的分布式日志采集分析系统设计与实现.pdf

    基于Flume的分布式日志采集分析系统设计与实现 Flume是一种分布式日志采集系统,可以实时地采集和处理大量日志数据。该系统基于Flume、Elasticsearch和Kibana等技术手段,能够对海量日志数据进行实时采集、处理和...

    flume采集日志jar

    flume采集日志所用的jar包,将自动采集生成的日志,配合博客使用。

    大数据采集技术-Flume监控日志到HDFS.pptx

    以下是关于"Flume监控日志到HDFS"的详细知识点: 1. **Flume简介**:Flume是一个分布式、可靠且可用于有效收集、聚合和移动大量日志数据的系统。它具有高可用性、可扩展性和容错性,能够处理各种来源的数据,并将其...

    让你快速认识flume及安装和使用flume1 5传输数据 日志 到hadoop2 2 文档

    让你快速认识flume及安装和使用flume1 5传输数据 日志 到hadoop2 2 中文文档 认识 flume 1 flume 是什么 这里简单介绍一下 它是 Cloudera 的一个产品 2 flume 是干什么的 收集日志的 3 flume 如何搜集日志 我们把...

    Flume采集数据到Kafka,然后从kafka取数据存储到HDFS的方法思路和完整步骤

    本文将详细介绍如何利用Flume采集日志数据,并将其发送到Kafka中,最后将这些数据从Kafka取出并存储到HDFS上。这一流程不仅适用于大规模的日志数据采集场景,还能帮助读者快速熟悉Flume、Kafka和HDFS等大数据组件的...

    flume解析日志所需jar

    总结来说,"flume解析日志所需jar"涉及到的技术点包括:Flume的基本架构、Kafka Source、日志解析、Channel、HBase和Elasticsearch的Sink配置,以及Flume类路径的管理。理解并掌握这些知识点对于构建高效的数据流...

    Flume采集Nginx日志到Hive.rar

    Flume采集Nginx日志到Hive的事务表时需要导入到Flume下的Jar文件,具体使用方式可参见博文:https://blog.csdn.net/l1028386804/article/details/97975539

    flume采集日志信息简报

    Flume 是一个功能强大且灵活的日志采集工具,它可以从各种数据源采集日志信息,并将其传输到多种目的地。Flume 的强大之处在于它的 Output 方式多样,可以将日志信息输出到文件、数据库、Kafka、HDFS 等多种存储介质...

    华为大数据认证:Flume海量日志聚合.pptx

    华为大数据认证,Flume组件介绍

    Flume-ng在windows环境搭建并测试+log4j日志通过Flume输出到HDFS.docx

    Flume-ng 在 Windows 环境搭建并测试 + Log4j 日志通过 Flume 输出到 HDFS Flume-ng 是一个高可用、可靠、分布式的日志聚合系统,可以实时地从各种数据源(如日志文件、网络 socket、数据库等)中收集数据,并将其...

    基于Flume的分布式日志聚合系统的研究.pdf

    该系统设计中,日志采集首先通过Flume从各种数据源接收日志数据,然后将这些数据发送到Kafka进行临时存储和缓冲。Kafka的高并发处理能力保证了即使在数据洪峰时也能稳定运行。接着,数据通过Hadoop的MapReduce进行...

    Flume日志收集与MapReduce模式

    Flume日志收集与MapReduce模式

    flume修改源码读日志到hbase

    flume修改源码读日志到hbase,①日志文件为json数据②修改文件编译打包并替换flumejar中的对应文件

    Flume采集Nginx日志到新版Hive.rar

    在这个场景中,我们利用Flume来从Nginx服务器收集日志,并将这些日志数据导入到新版的Hive数据仓库中。下面将详细阐述这个过程涉及的技术要点。 首先,Nginx是一款高性能的HTTP和反向代理服务器,它的日志记录了...

    [Apache Flume] Apache Flume 分布式日志采集应用 (Hadoop 实现) (英文版)

    [Packt Publishing] Apache Flume 分布式日志采集应用 (Hadoop 实现) (英文版) [Packt Publishing] Apache Flume Distributed Log Collection for Hadoop (E-Book) ☆ 图书概要:☆ Stream data to Hadoop using ...

    已上线的日志采集系统,使用flume收集日志.zip

    虽然描述中没有明确提及数据库,但在实际日志分析系统中,通常会将经过处理的日志数据存入数据库以便长期保存和查询。这可能包括关系型数据库如MySQL,或者时序数据库如InfluxDB,甚至可以是Elasticsearch这样的全文...

    flume日志收集与Mapreduce书籍

    其中上篇介绍了HDFS以及流式数据/日志的问题,同时还谈到了Flume是如何解决这些问题的。本书展示了Flume的架构,包括将数据移动到数据库中以及从数据库中获取数据、NoSQL数据存储和性能调优。

Global site tag (gtag.js) - Google Analytics