`
如若_晴
  • 浏览: 110520 次
  • 性别: Icon_minigender_1
  • 来自: 济南
社区版块
存档分类
最新评论

logstash集成日志以及在kibana中查询和使用

阅读更多

        在上一篇文章中(http://weitao0912-163-com.iteye.com/admin/blogs/2271414)介绍了怎么安装elk(elasticsearch+logstash+kibana),接下来需要介绍下怎么使用elk。

        首先要弄清楚,elk的工作流程,如下图:

 

        首先,logstash agent(相当于上图的Shipper)按配置好的规则从每台服务器上收集log,收集好后,发送给Redis(redis此处只当做队列,不做存储使用,至于为什么用redis不用kafka,个人估计是kafka效率不如redis高,而且麻烦),然后logstash indexer再从redis里读取,读取完后发送给elasticsearch,elasticsearch再创建索引并存储,最后再通过kibana结合es从web界面进行查询和展示。

        了解流程后,需要了解logstash是怎么从日志里收集数据的。这里,就需要建立conf文件了。如下:

input {

  file{

 path => ["d:/opt/wwwlogs/resinlog/*.log"]

 start_position => beginning

 codec=>json

 discover_interval=>30

  }

}

output {

     stdout { codec => json }

     elasticsearch {

         hosts => "localhost:9200"

         index => "test-%{+YYYY.MM.DD}"

  }

}

       config一共包含4部分,input,output,filter和codec,此处只用了input和output。input是logstash收集的目标来源,可以是file,也可以是stdin(即命令行输入)等.codec是指日志转化的格式,可以是json,也可以是rubydebug格式。logstash默认是每隔1秒就尝试读取文件有没有新内容,默认是15秒就扫描,检查有没有新文件。对应stat_interval和discover_interval参数。

output是指数据发送的目的地,此处没有用redis,直接发送个elasticsearch。index是指es创建索引的name.比如今天是2016年1月18日,则logstash启动时,会往es里创建名为test-2016.01.18的索引。

     将上面的config文件内容保存在logstash目录下的bin目录,比如test-logstash.conf,然后进入bin目录,在命令行输入logstash.bat -f test-logstash.conf。启动logstash后,就会自动往es里发送数据。可以通过http://localhost:9200/_plugin/head查看创建的索引(这是es部分的内容)。如下     


      使用logstash收集完日志后,接下来通过kibana查看,在浏览器输入:http://localhost:5601,可以看到,在setting里创建index pattern,创建对es索引的mapping,创建完后,再点击discover,可以看到收集的日志数据了。然后就可以自己进行查询了,呵呵,这样查日志是不是比ssh到多台服务器去查看log方便很多呢?



参考链接:

https://www.elastic.co

http://www.th7.cn/db/mysql/201405/53069.shtml

http://storysky.blog.51cto.com/628458/1158707/

http://www.w2bc.com/Article/85035

http://langke.name/2014/12/18/elk-2.html

http://www.cnblogs.com/fangjian0423/p/logstash-elasticsearch-build.html

http://blog.kazaff.me/2015/06/05/%E6%97%A5%E5%BF%97%E6%94%B6%E9%9B%86%E6%9E%B6%E6%9E%84--ELK/

https://xiequan.info/%E4%BD%BF%E7%94%A8elasticsearch-logstash-kibana%E6%90%AD%E5%BB%BA%E6%97%A5%E5%BF%97%E9%9B%86%E4%B8%AD%E5%88%86%E6%9E%90%E5%B9%B3%E5%8F%B0%E5%AE%9E%E8%B7%B5/?hmsr=toutiao.io&utm_medium=toutiao.io&utm_source=toutiao.io

 

    

 

 

  • 大小: 56.2 KB
  • 大小: 38.3 KB
  • 大小: 67.5 KB
分享到:
评论

相关推荐

    Spring Cloud集成ELK完成日志收集实战(elasticsearch、logstash、kibana)

    对于日志来说,最常见的需求就是收集、存储、查询、展示,开源社区正好有相对应的开源项目:logstash(收集)、elasticsearch(存储+搜索)、kibana(展示),我们将这三个组合起来的技术称之为ELK,所以说ELK指的是...

    logstash日志抓取搭建

    在这个例子中,Logstash从指定的日志文件路径读取数据,使用Grok插件解析日志格式,将时间戳转换为Elasticsearch可理解的格式,并将处理后的数据发送到本地运行的Elasticsearch实例。 **4. 启动与监控Logstash** ...

    大数据搜索与日志挖掘及可视化方案——ELK Stack:Elasticsearch Logstash Kibana(第2版)

    ELK Stack是由Elasticsearch、Logstash和Kibana三个开源工具组成的集成解决方案,广泛应用于现代企业的日志管理和数据洞察。 Elasticsearch,作为ELK Stack的核心,是一款强大的分布式、实时的搜索和分析引擎。它...

    elasticsearch+logstash+kibana+filebeat.7z (ELK 7.9.0)

    Kibana 是一个数据可视化工具,与Elasticsearch紧密集成,用于创建交互式仪表板,展示和探索存储在Elasticsearch中的数据。在7.9.0版本中,Kibana 提供了更多图表类型、增强的搜索功能以及改进的用户体验。用户可以...

    实战Elasticsearch、Logstash、Kibana 分布式大数据搜索与日志挖掘及可视化解决方案

    2. Logstash:Logstash是与Elasticsearch和Kibana集成使用的日志收集引擎。它可以收集、处理和转发日志数据。Logstash提供了各种输入插件,使得从各种来源读取数据变得简单,如文件、系统日志和网络套接字。同时,...

    biglog:Awesant + Logstash + Elasticsearch +Kibana + Nginx集成安装脚本

    说明文档E-mail:Blog:======ELK集成: Awesant + Logstash + Elasticsearch +Kibana + Nginx + Redis======单机版(Standalone): Logstash-index(收集日志)+ Elasticsearch(索引)+ Kibana(前端) +Nginx...

    ElasticSearch、Logstash、Kibana

    **ELK Stack**,即Elasticsearch、Logstash和Kibana的组合,已成为近年来机器数据管理和实时日志处理领域的首选开源解决方案。该组合之所以受到广泛欢迎,得益于其独特的特性与优势: - **处理方式灵活**:Elastic...

    springboot - 2.7.3版本 - (五)整合Elasticsearch+Logstash+Kibana(ELK)

    在本文中,我们将深入探讨如何使用Spring Boot 2.7.3版本与Elasticsearch、Logstash和Kibana(通常称为ELK Stack)进行集成,以便高效地收集、存储和分析应用程序日志。ELK Stack是日志管理和监控的强大工具,其中...

    elasticsearch+kibana+logstash

    现在,Kibana 的 Dev Tools Console 提供了相同的功能,并且集成了在Kibana环境中,使得开发者可以直接在可视化界面中进行调试和测试。 总结来说,"elasticsearch+kibana+logstash" 组合通常被称为ELK堆栈,是企业...

    elasticsearch+kibana+logstash ELK资料整理

    Kibana 是一个数据可视化工具,与 Elasticsearch 配合使用,允许用户在 Web 界面上创建和分享仪表板,对 Elasticsearch 存储的数据进行可视化。Kibana 的主要功能包括: 1. **数据探索**: 通过 Kibana 的 Discover ...

    ELK 套件(ElasticSearch+Logstash+Kibana) TIG 套件(Telegraf+InfluxD

    在ELK体系中,Logstash通常扮演着数据处理者的角色,它支持多种输入和输出插件,可以灵活地接入各种日志源,并对数据进行预处理。然而,由于Logstash的性能限制和资源消耗,对于大规模日志处理,可能需要引入消息...

    Logash+Elasticsearch+Kibana 日志系统全套安装部署.pdf

    Logstash、Elasticsearch和Kibana(通常称为ELK堆栈)是流行的开源工具,用于收集、存储、分析和可视化日志数据。本文将深入探讨如何进行ELK堆栈的全套安装部署。 一、Logstash:日志收集与处理 Logstash是一个...

    elk:elasticsearch+logstash+kibana

    2. **搜索与探索**: 直接在Kibana中搜索Elasticsearch中的数据,支持高级查询语法。 3. **视觉元素**: 包括折线图、柱状图、饼图、热力图等多种图表类型。 4. **保存和分享**: 可保存仪表板和搜索,方便团队协作。 5...

    es-kibana-logstash.txt

    Elasticsearch、Kibana和Logstash构成了著名的ELK Stack(现称为Elastic Stack),它们之间紧密协作,共同构建了一个完整的日志数据收集、存储、搜索和可视化平台。 - **数据收集**:Logstash负责从各种数据源收集...

    lasticSearch实现 Logstash数据物流快速入门.docx

    Filebeat 可以轻松与Kibana集成,使用户能在Kibana中直观地看到日志收集和处理的过程。 **Logstash 工作原理** Logstash 的工作流程可以分为三个主要阶段: - **输入(Inputs)**:Logstash 使用输入插件从各种...

    Logstash和Kibana原理介绍及应用1

    Logstash 是一个强大的开源工具,主要用于收集、解析和转发各种日志和其他数据,它由 Elastic 公司开发,主要使用 JRuby 语言编写,目的是与 Java 平台无缝集成,同时也兼容 Ruby 语法。Logstash 是 ELK (Elastic...

    Python-Django中间件能够可视化应用程序的流量在Kibana中

    在“Python-Django中间件能够可视化应用程序的流量在Kibana中”这一主题中,我们将深入探讨如何利用Django中间件和日志记录来监控并可视化应用程序流量,并通过Elasticsearch和Kibana进行数据展示。 1. **Django...

    ELK---STACK:安装并使用Logstash,elasticsearch,kibana收集日志

    在Kibana中,你可以创建新的指数模板和可视化组件。比如,你可以创建一个时间序列图来展示日志条目的数量随时间的变化,或者设置阈值报警,当特定事件达到预设条件时发送通知。 **总结** ELK Stack提供了一套完整...

    logstash-5.6.3.tar.gz

    Logstash 是一个强大的开源数据收集、处理和转发引擎,它属于 Elastic Stack(以前称为 ELK Stack...用户可以利用这些资源来学习和实践如何配置和使用Logstash,以及如何与Kibana集成,实现数据的收集、处理和可视化。

    RELK:RELK-研究弹性堆栈(Kafka,Beats,Zookeeper,Logstash,ElasticSearch,Kibana,Spark和Jupyter-全部在Docker中)

    RELK 是一个集成的、基于 Docker 的数据处理和分析平台,它涵盖了多个组件,包括 Kafka、Beats、Zookeeper、Logstash、Elasticsearch、Kibana、Spark 和 Jupyter。这个项目旨在提供一个快速搭建和研究弹性数据堆栈...

Global site tag (gtag.js) - Google Analytics