`

解决filebeat的@timestamp无法被json日志的同名字段覆盖的问题

    博客分类:
  • ELK
 
阅读更多
默认@timestamp是filebeat读取日志时的时间戳,但是我们在读取日志的时候希望根据日志生成时间来展示,以便根据日志生成时间点来定位问题。

这是我生成json日志的格式:

{"@timestamp":"2017-03-23T09:48:49.304603+08:00","@source":"vagrant-ubuntu-trusty-64","@fields":{"channel":"xhh.mq.push","level":200,"ctxt_queue":"job_queue2","ctxt_exchange":"","ctxt_confirm_selected":true,"ctxt_confirm_published":true,"ctxt_properties":{"confirm":true,"transaction":false,"exchange":[],"queue":[],"message":[],"consume":[],"binding_keys":[],"exchange2":{"type":"direct"}}},"@message":"904572:58d31d7ddc790:msg_param1~","@tags":["xhh.mq.push"],"@type":"xhh.mq.push"}
日志中包含了@timestamp,但是用filebeat收集日志后,@timestamp被filebeat自动生成的时间给覆盖了:

{
        "offset" => 413806671,
       "@source" => "vagrant-ubuntu-trusty-64",
         "@tags" => [
        [0] "xhh.mq.push"
    ],
         "@type" => "xhh.mq.push",
    "input_type" => "log",
        "source" => "/tmp/xhh_mq_20170323.log",
          "type" => "rabbitmq",
       "@fields" => {
                 "ctxt_exchange" => "",
         "ctxt_confirm_selected" => true,
                         "level" => 200,
                       "channel" => "xhh.mq.push",
               "ctxt_properties" => {
                 "confirm" => true,
               "exchange2" => {
                "type" => "direct"
            },
                "exchange" => nil,
                 "consume" => nil,
                 "message" => nil,
             "transaction" => false,
                   "queue" => nil,
            "binding_keys" => nil
        },
                    "ctxt_queue" => "job_queue0",
        "ctxt_confirm_published" => true
    },
          "tags" => [
        [0] "beats_input_raw_event"
    ],
      "@message" => "995428:58d31d7ddc790:msg_param1~",
    "@timestamp" => 2017-03-24T01:00:00.930Z,
          "beat" => {
        "hostname" => "vagrant-ubuntu-trusty-64",
            "name" => "vagrant-ubuntu-trusty-64",
         "version" => "5.2.1"
    },
      "@version" => "1",
          "host" => "vagrant-ubuntu-trusty-64"
}
时间变成了filebeat读取日志时的时间,这完全不是我想要的,没办法网上找解决方式,发现GitHub官网也有人在问同个问题,链接地址:https://github.com/logstash-plugins/logstash-input-beats/issues/33

话说好像是bug?评论里说可以用grok进行转换,即在日志里先定义一个messageTimestamp字段,然后filebeat推到logstash后再通过filter配置将其转换为logstash的timestamp,貌似这也可以,不过应该会有更简便的解决方式的才对。在万能的谷哥引导下,原来filebeat最新版已经解决了这个问题了~ So就是这里了:https://www.elastic.co/guide/en/beats/filebeat/current/configuration-filebeat-options.html#config-json

在filebeat.yml配置文件中加上以下两行搞定:

json.keys_under_root: true
json.overwrite_keys: true
文档里json共有四个配置节点:

keys_under_root

默认这个值是FALSE的,也就是我们的json日志解析后会被放在json键上。设为TRUE,所有的keys就会被放到根节点。
overwrite_keys

是否要覆盖原有的key,这是关键配置,将keys_under_root设为TRUE后,再将overwrite_keys也设为TRUE,就能把filebeat默认的key值给覆盖了。
add_error_key

添加json_error key键记录json解析失败错误
message_key

指定json日志解析后放到哪个key上,默认是json,你也可以指定为log等。
分享到:
评论

相关推荐

    tomcat日志json化.txt

    - **beats**:此段配置指定了Logstash接收来自Filebeat等Beat工具发送的日志数据的端口。此处使用的是`beats`插件,并设置了端口号为`9988`。 ##### 2.2 Filter(过滤器) ```yaml filter{ grok{...} date{...} ...

    基于ELK的nginx-qps监控解决方案.docx

    log_format json '{"@timestamp":"$time_iso8601","@version":"1","server_addr":"$server_addr","remote_addr":"$remote_addr","host":"$host","uri":"$uri","body_bytes_sent":$body_bytes_sent,"bytes_sent":$...

    海量日志采集、解析实践.pdf

    日志解析通常涉及到JSON格式的数据,例如:“@timestamp”、“@timegenerated”、“fromhost-ip”等字段,用于记录时间戳、来源IP和事件类型等信息。初级富化日志检索会进一步添加上下文信息,如请求方法、源地址、...

    ELK日志收集系统讲析

    - 查询页面体验不佳,可能存在查询结果不连贯、无法导出等问题。 - 对于非常大量的日志数据,Elasticsearch可能会遇到性能瓶颈。 - 在某些情况下,系统可能不支持跨索引查询,这限制了数据的综合分析能力。 - 单次...

    logstash6.2.3 数据采集工具

    比如,你可以使用 `beats` 输入插件接收 Filebeat 发送的数据,使用 `json` 过滤器解析 JSON 格式的数据,或者使用 `stdout` 输出插件将数据直接打印到控制台。 **四、实时数据处理** Logstash 被设计为实时处理...

    eclasticsearch的概要介绍与分析

    (https://www.elastic.co/guide/en/elasticsearch/reference/current/index.html)):官方文档覆盖了Elasticsearch的所有方面,是学习和解决问题的第一手资料。 2. **Elastic官方教程**(...

Global site tag (gtag.js) - Google Analytics