传统日志处理
说到日志,我们以前处理日志的方式如下:
· 日志写到本机磁盘上
· 通常仅用于排查线上问题,很少用于数据分析
·需要时登录到机器上,用grep、awk等工具分析
那么,这种方式有什么缺点呢?
第一, 它的效率非常低,因为每一次要排查问题的时候都要登到机器上去,当有几十台或者是上百台机器的时候,每一台机器去登陆这是一个没办法接受的事情,可能一台机器浪费两分钟,整个几小时就过去了。
第二, 如果要进行一些比较复杂的分析,像grep、awk两个简单的命令不能够满足需求时,就需要运行一些比较复杂的程序进行分析。
第三, 日志本身它的价值不光在于排查一些系统问题上面,可能在一些数据的分析上,可能利用日志来做一些用户的决策,这也是它的价值,如果不能把它利用起来,价值就不能充分的发挥出来。
<iframe id="iframe_0.5606304784305394" style="border-style: none; border-width: initial; width: 640px; height: 335px;" src="data:text/html;charset=utf8,%3Cstyle%3Ebody%7Bmargin:0;padding:0%7D%3C/style%3E%3Cimg%20id=%22img%22%20src=%22http://mmbiz.qpic.cn/mmbiz_png/tMJtfgIIibWLeMbxmt7XXiaNBgWZL3XepujRJBoXllpqWaHpjCsmpwvK3FgqPSNdraicqsxicibPHibHLe8DcxLsDwsg/640?wx_fmt=png&tp=webp&wxfrom=5&wx_lazy=1&_=6637801%22%20style=%22border:none;max-width:1283px%22%3E%3Cscript%3Ewindow.onload%20=%20function%20()%20%7Bvar%20img%20=%20document.getElementById('img');%20window.parent.postMessage(%7BiframeId:'iframe_0.5606304784305394',width:img.width,height:img.height%7D,%20'http://www.cnblogs.com');%7D%3C/script%3E" frameborder="0" scrolling="no"></iframe>
所以,现在很多公司会采用集中式日志收集的日志处理方式,我们会把日志分布式收集,集中来存储,我们会在所有机器上面把日志都收集起到一个中心,在中心里面做一个日志全文索引搜索,可以通过一个界面去查询,同时这个日志系统后端可以对接一些更复杂的数据处理系统,可以对接监控、报警系统,对接数据挖掘数据分析系统,充分发挥日志的价值。
Docker的日志处理
使用过Docker的人尤其是使用过容器编排系统,比如说我们的容器服务,可能已经注意到这样的一些特点:
容器编排跟传统的布置方式是不一样的,在容器编排里面,资源分配应用跑到哪台机器上面的决策是由容器层来做的,所以你事先不知道你的容器应用会跑到哪台机器上面;还有自动伸缩,根据负载自动增加或者减少容器数量;另外,在整个运行过程中,系统发生一些情况时,比如说你的容器宕掉了,容器服务会自动把容器应用迁到其他的机器上去,整个过程非常动态,如果像传统方式去配制日志的收集工具,从一台机器上面收集某一个应用,在这个动态下面,很难用原来的方式去配置。
基于这些特点,在Docker的日志里面, 我们只能够采用中心化的日志收集方案,你已经没办法再像原来登到一台机器上面去看它的日志是什么,因为你不知道它其实在哪个机器上面。
stdout和文件日志
Docker的日志我们可以把它分成两类,一类是stdout标准输出,另外一类是文件日志。stdout是写在标准输出里面的日志,比如你在程序里面,通过print或者echo来输出的时候,这种输出标准在linux上面其实是往一个ID为零的文件表述书里面去写;另外的就是文件日志,文件日志就是写在磁盘上的日志,一般来说我们会在传统的应用里面会用得多一些。
stdout
<iframe id="iframe_0.22723266249522567" style="border-style: none; border-width: initial; width: 640px; height: 545px;" src="data:text/html;charset=utf8,%3Cstyle%3Ebody%7Bmargin:0;padding:0%7D%3C/style%3E%3Cimg%20id=%22img%22%20src=%22http://mmbiz.qpic.cn/mmbiz_png/tMJtfgIIibWLeMbxmt7XXiaNBgWZL3XepuYSICyibLKh9Eauic7icdmmyVUfyL1oX4EVxHiccrApx0ynanFnR93zJdow/640?wx_fmt=png&tp=webp&wxfrom=5&wx_lazy=1&_=6637801%22%20style=%22border:none;max-width:1283px%22%3E%3Cscript%3Ewindow.onload%20=%20function%20()%20%7Bvar%20img%20=%20document.getElementById('img');%20window.parent.postMessage(%7BiframeId:'iframe_0.22723266249522567',width:img.width,height:img.height%7D,%20'http://www.cnblogs.com');%7D%3C/script%3E" frameborder="0" scrolling="no"></iframe>
在Docker的场景里面,目前比较推崇这种标准输出的日志,标准输出日志具体过程如图。标准输出日志的原理在于,当在启动进程的时候,进程之间有一个父子关系,父进程可以拿到子进程的标准输出。拿到子进程标准输出的后,父进程可以对标准输出做所有希望的处理。
<iframe id="iframe_0.906100784195587" style="border-style: none; border-width: initial; width: 640px; height: 234px;" src="data:text/html;charset=utf8,%3Cstyle%3Ebody%7Bmargin:0;padding:0%7D%3C/style%3E%3Cimg%20id=%22img%22%20src=%22http://mmbiz.qpic.cn/mmbiz_png/tMJtfgIIibWLeMbxmt7XXiaNBgWZL3XepucAiaDmEib8Z5UZonwsTsNS33GqLKweWRHpicJT9sAgEjr0whW2kJq4htw/640?wx_fmt=png&tp=webp&wxfrom=5&wx_lazy=1&_=6637801%22%20style=%22border:none;max-width:1283px%22%3E%3Cscript%3Ewindow.onload%20=%20function%20()%20%7Bvar%20img%20=%20document.getElementById('img');%20window.parent.postMessage(%7BiframeId:'iframe_0.906100784195587',width:img.width,height:img.height%7D,%20'http://www.cnblogs.com');%7D%3C/script%3E" frameborder="0" scrolling="no"></iframe>
例如,我们通过exec.Command启动了一个命令,带一些参数,然后就可以通过标准的pipeline拿到标准输出,后面就可以拿到程序运行过程中产生标准输出。 Docker也是用这个原理来拿的,所有的容器通过Docker Daemon启动,实际上属于Docker的一个子进程, 它可以拿到你的容器里面进程的标准输出,然后拿到标准输出之后,会通过它自身的一个叫做LogDriver的模块来处理,LogDriver就是Docker用来处理容器标准输出的一个模块。 Docker支持很多种不同的处理方式,比如你的标准输出之后,在某一种情况下会把它写到一个日志里面,Docker默认的JSON File日志,除此之外,Docker还可以把它发送到syslog里面,或者是发送到journald里面去,或者是gelf的一个系统。
怎么配置log driver呢?
用Docker来启动容器的话,你有两种方式来配置LogDriver:
<iframe id="iframe_0.9988465975038707" style="border-style: none; border-width: initial; width: 640px; height: 103px;" src="data:text/html;charset=utf8,%3Cstyle%3Ebody%7Bmargin:0;padding:0%7D%3C/style%3E%3Cimg%20id=%22img%22%20src=%22http://mmbiz.qpic.cn/mmbiz_png/tMJtfgIIibWLeMbxmt7XXiaNBgWZL3Xepu7NjM3dLLg5tB8ZdhRI9Q7Lh89rnSheAZpMNqCdbe9IeXzUmtZBZlrg/640?wx_fmt=png&tp=webp&wxfrom=5&wx_lazy=1&_=6637801%22%20style=%22border:none;max-width:1283px%22%3E%3Cscript%3Ewindow.onload%20=%20function%20()%20%7Bvar%20img%20=%20document.getElementById('img');%20window.parent.postMessage(%7BiframeId:'iframe_0.9988465975038707',width:img.width,height:img.height%7D,%20'http://www.cnblogs.com');%7D%3C/script%3E" frameborder="0" scrolling="no"></iframe>
第一种方式是在Daemon上配置,对所有的容器生效。你配置之后,所有的容器启动,如果没有额外的其他配制,默认情况下就会把所有容器标准输出全部都发送给Syslog服务,这样就可以在这个Syslog服务上面收集这台机器上的所有容器的标准输出;
<iframe id="iframe_0.34045584313571453" style="border-style: none; border-width: initial; width: 640px; height: 131px;" src="data:text/html;charset=utf8,%3Cstyle%3Ebody%7Bmargin:0;padding:0%7D%3C/style%3E%3Cimg%20id=%22img%22%20src=%22http://mmbiz.qpic.cn/mmbiz_png/tMJtfgIIibWLeMbxmt7XXiaNBgWZL3XepuSvEcADkCR4DySzVglfjOApesIgWfvTnCyBAtmlomPUyLySVdPTFtJQ/640?wx_fmt=png&tp=webp&wxfrom=5&wx_lazy=1&_=6637801%22%20style=%22border:none;max-width:1283px%22%3E%3Cscript%3Ewindow.onload%20=%20function%20()%20%7Bvar%20img%20=%20document.getElementById('img');%20window.parent.postMessage(%7BiframeId:'iframe_0.34045584313571453',width:img.width,height:img.height%7D,%20'http://www.cnblogs.com');%7D%3C/script%3E" frameborder="0" scrolling="no"></iframe>
第二种方式是在容器上配置,只对当前容器生效。如果你希望这个配置只对一个容器生效,不希望所有容器都受到影响,你可以在容器上面配置。启动一个容器,单独配置它自身使用的logdriver。
<iframe id="iframe_0.6622576275840402" style="border-style: none; border-width: initial; width: 640px; height: 303px;" src="data:text/html;charset=utf8,%3Cstyle%3Ebody%7Bmargin:0;padding:0%7D%3C/style%3E%3Cimg%20id=%22img%22%20src=%22http://mmbiz.qpic.cn/mmbiz_png/tMJtfgIIibWLeMbxmt7XXiaNBgWZL3XepuCkptZCs4IgtTCzbCZoibGRncdKD9LqSiafuh6ytEvT2gtgef5fQZyib4A/640?wx_fmt=png&tp=webp&wxfrom=5&wx_lazy=1&_=6637801%22%20style=%22border:none;max-width:1283px%22%3E%3Cscript%3Ewindow.onload%20=%20function%20()%20%7Bvar%20img%20=%20document.getElementById('img');%20window.parent.postMessage(%7BiframeId:'iframe_0.6622576275840402',width:img.width,height:img.height%7D,%20'http://www.cnblogs.com');%7D%3C/script%3E" frameborder="0" scrolling="no"></iframe>
其实Docker之前已经支持了很多的logdriver,图中列表是直接从Docker的官方文档上面拿到的。
文件日志
对于stdout的这种日志,在Docker里面现在处理起来还是比较方便的,如果没有现成Logdriver的也可以自己实现一个,但是对于文件日志处理起来就没有这么简单了。如果在一个容器里面写了日志,文件位于容器内部,从宿主机上无法访问,的确你是可以根据Docker用的devicemapper、overlayfs访问到它里面的一个文件,但是这种方式跟Docker的实现机制是有关系的,将来它如果改变,你的方案就失效了;另外,容器运行非常动态,日志收集程序难以配置,如果有一个日志收集的程序,在机器上面配置要收集哪个文件,它的格式是什么样子的、发送到哪儿?因为一台机器上面容器是一直在动态变的,它随时可能在增加一个或者删除一个,事先你并不知道这台机器上会跑了多少个容器,他们的配置是怎么样子的,他们的日志是写在哪儿的,所以没办法预先在一台机器上面把这个采集程序配好,这就是文件收集比较难的两个地方。
最简单的一个方案,给每个容器弄一个日志采集进程,这个进程跑到容器里面,就可以解决以上的两个问题,第一因为它跑到容器里面,就可以访问到容器里面所有的文件,包括日志文件;第二它跟容器在一起,当容器启动的时候,收集日志的进程也启动了,当容器销毁的时候,进程也就被销毁掉了。
这个方案非常简单,但是其实会有很多的缺点:
第一, 因为每个容器都有一个日志的进程,意味着你的机器上面有100个容器,就需要启动一百个日志设备的程序,资源的浪费非常厉害。
第二, 在做镜像的时候,需要把容器里面日志采集程序做到镜像里面去,对你的镜像其实是有入侵的,为了日志采集,不得不把自己的日志程序再做个新镜像,然后把东西放进去,所以对你的镜像过程是有入侵性的。
第三, 当一个容器里面好多个进程的时候,对于容器的资源管理,会干扰你对容器的资源使用的判断,包括对于在做资源分配和监控的时候,都会有一些这样的干扰。
fluentd-pilot
在容器服务上面,我们新开发了一个工具,称之为fluentd-pilot。
fluentd-pilot是一个开源的日志采集工具,适合直接在一台机器上面跑单个进程模式。fluentd-pilot有这样的一些特点:
· 一个单独fluentd进程,收集机器上所有容器的日志。不需要为每个容器启动一个fluentd进程;
· 声明式配置。使用label声明要收集的日志文件的路径;
· 支持文件和stdout;
· 支持多种后端存储:elasticsearch, 阿里云日志服务, graylog2…
<iframe id="iframe_0.4017407519277185" style="border-style: none; border-width: initial; width: 640px; height: 348px;" src="data:text/html;charset=utf8,%3Cstyle%3Ebody%7Bmargin:0;padding:0%7D%3C/style%3E%3Cimg%20id=%22img%22%20src=%22http://mmbiz.qpic.cn/mmbiz_png/tMJtfgIIibWLeMbxmt7XXiaNBgWZL3XepurgCf21PCZayZInOebHV4s3F2UtGRiakgotnvcKjWyAvlSMc5eRc6VQA/640?wx_fmt=png&tp=webp&wxfrom=5&wx_lazy=1&_=6637801%22%20style=%22border:none;max-width:1283px%22%3E%3Cscript%3Ewindow.onload%20=%20function%20()%20%7Bvar%20img%20=%20document.getElementById('img');%20window.parent.postMessage(%7BiframeId:'iframe_0.4017407519277185',width:img.width,height:img.height%7D,%20'http://www.cnblogs.com');%7D%3C/script%3E" frameborder="0" scrolling="no"></iframe>
具体是怎么做呢?如图,这是一个简单的结构,在Docker宿主机上面部署一个fluentd-pilot容器,然后在容器里面启动的时候,我们要声明容器的日志信息,fluentd-pilot会自动感知所有容器的配置。每次启动容器或者删除容器的时候,它能够看得到,当看到容器有新容器产生之后,它就会自动给新容器按照你的配置生成对应的配置文件,然后去采集,最后采集回来的日志同样也会根据配置发送到后端存储里面去,这里面后端主要指的elasticsearch或者是SLS这样的系统,接下来你可以在这个系统上面用一些工具来查询等等。整个这一块在Docker宿主机上面,外面的就是外部系统,由这两个部分来组成。
我们既然要用fluentd-pilot,就得先把它启动起来。还要有一个日志系统,日志要集中收集,必然要有一个中间服务去收集和存储,所以要先把这种东西准备好,然后我们在每一个收集日志的机器上面部署一个fluentd-pilot,用这个命令来部署,其实现在它是一个标准的Docker镜像,内部支持一些后端存储,可以通过环境变量来指定日志放到哪儿去,这样的配置方式会把所有的收集到的日志全部都发送到elasticsearch里面去,当然两个管挂载是需要的,因为它连接Docker,要感知到Docker里面所有容器的变化,它要通过这种方式来访问宿主机的一些信息。
<iframe id="iframe_0.43537052534520626" style="border-style: none; border-width: initial; width: 640px; height: 193px;" src="data:text/html;charset=utf8,%3Cstyle%3Ebody%7Bmargin:0;padding:0%7D%3C/style%3E%3Cimg%20id=%22img%22%20src=%22http://mmbiz.qpic.cn/mmbiz_png/tMJtfgIIibWLeMbxmt7XXiaNBgWZL3XepuaTbdYUDGBtuSRCh47AAsslM2b3yyHC8ibCnBYnuF5hz616CAVfHs9yw/640?wx_fmt=png&tp=webp&wxfrom=5&wx_lazy=1&_=6637801%22%20style=%22border:none;max-width:1283px%22%3E%3Cscript%3Ewindow.onload%20=%20function%20()%20%7Bvar%20img%20=%20document.getElementById('img');%20window.parent.postMessage(%7BiframeId:'iframe_0.43537052534520626',width:img.width,height:img.height%7D,%20'http://www.cnblogs.com');%7D%3C/script%3E" frameborder="0" scrolling="no"></iframe>
配置好之后启动应用,我们看应用上面要收集的日志,我该在上面做什么样的声明?关键的配置有两个,一是label catalina,声明的时候要收集容器的日志,所有的名字都可以;二是声明access,这也是个名字,都可以用你喜欢的名字。这样一个路径的地址,当你通过这样的配置来去启动fluentd-pilot容器之后,它就能够感觉到这样一个容器的启动事件,它会去看容器的配置是什么,要收集这个目录下面的文件日志,然后告诉fluentd-pilot去中心配置并且去采集,这里有一个-V,实际上跟Logs是一致的,在容器外面实际上没有一种通用的方式能够获取到容器里面的文件,所有我们主动把目录从宿主机上挂载进来,这样就可以在宿主机上看到目录下面所有的东西。
除了最简单的场景之外,你的日志可能会有一些更复杂的特性,比如你的日志格式是什么样子,你可能希望在收集之后加一些内容,便于搜索,当你在真用的时候,它不光是一个非常简单的容器,它可能属于某一个业务或者属于某一个应用,那么,你希望在收集的时候能够有一些关联信息,所以你可以指定日志格式是什么样子,然后可以在日志里添加tag,这些tag相当于一些关键信息,可以附加任何需要的关联信息,这样将来在搜索的时候可以更方便的把这些日志聚在一块;而且,它可以指定很多的后端,fluetnd-pilot支持多种后端,使用环境变量FLUENTD_OUTPUT指定后端类型。
<iframe id="iframe_0.719288032501936" style="border-style: none; border-width: initial; width: 640px; height: 533px;" src="data:text/html;charset=utf8,%3Cstyle%3Ebody%7Bmargin:0;padding:0%7D%3C/style%3E%3Cimg%20id=%22img%22%20src=%22http://mmbiz.qpic.cn/mmbiz_png/tMJtfgIIibWLeMbxmt7XXiaNBgWZL3XepuSDCAFoqwozw622pLn4e3ZacEuGlFfwl2z1JlzorTVVMDGjJEHQ2lcQ/640?wx_fmt=png&tp=webp&wxfrom=5&wx_lazy=1&_=6637801%22%20style=%22border:none;max-width:1283px%22%3E%3Cscript%3Ewindow.onload%20=%20function%20()%20%7Bvar%20img%20=%20document.getElementById('img');%20window.parent.postMessage(%7BiframeId:'iframe_0.719288032501936',width:img.width,height:img.height%7D,%20'http://www.cnblogs.com');%7D%3C/script%3E" frameborder="0" scrolling="no"></iframe>
fluent-pilot已经开源,如果功能不满足需求,可以自己定制,自己修改代码实现需要的功能。它的结构比较简单,有这样几个模块:
最上层是容器事件管理,这一块跟Docker进行交互,它会感知Docker的创建容器,然后做出相应的生成配置或者清理配置上的事情;解析容器label跟容器配置,当你创建一个新容器之后,就会用这个模块拿到新容器的配置,然后生成对应的配置文件;FluentdController主要是用来维护对应进程,包括控制什么时候加载新配置,然后检测一些健康状态等等;再下面就是Fluentd的一些插件,如果你需要增加一些日志的后端,就可以自己实现一些插件,放在这个里面,然后再生成跟对应的插件相关的一些配置。
fleuntd-pilot+阿里云容器服务
以上是fleuntd-pilot本身的一些能力,现在你可以在任何地方使用它,但是在容器服务上面我们针对它做了一些更加灵活方便、更酷的一些事情,容器服务为fluentd-pilot进行优化:
第一, 自动识别aliyun.logs标签,并创建Volume;
第二, 重新部署,新容器自动复用已有的Volume,避免日志丢失。
原生支持SLS
容器服务有一个很棒的特点,它会跟其他的云产品做一些非常方便的集成,这对于用户来说,在使用容器服务的时候,云产品能够更加方便的使用。比如说在日志方面,阿里云容器服务专为SLS做了优化,让用户更简单的在容器服务上使用SLS。SLS是阿里云提供的日志服务,性能强悍,使用方便,还可以对接ODPS等数据系统;支撑1W台物理机,一天12TB日志数据,IOPS>= 2W,采集平均<1 S;单机:在1个CPU core情况下,可以实时采集15-18MB/S 日志量;如果配置中增加可以用线程数目,可水平扩展;是阿里云环境下的最佳日志方案。
优化优点具体体现在:自动创建sls的project, logstore;同时支持stdout和文件日志,使用同样的方式配置。
容器服务日志方案
<iframe id="iframe_0.8113342598080635" style="border-style: none; border-width: initial; width: 640px; height: 307px;" src="data:text/html;charset=utf8,%3Cstyle%3Ebody%7Bmargin:0;padding:0%7D%3C/style%3E%3Cimg%20id=%22img%22%20src=%22http://mmbiz.qpic.cn/mmbiz_png/tMJtfgIIibWLeMbxmt7XXiaNBgWZL3Xepu6SYhPAyCWyM70Nuiaxbs85LVAYXicSprFh85UKzyo2t66bzH3XurZMjA/640?wx_fmt=png&tp=webp&wxfrom=5&wx_lazy=1&_=6637801%22%20style=%22border:none;max-width:1283px%22%3E%3Cscript%3Ewindow.onload%20=%20function%20()%20%7Bvar%20img%20=%20document.getElementById('img');%20window.parent.postMessage(%7BiframeId:'iframe_0.8113342598080635',width:img.width,height:img.height%7D,%20'http://www.cnblogs.com');%7D%3C/script%3E" frameborder="0" scrolling="no"></iframe>
比如在容器服务上面布一个tomcat,可能会写如图的一个标准Docker的模板。
当你通过部署之后,就可以在日志服务上面看到会生成两个东西,都是创建好的,加一些前缀来区分,不用管一些配置,你唯一要做的事是什么呢?点日志索引查询,然后到日志搜索界面,刚才启动的时候一些日志,可以看到从哪过来的,这条日志的内容是什么,这些信息都已经很快的出现了,包括需要检索可以选中一个时间段,输入关健词去做一些搜索,自动在日志服务上创建并配置logstore。
<iframe id="iframe_0.38895206106826663" style="border-style: none; border-width: initial; width: 640px; height: 208px;" src="data:text/html;charset=utf8,%3Cstyle%3Ebody%7Bmargin:0;padding:0%7D%3C/style%3E%3Cimg%20id=%22img%22%20src=%22http://mmbiz.qpic.cn/mmbiz_png/tMJtfgIIibWLeMbxmt7XXiaNBgWZL3Xepu5D85toyHJI7wicu1NDsz0MJfRhbOe6fIPEEupSkX2yrZHOiaY74IiboicA/640?wx_fmt=png&tp=webp&wxfrom=5&wx_lazy=1&_=6637801%22%20style=%22border:none;max-width:1283px%22%3E%3Cscript%3Ewindow.onload%20=%20function%20()%20%7Bvar%20img%20=%20document.getElementById('img');%20window.parent.postMessage(%7BiframeId:'iframe_0.38895206106826663',width:img.width,height:img.height%7D,%20'http://www.cnblogs.com');%7D%3C/script%3E" frameborder="0" scrolling="no"></iframe><iframe id="iframe_0.9292030853684992" style="border-style: none; border-width: initial; width: 640px; height: 298px;" src="data:text/html;charset=utf8,%3Cstyle%3Ebody%7Bmargin:0;padding:0%7D%3C/style%3E%3Cimg%20id=%22img%22%20src=%22http://mmbiz.qpic.cn/mmbiz_png/tMJtfgIIibWLeMbxmt7XXiaNBgWZL3XepuuicsXsoCMZfic07iaX3Dxaz5hfIUOXOQZj5PxVDZRiahPNa1xYezAIRBtA/640?wx_fmt=png&tp=webp&wxfrom=5&wx_lazy=1&_=6637801%22%20style=%22border:none;max-width:1283px%22%3E%3Cscript%3Ewindow.onload%20=%20function%20()%20%7Bvar%20img%20=%20document.getElementById('img');%20window.parent.postMessage(%7BiframeId:'iframe_0.9292030853684992',width:img.width,height:img.height%7D,%20'http://www.cnblogs.com');%7D%3C/script%3E" frameborder="0" scrolling="no"></iframe>
我们在容器服务上面做到了对于文件日志的收集,并且方式也都非常简单,都是你可以设立一个label,通过label方式可以收集到所有的日志。
日志存储方案
<iframe id="iframe_0.5689124930649996" style="border-style: none; border-width: initial; width: 640px; height: 360px;" src="data:text/html;charset=utf8,%3Cstyle%3Ebody%7Bmargin:0;padding:0%7D%3C/style%3E%3Cimg%20id=%22img%22%20src=%22http://mmbiz.qpic.cn/mmbiz_png/tMJtfgIIibWLeMbxmt7XXiaNBgWZL3XepuicWU9IJDqJL7qDK0Xmsae9fHd1QpiaIG8pR39YSZFwNfAhYTjt2vibJqA/640?wx_fmt=png&tp=webp&wxfrom=5&wx_lazy=1&_=6637801%22%20style=%22border:none;max-width:1283px%22%3E%3Cscript%3Ewindow.onload%20=%20function%20()%20%7Bvar%20img%20=%20document.getElementById('img');%20window.parent.postMessage(%7BiframeId:'iframe_0.5689124930649996',width:img.width,height:img.height%7D,%20'http://www.cnblogs.com');%7D%3C/script%3E" frameborder="0" scrolling="no"></iframe>
最后简单的介绍几种日志存储方案的对比,图为现在比较流行的日志方案Elasticsearch,它本身并不提供界面,ELK中的E,基于Lucene,主要用于日志索引、存储和分析;通常配合Kibana展示日志,免费,支持集群模式,可以搭一个Docker用的生产环境可用的系统。
<iframe id="iframe_0.6793488040566444" style="border-style: none; border-width: initial; width: 640px; height: 402px;" src="data:text/html;charset=utf8,%3Cstyle%3Ebody%7Bmargin:0;padding:0%7D%3C/style%3E%3Cimg%20id=%22img%22%20src=%22http://mmbiz.qpic.cn/mmbiz_png/tMJtfgIIibWLeMbxmt7XXiaNBgWZL3XepuJPgOYfrRuEN71gW6h0MMe8JtEQUCErNqeJ11x6AF0U5ZFnicD8icia8NQ/640?wx_fmt=png&tp=webp&wxfrom=5&wx_lazy=1&_=6637801%22%20style=%22border:none;max-width:1283px%22%3E%3Cscript%3Ewindow.onload%20=%20function%20()%20%7Bvar%20img%20=%20document.getElementById('img');%20window.parent.postMessage(%7BiframeId:'iframe_0.6793488040566444',width:img.width,height:img.height%7D,%20'http://www.cnblogs.com');%7D%3C/script%3E" frameborder="0" scrolling="no"></iframe>
接下来是graylog2,目前不算很流行,但是也是功能很强大的系统,它不像Elasticsearch还需要配合其它去使用,它自身拥有日志存储、索引以及展示所有的功能,都在一个系统里面实现,它可以设置一些报警规则,当日志里面出现一些关键字的时候自动报警,这个功能还是非常有用的,免费、支持集群模式,可以在生产环境里面搭一个Docker用的生产系统。
<iframe id="iframe_0.5944744707085192" style="border-style: none; border-width: initial; width: 640px; height: 305px;" src="data:text/html;charset=utf8,%3Cstyle%3Ebody%7Bmargin:0;padding:0%7D%3C/style%3E%3Cimg%20id=%22img%22%20src=%22http://mmbiz.qpic.cn/mmbiz_png/tMJtfgIIibWLeMbxmt7XXiaNBgWZL3XepuMx04uqYDntZibhFc6nZ930dYlxXXQLoqmEjibpLGqdD50LxPMq1a5D7A/640?wx_fmt=png&tp=webp&wxfrom=5&wx_lazy=1&_=6637801%22%20style=%22border:none;max-width:1283px%22%3E%3Cscript%3Ewindow.onload%20=%20function%20()%20%7Bvar%20img%20=%20document.getElementById('img');%20window.parent.postMessage(%7BiframeId:'iframe_0.5944744707085192',width:img.width,height:img.height%7D,%20'http://www.cnblogs.com');%7D%3C/script%3E" frameborder="0" scrolling="no"></iframe>
阿里云的日志服务SLS特点如下:
· 阿里云托管,不需要自己维护
· 支持多用户和权限管理
· 可以对接ODPS等系统
· 支撑1W台物理机,一天12TB日志数据,IOPS>= 2W,采集平均<1 S;单机:在1个CPU core情况下,可以实时采集15-18MB/S 日志量;如果配置中增加可以用线程数目,可水平扩展
用正确的方式写日志
那么,我们怎么样去收集日志、存储日志,用什么样的系统,日志的源头和写日志我们又该怎么来做,有这样几个建议:
1. 选择合适的日志框架,不要直接print;
2. 为每一条日志选择正确的level,该debug的不要用info;
3. 附加更多的上下文信息;
4. 使用json、csv等日志格式,方便工具解析;
5. 尽量不要使用多行日志(Java Exception Stack)。
http://www.cnblogs.com/jingjulianyi/p/6637801.html
相关推荐
本文分享了关于Kubernetes日志管理的最佳实践,由阿里云日志服务技术专家元乙分享。在深入介绍之前,我们首先需要了解日志的基本概念以及在Kubernetes环境中的特殊应用。 日志分为多种形式,包括但不限于文本日志、...
《Python自动化运维--技术与最佳实践》一书由刘天斯撰写,主要涵盖了Python在运维自动化领域的广泛应用和技术深度。Python以其简洁的语法和强大的库支持,成为自动化运维工程师的首选语言之一。书中深入探讨了如何...
8. **最佳实践** - 使用标签策略进行服务调度,可以根据节点的硬件特性或地理位置选择合适的服务运行位置。 - 定期更新Swarm集群,确保所有节点都运行最新的Docker版本,以获得最新功能和安全补丁。 - 利用健康...
本文将深入探讨Kubernetes全方位日志采集与管理的最佳实践,帮助你构建高效、可靠的日志系统。 一、Kubernetes日志概述 在Kubernetes中,每个Pod都包含一个或多个容器,每个容器都有自己的日志文件。Kubernetes不...
本文将深入探讨如何有效地监控Docker环境,包括监控的关键指标、工具选择以及最佳实践。 一、Docker监控的重要性 Docker容器的轻量级特性使得其在资源利用、快速部署和隔离性方面具有显著优势。然而,这种灵活性也...
《Python自动化运维:技术与最佳实践》是一本深入探讨如何使用Python进行系统管理和自动化运维的权威书籍。书中涵盖了从基础的脚本编写到高级的自动化框架应用,旨在帮助IT专业人员提升工作效率,减少手动干预,确保...
四、最佳实践与案例 1. **服务解耦**:充分利用网络配置,确保每个服务只暴露出必要的端口,提高系统安全性。 2. **健康检查**:为关键服务设置健康检查,确保服务的稳定性和可用性。 3. **环境变量动态化**:...
Python自动化运维技术与最佳实践是IT领域中一个热门的话题,特别是在现代数据中心和云计算环境中,高效、可靠的运维工作已经成为业务连续性和稳定性的重要保障。本资源包含了一份详细的PDF文档,旨在介绍如何利用...
云管平台监控技术最佳实践 在当前的IT环境中,云管理平台(Cloud Management Platform, CMP)已经成为企业管理和优化云计算资源不可或缺的工具。有效的监控技术是确保云环境稳定运行的关键,它能够帮助管理员及时...
企业微服务技术最佳实践主要关注的是在复杂的企业环境中如何有效地采用微服务架构来解决传统单体架构面临...这涉及到服务注册与发现、API Gateway、消息队列、日志监控、配置管理和任务调度等多个关键领域的最佳实践。
在Kubernetes环境中,日志收集是一项至关重要的任务,它涉及到对集群中各种日志源的管理和分析,以确保系统的...在实施过程中,应充分评估每个组件的性能、资源消耗以及与现有系统的兼容性,以实现最佳的日志管理实践。
#### 四、最佳实践建议 - **自动化监控配置**:尽可能自动化配置监控规则和阈值,减少人为干预,提高效率。 - **定期审计和优化**:定期检查监控系统的效果,并根据业务变化进行调整和优化。 - **异常主动告警**:...
10. **日志和监控**:通过Logback、Log4j等日志系统收集应用日志,结合ELK(Elasticsearch, Logstash, Kibana)堆栈或Prometheus+Grafana进行实时性能监控,有助于问题排查和系统优化。 文件"mjga-scaffold_main....
《Python自动化运维:技术与最佳实践》是一本深入探讨如何使用Python进行自动化运维的书籍,其附带的示例及案例源码为读者提供了丰富的学习材料。这本书旨在帮助IT专业人员提升运维效率,减少手动重复工作,通过...
"Devops架构最佳实践.pptx" 文件很可能是关于如何实施和优化DevOps流程的详细指南,它涵盖了技术创新和未来变革的关键点。下面,我们将深入探讨这个主题中的几个核心知识点。 1. **持续集成与持续部署(CI/CD)**: CI...
《58速运微服务架构解耦最佳实践》是一份深度探讨IT行业技术实践的参考资料,尤其对于运维人员来说,具有很高的学习价值。该压缩包包含了一份名为“58速运微服务架构解耦最佳实践.pdf”的文件,我们将在下面详细讨论...
《快递代拿系统,SpringBoot的最佳实践》 在IT行业中,SpringBoot框架因其简洁的配置、快速的开发体验以及强大的生态系统,已经成为Java开发者构建微服务的首选工具之一。本实践项目“快递代拿系统”充分利用了...