`

新浪是如何分析处理32亿条实时日志的

    博客分类:
  • ELK
 
阅读更多
 新浪是如何分析处理32亿条实时日志的?
 
【编者的话】我从2014年初入职新浪后就开始接触实时日志分析相关的技术,主要是ELK(Elasticsearch、Logstash、Kibana),当时是学习+ELK优化,接一些日志,小打小闹。从2015年起,我们正式得把实时日志分析作为服务提供给公司的其他部门。今天要给大家分享的是在服务化的道路上,我们的想法,方案和疑问。

服务介绍

随着实时分析技术的发展及成本的降低,用户已经不仅仅满足于离线分析。目前我们服务的用户包括微博、微盘、云存储、弹性计算平台等十多个部门的多个产品的日志搜索分析业务,每天处理约32亿条(2TB)日志。

技术架构

简单介绍一下服务的技术架构:
architecture.png

这是一个再常见不过的架构了:
(1)Kafka:接收用户日志的消息队列。
(2)Logstash:做日志解析,统一成JSON输出给Elasticsearch。
(3)Elasticsearch:实时日志分析服务的核心技术,一个schemaless,实时的数据存储服务,通过index组织数据,兼具强大的搜索和统计功能。
(4)Kibana:基于Elasticsearch的数据可视化组件,超强的数据可视化能力是众多公司选择ELK stack的重要原因。

努力提供更好的服务

我这次分享的重点不是这种架构的优劣或为什么选择这样的架构,而是在如此的架构上如何更好地传递实时日志分析的价值。为用户做好服务也不是修改几个配置文件,调优几个程序运行参数就能搞定的。为了提供更好的服务,我们在下面三个方向做了努力:

一、提升服务质量

我们首先做了Elasticsearch优化,Hardware Level由于我们当时拿到机器没有选择余地,只开启了超线程;System Level的优化如关闭swap,调整max open files等;App Level的优化如Java运行环境版本的选择,ES_HEAP_SIZE的设置,修改bulk index的queue size等,另外还设置了默认的index template,目的是更改默认的shard,replica数并将string改为not_analyzed,开启doc_values以应对elasticsearch进程OOM。详细的优化内容见Elasticsearch Optimization Checklist

随着用户数据的不断增长,index管理也成了大问题,我们需要基于大量不同的用户配置定期的create、optimize、close、delete、snapshot不同的index,在某个服务器上手工配置crontab已是不可能,而且cron是单点。于是我们开发了一个独立的Elasticsearch Index管理系统,负责以上任务的调度及执行。这个管理系统背后使用的技术是Celery,一个用Python开发的任务队列及执行系统,提供了类似crontab的定时任务配置语法,并且实现了分布式,可用性更高的架构。

最近的服务升级,我们为Elasticsearch安装了HDFS Snapshot插件,可以定期将index备份到HDFS,这个功能目前主要用于备份Kibana的配置index,用以恢复用户查看或配置可视化界面时的错误操作。

监控报警方面,System Level的监控报警(如硬盘满、损坏、服务器宕机)直接使用了在新浪内部提供了多年服务的sinawatch;App Level(如Elasticsearch JVM Heap Usage过高,Kibana能否正常访问,Kafka topic的consumer offset lag),我们开发了对应的监控报警脚本。User Level(如日志解析失败数量),主要通过elasticsearch python client执行query去统计或搜索。常见的报警是Logstash-filter-grok,logstash-filter-json解析日志失败会输出的json中添加_grokparserfailure、_jsonparsefailure,我们执行query判断解析错误的量。

要说明的是,Marvel是Elasticsearch很好的监控工具和插件,但是它们是商业软件,我们没有采用。Marvel是基于Kibana做的,里面对一些重要指标(如index bulk reject number)的展示很有价值。

二、增强易用性

增强服务的易用性就是给用户更好的用户体验,减少用户的抱怨。ELK性能优化是一方面,但它是远远不够的,我们遇到的实际情况是,用户在其他方面抱怨更多,如下:

1,用户最先抱怨的是IP解析成地区、ISP信息一点都不准,完全没有参考意义。

如对于CDN这种服务,我们解析用户IP不准,定位问题边缘节点错误,问题没法查,这是帮倒忙。原因:Logstash默认自带的IP库是国外maxmind公司的免费版本,中国的信息尤其不准。解决方案:使用我浪较新较全的IP库生成能适配maxmind geoip2 api的二进制格式IP库(maxmindDB),再开发logstash-filter-geoip2来解析IP。实测不仅IP解析准确率与公司IP库相同了,解析速度也提高了。

2,然后我们与用户都发现日志接入流程复杂,沟通困难。

人做不到机器那样分毫不差,有啥说啥。接入用户日志的时候,例如常常因为用户对日志格式表达的不全面,模棱两可,导致日志解析失败,服务对接人多次重写配置。从用户提需求到用户可以看到数据可视化效果或搜到日志,需要几个小时到几天。一来二去,用户和我们都烦了,只能求变。为此,我们正在逐步实现用户数据接入的自动化,减少接入时间和沟通成本这个过程需要3个关键:A.用户配置日志格式的界面,尽可能简洁简单;B.根据用户配置自动生成logstash config、index管理需要的配置;C.自动部署配置(logstash config等),打通日志流。

后来我们做了一个简单的用来协商日志格式的界面:
ui_log_format.png

目前我们已完成了A的一部分:用户日志格式配置界面;B的全部:开发了自动生成logstash conf的 python api;C即将开始,并且考虑使用Docker技术为我们提供一些便利。

3,部分数据可视化需求得不到满足,Kibana配置难度大。

我们起初采用官方Kibana v3,用户提出的类似SQL中的多个group by,画百分比,求指定区间占比等常见需求无法满足。之后通过三斗大神(微博@argv)定制版的Kibana 3满足了一些用户需求。Kibana 4诞生后,代码几乎是对Kibana3的重写,做了大幅改进,通过Elasticsearch Aggregation的强大数据统计功能及灵活的配置从Kibana 3解放出来。近期我们将迁移到Kibana 4。

三、提供新功能

我们为Elasticsearch安装了国内medcl大神开发的ik中文分词插件elasticsearch-analysis-ik。之前被分词为『中』和『国』的中国,现在终于可以被当做一个完整的词汇,否则搜索『中国』、『美国』也会出现。微盘的一些离线搜索需求使用了我们的服务,也用到了中文分词,Elasticsearch的搜索天赋满足了他们的需求,减少了他们的痛苦。
ik_analyzer.png

我们经历过的坑和坎儿:

1,elasticsearch 进程JVM Heap High Usage( > 90% )。

很长一段时间,我们都在应对JVM Heap High Usage,他带了的问题是Old GC次数多,时间长,es节点频繁退出集群,整个集群几乎停止响应。现在我们的主要策略是开启doc_values;限制query执行时占用的JVM Heap size;analyzed string只允许做query,不允许facets或者aggs;定期close 用户不需要的index。

2,Elasticsearch Query DSL、Facets、Aggs学习困惑。

有人为此开发了使用SQL执行ES Query的插件,一定程度上减轻了进入门槛。我们给出的学习他们的建议是观察Kibana的Request Body或试用Marvel的Senese插件,它有自动完成Query、Facets、Aggs的功能。另外最常用的query是query string query,最常用的aggs是TermsDate Histogram,可以应付大部分需求。

3,logstash不工作。

非官方的问题插件,及使用logstash-filter-ruby时未考虑到的异常等,导致Logstash运行时工作线程(worker thread)异常退出,Logstash僵死。我们的建议是尽可能不要在config中使用logstash-filter-ruby,尽量使用官方插件。不过我们也遇到过复杂的日志,写过250行+的config,用尽了ruby filter。当前未发现Logstash有好的成熟的监控方案,Logstash的内部状态也获取不到。我们目前通过间接的监控Kafka topic consumer是否落后或elasticsearch indexing rate来检验logstash的工作情况。

4,Kibana没有用户的概念,不同用户的数据无法隔离。

多个用户共享的Kibana Dashboard,误操作或误删时常影响其他用户,保存的dashboard太多,找到特定的dashboard很困难。官方到目前为止,未在这方面做过改进。有很多非官方的改进,我们也曾经用过三斗大神定制的Kibana3,也对Kibana index做了snapshot储存到HDFS里面。

5,与用户沟通成本高。

与我们的用户协商日志格式,数据可视化配置时,由于人的不确定性容易造成多次来回确定和修改,效率低下。我们毕竟是提供日志分析服务的,不给用户做日志运维,所以近期也在探索通过日志接入自动化、推荐用户提供给我们json格式数据,定期组织用户的Kibana培训来减少沟通成本。

Q & A

问:logstash连es出现timeout的情况有没?如何解决的?
答:我们常见的是ES Jvm Heap Usage比较高的时候会timeout,如果是服务内存小换大内存。另外不要对analyzed的string做aggs、facets,开启doc_values。

问:关于日志中异常报警的,有哪些方式?关键字过滤?
答:对于日志解析失败的情况,logstash 常见的是_grokparsefailuer和_jsonparsefailure,数据写入es后,执行query查询这两个关键词的数量即可。对于报警方案,watch是官方刚出的,其实比它早的实现方案,如Yelp的elastalert。

问:大数据分析平台(基于HDFS)跟kibana的展现会有很大区别吗?或者说最大的区别会在哪些方面?
答:你说的区别,我理解是Hadoop与Elasticsearch的区别,一个是离线分析,以job为单位,一个是实时搜索和统计,以query为单位。这里有三个关键词:实时,搜索,统计。Hadoop是离线的,es是实时的;es本质上是一个搜引擎,可以用来做全文检索等工作,Hadoop显然于此无关。统计是Hadoop与es都能做的,我不了解Hadoop有没有像Kibana这样的数据可视化组件。

问:你们的ES集群数据节点和查询节点做了分离吗?logstash是直接把数据写入查询节点还是数据节点?另外你们直接用的node模式还是transport模式呢?
答:(1)还没有做分离。(2)我们还在用http protocol模式。
原文地址:http://dockone.io/article/505
分享到:
评论

相关推荐

    MTK平台日志分析工具 gat-win32-x86_64-3.1716.3

    MTK(MediaTek)平台日志分析工具,如"GAT-win32-x86_64-3.1716.3",是专为分析MTK移动平台产生的db日志而设计的一款软件。这款工具对于开发者和故障排查人员来说至关重要,因为它能够帮助他们深入理解设备运行状态...

    MTK平台日志分析工具 gat-win32-x86_64-3.1809.4.c

    4. **数据导出**:用户可以将收集到的日志数据导出为各种格式,如文本、CSV等,以便在其他分析工具中进一步处理。 5. **实时监测**:GAT还支持实时监控设备的状态,对于开发者在调试过程中发现即时问题十分方便。 ...

    使用Python Pandas处理亿级数据的方法

    这次拿到近亿条日志数据,千万级数据已经是关系型数据库的查询分析瓶颈,之前使用过Hadoop对大量文本进行分类,这次决定采用Python来处理数据: 硬件环境 CPU:3.5 GHz Intel Core i7 内存:32 GB HDDR 3 1600 MHz...

    大数据与云计算技术分享 亿级大数据实时分析之旅 共32页.pdf

    大数据与云计算技术分享 亿级大数据实时分析之旅 共32页.pdf

    stm32f103 adc采样+dma传输+fft处理 频率计_fft处理_stm32_ADCFFT_频率计_ADC采样_

    总结,这个项目利用STM32F103的ADC进行高速采样,通过DMA高效地传输数据,再通过FFT对数据进行处理,实现频域分析,最终构建了一个具备频率计功能的数字示波器。这种设计对于教育、研究以及电子设备的调试具有很高的...

    STM32F407音频处理代码-Cortex-M4 DSP数字音频处理

    STM32F407是意法半导体(STMicroelectronics)推出的一款基于ARM Cortex-M4内核的微控制器,特别适合于数字信号处理(DSP)和浮点计算应用。这款微控制器内置了浮点单元(FPU),可以高效地执行复杂的数学运算,非常...

    STM32F4+AD采集+FFT频谱分析【亲测简单好用】

    STM32F4系列是意法半导体(STMicroelectronics)推出的高性能ARM Cortex-M4内核的微控制器,具有浮点单元(FPU)和数字信号处理能力,特别适合于信号处理应用,如本文中提到的AD采集和FFT频谱分析。 在本项目中,...

    STM32F407+ov2640图像处理,图像经过二值化处理,通过迭代阀值,

    高图像帧率表示系统能够在较短的时间间隔内处理和显示新的图像,这对于实时监控或者高速运动物体的检测非常重要。无卡顿现象表明系统的处理速度足够快,能够跟上图像输入的速度,保证了用户体验。 项目描述中提到的...

    C#通过系统日志获取开关机时间【源码】

    总结来说,利用C#和系统日志,我们可以有效地获取和分析Windows系统的开关机时间以及其他系统事件,这在系统监控、故障排查和日志分析等场景中非常有用。同时,了解如何安全、高效地处理日志信息是每一个IT专业人员...

    evtsys---32位

    evtsys工具可能就是用来帮助用户将Windows日志格式转换为Linux能理解和处理的格式,以实现跨平台的日志分析和管理。 描述 "把windows日志转成linux类型的" 进一步确认了这个工具的主要功能,即解决Windows和Linux...

    基于stm32f407的示波器+FFT频谱分析

    综上所述,这个项目展示了如何充分利用STM32F407的性能来实现一个功能强大的示波器和频谱分析仪,结合DMA、ADC、定时器、FFT和图形库,提供了一种高效且直观的信号分析工具。对于嵌入式系统开发者来说,这是一个很好...

    可在Windows下tail查看日志命令的工具

    对于系统管理员和开发者来说,实时监控和分析日志是日常工作中不可或缺的一部分。在Unix/Linux系统中,`tail`命令是一个非常常用的工具,用于查看文件的末尾内容,尤其是跟踪日志文件的变化。然而,Windows操作系统...

    小巧的Ping工具,可以记录日志等功能

    3. **数据包大小**:默认的ping数据包大小通常是32字节,但用户可以根据需要调整,以测试网络对不同大小数据包的处理能力。 4. **超时设置**:定义等待回应的最长时间,超过这个时间则认为包丢失。 5. **TTL(Time ...

    stm32f103 adc采样+dma传输+fft处理 频率计.7z

    STM32F103 ADC采样、DMA传输与FFT处理是嵌入式系统中进行信号分析和处理的重要技术。这个项目实现了一个基于STM32F103微控制器的频率计,它利用ADC(模拟数字转换器)采集模拟信号,通过TIM(定时器)控制采样率,...

    STM32 SD卡 记录传感器数据

    例如,可以使用FAT(File Allocation Table)文件系统对SD卡上的数据进行组织,创建特定格式的日志文件,便于后续分析。为了防止数据丢失,还可以实现错误检查和纠正机制,如CRC校验,或者定期备份数据到其他存储...

    基于STM32 的实时时钟并显示在0.96OLED

    在本项目中,我们将探讨如何使用STM32F103C8T6实现一个实时时钟(RTC)功能,并将时间显示在0.96英寸的有机发光二极管(OLED)屏幕上。 RTC,即Real-Time Clock,是一种能够保持精确时间的硬件模块,即使在微控制器...

    gat-win32-x86_64-3.1837.5.c

    5. **实时监测**:在某些情况下,GAT工具可能会提供实时日志监控功能,使工程师能够实时查看设备运行状况,及时发现并处理问题。 6. **兼容性**:由于是针对MTK平台设计,工具应该能够处理不同型号的MTK芯片产生的...

    基于STM32的FFT频谱分析+波形识别

    里面有两个文件夹,第一个是基础版本,第二个可以触屏改变采样频率,进而优化频率分辨率,使频谱分析更精确。频谱分析(50Hz~200Hz,其他范围内应该也可以)包括了基频,3,5,7次谐波的峰值,波形识别可识别正弦,...

Global site tag (gtag.js) - Google Analytics