- 浏览: 1476669 次
- 性别:
- 来自: 北京
文章分类
- 全部博客 (691)
- linux (207)
- shell (33)
- java (42)
- 其他 (22)
- javascript (33)
- cloud (16)
- python (33)
- c (48)
- sql (12)
- 工具 (6)
- 缓存 (16)
- ubuntu (7)
- perl (3)
- lua (2)
- 超级有用 (2)
- 服务器 (2)
- mac (22)
- nginx (34)
- php (2)
- 内核 (2)
- gdb (13)
- ICTCLAS (2)
- mac android (0)
- unix (1)
- android (1)
- vim (1)
- epoll (1)
- ios (21)
- mysql (3)
- systemtap (1)
- 算法 (2)
- 汇编 (2)
- arm (3)
- 我的数据结构 (8)
- websocket (12)
- hadoop (5)
- thrift (2)
- hbase (1)
- graphviz (1)
- redis (1)
- raspberry (2)
- qemu (31)
- opencv (4)
- socket (1)
- opengl (1)
- ibeacons (1)
- emacs (6)
- openstack (24)
- docker (1)
- webrtc (11)
- angularjs (2)
- neutron (23)
- jslinux (18)
- 网络 (13)
- tap (9)
- tensorflow (8)
- nlu (4)
- asm.js (5)
- sip (3)
- xl2tp (5)
- conda (1)
- emscripten (6)
- ffmpeg (10)
- srt (1)
- wasm (5)
- bert (3)
- kaldi (4)
- 知识图谱 (1)
最新评论
-
wahahachuang8:
我喜欢代码简洁易读,服务稳定的推送服务,前段时间研究了一下go ...
websocket的helloworld -
q114687576:
http://www.blue-zero.com/WebSoc ...
websocket的helloworld -
zhaoyanzimm:
感谢您的分享,给我提供了很大的帮助,在使用过程中发现了一个问题 ...
nginx的helloworld模块的helloworld -
haoningabc:
leebyte 写道太NB了,期待早日用上Killinux!么 ...
qemu+emacs+gdb调试内核 -
leebyte:
太NB了,期待早日用上Killinux!
qemu+emacs+gdb调试内核
怀念云计算啊,
转发
http://stblog.baidu-tech.com/?p=310
转发
http://stblog.baidu-tech.com/?p=310
日志分析方法概述 日志在计算机系统中是一个非常广泛的概念,任何程序都有可能输出日志:操作系统内核、各种应用服务器等等。日志的内容、规模和用途也各不相同,很难一概而论。 本文讨论的日志处理方法中的日志,仅指Web日志。其实并没有精确的定义,可能包括但不限于各种前端Web服务器——apache、lighttpd、tomcat等产生的用户访问日志,以及各种Web应用程序自己输出的日志。 在Web日志中,每条日志通常代表着用户的一次访问行为,例如下面就是一条典型的apache日志: 211.87.152.44 – - [18/Mar/2005:12:21:42 +0800] “GET / HTTP/1.1″ 200 899 “http://www.baidu.com/” “Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1; Maxthon)” 从上面这条日志中,我们可以得到很多有用的信息,例如访问者的IP、访问的时间、访问的目标网页、来源的地址以及访问者所使用的客户端的UserAgent信息等。如果需要更多的信息,则要用其它手段去获取:例如想得到用户屏幕的分辨率,一般需要使用js代码单独发送请求;而如果想得到诸如用户访问的具体新闻标题等信息,则可能需要Web应用程序在自己的代码里输出。 为什么要分析日志 毫无疑问,Web日志中包含了大量人们——主要是产品分析人员会感兴趣的信息,最简单的,我们可以从中获取网站每类页面的PV值(PageView,页面访问量)、独立IP数(即去重之后的IP数量)等;稍微复杂一些的,可以计算得出用户所检索的关键词排行榜、用户停留时间最高的页面等;更复杂的,构建广告点击模型、分析用户行为特征等等。 既然这些数据是如此的有用,那么当然已经有无数现成的工具可以帮助我们来分析它们,例如awstats、Webalizer,都是专门用于统计分析Web服务器日志的免费程序。 另外还有一类产品,它们不分析直接日志,而是通过让用户在页面中嵌入js代码的方式来直接进行数据统计,或者说我们可以认为它是直接让日志输出到了它们的服务器。典型的代表产品——大名鼎鼎的Google Analytics,另外还有国内的cnzz、百度统计等。 很多人可能会说,既然如此,我们为什么还需要自己来分析日志,有必要吗?当然有。我们的用户(产品分析人员)需求是无穷尽的,上面说的这几类工具虽然很好很强大,但显然没办法满足全部的需求。 无论是本地分析的工具,还是在线的分析服务,它们虽然提很丰富的的统计分析功能,可以做一定程度的配置,但是依然很有限的。要进行稍复杂点的分析,或者要做基于日志的数据挖掘,依然需要自己来完成。 另外绝大多数日志分析工具都是只能用于单机的,数据量稍大就没辙了。同时那些提供在线分析的服务对于单个站点通常也都有最大流量的限制——这是很容易理解的,他们也需要考虑服务器的负载。 所以,很多时候还是得靠自己。 怎么进行日志分析 这并不是一个简单的问题。即使我们把“日志”限定为Web日志,依然包含了成千上万种可能的格式和数据,而是“分析”更是难以定义,也许是简单的统计值的计算,也许是复杂的数据挖掘算法。 下面并不打算讨论这些复杂的问题,而只是笼统的讨论如何构建进行日志分析工作的基础。有了这些基础会让基于日志的简单统计分析变得很简单,并让复杂的分析挖掘等变得可行。 少量数据的情况 先考虑最简单的情况,在数据规模比较小的时候,也许是几十MB、几百MB或者几十GB,总之就是在单机处理尚能忍受的时候。一切都很好办,现成的各种Unix/Linux工具——awk、grep、sort、join等都是日志分析的利器,如果仅仅是想知道某个页面的PV,一个wc+grep就能搞定。如果有稍复杂的逻辑,那就使用各种脚本语言,尤其是perl,配合伟大的正则表达式,基本就可以解决所有的问题。 例如,我们想从上面提到的apache日志中得到访问量最高前100个IP,实现很简单: cat logfile | awk ‘{a[$1]++} END {for(b in a) print b”\t”a[b]}’|sort -k2 -r|head -n 100 不过当我们需要频繁去分析日志的时候,上面的做法在一段时间之后可能就会让我们头疼如何进行各种日志文件、用于分析的脚本文件、crontab文件等等的维护,并且可能会存在大量重复的代码来做数据格式的解析和清洗,这个时候也许就需要更合适的东西,比如——数据库。 当然,要使用数据库来进行日志分析还是需要一些代价的,最主要的就是如何将各种异构的日志文件导入的数据库中——这个过程通常称为ETL(Extraction-Transformation-Loading)。幸好依然有各种现成的开源、免费的工具来帮助我们做这件事情,并且在日志种类不太多的时候,自己写几个简单的脚本来完成这项工作也并不困难。例如可以将上面的日志去掉不必要的字段,然后导入如下的数据库中: 现在需要考虑一下用什么数据库来存储这些数据。MySQL是一个很经典的开源数据库,它的传统引擎(MyISAM或者InnoDB,行存储)也许并不非常的适合日志数据的存储,但是在小数据量的时候还是很够用的。而且,在这方面现在已经有了更好的选择,例如开源且免费的Infobright、Infinidb,都是专门为数据仓库应用而进行了优化的数据引擎,采用列存储,有良好的数据压缩,处理几百GB的数据基本上不是问题。 使用数据库的好处之一就是,伟大的SQL可以帮我们很简单的完成绝大部分的统计分析工作——PV只需要SELECT+COUNT,计算搜索词排行只需要SELECT+COUNT+GROUP+ORDER+LIMIT。此外,数据库本身的结构化存储模式也让日志数据的管理变的更简单,减少运维代价。 同样还是上面的那个例子,简单的一个SQL就可以搞定: SELECT * FROM (SELECT ip, COUNT(*) AS ip_count FROM apache_log GROUP BY ip) a ORDER BY ip_count DESC LIMIT 100 至于性能问题,数据库的索引和各种优化机制通常会让我们的统计分析工作变得更快,并且上面提到的Infobright和Infinidb都专门为类似SUM、COUNt之类的聚集应用做了优化。当然也不是绝对的会快,例如在数据库中进行LIKE操作,通常会比grep一个文件还要慢很多。 更进一步的,使用基于数据库的存储,可以很容易的进行OLAP(联机分析处理)应用,从日志中挖掘价值会变的更加简单。 更多的数据怎么办 一个好的数据库似乎会让事情变的很简单,但是别忘了前面提到的都是单机数据库。一台单机在存储容量、并发性上毫无疑问都是有很大限制的。而日志数据的特点之一就是随时间持续增长,并且由于很多分析过程往往需要历史数据。短时间内的增长也许可以通过分库、分表或者数据压缩等来解决,不过很显然并不是长久之计。 想要彻底解决数据规模增长带来的问题,很自然的会想到使用分布式技术,结合上面的结论,也许使用某个分布式数据库是一个好选择,那么对最终用户就可以完全透明了。这个的确是很理想的情况,不过现实往往是残酷的。 首先,实现比较完美的分布式数据库(受限于CAP原则)是一个非常复杂的问题,因此在这里并不像单机数据库那样,有那么多开源的好东西可以用,甚至于商用的也并不是太多。当然,也并非绝对,如果有钱,还是可以考虑一下Oracle RAC、Greenplum之类东西。 其次,绝大多数分布式数据库都是NoSQL的,所以想继续用上SQL的那些优点基本上是没指望,取而代之的都是一些简单、难以使用的接口。单从这点看来,使用这些数据库的价值已经降低很多了。 所以,还是先现实一点,先退一步考虑如何解决的超大规模的日志的分析问题,而不是想如何让它变的像在小数据规模时那样简单。单单想做到这点,目前看来并不是太难,并且依然有免费的午餐可以吃。 Hadoop是伟大的Apache基金会下面的一套分布式系统,包括分布式文件系统(HDFS)、MapReduce计算框架、HBase等很多组件——这些基本都是Google的GFS/MapReduce/BigTable的克隆产品。 Hadoop经过数年的发展,目前已经很成熟了,尤其是其中的HDFS和MapReduce计算框架组件。数百台机器的集群已经被证明可以使用,可以承担PB级别的数据。 Hadoop项目中的HBase是一个按列存储的NoSQL分布式数据库,它提供的功能和接口都非常简单,只能进行简单的K-V查询,因此并不直接适用于大多数日志分析应用。所以一般使用Hadoop来做日志分析,首先还是需要将日志存储在HDFS中,然后再使用它提供的MapReduce API编写日志分析程序。 MapReduce是一种分布式编程模型,并不难学习,但是很显然使用它来处理日志的代价依然远大于单机脚本或者SQL。一个简单的词频统计计算可能都需要上百代码——SQL只需要一行,另外还有复杂的环境准备和启动脚本。 例如同样还是上面的例子,实现就要复杂的多,通常需要两轮MapReduce来完成。首先要在第一轮的mapper中计算部分ip的访问次数之和,并以ip为key输出: //遍历输入,并聚合结果 foreach(record in input) { ip = record.ip; dict[ip]++; } //用emit输出,第一个参数为key,用于reduce的分发 foreach(<ip, count> in dict) { emit(ip, count); } 然后在第一轮的reduce中就可以得到每个ip完整的计数,可以顺便排个序,并且只保留前100个。 count = 0; //对于每个key(ip),遍历所有的values(count),并累加 while(input.values.hasNext()) { count += input.values.next(); } //插入到大小为100的堆中 heap_insert(input.key, count); 在reduce结束的时候输出: //输出当前reduce中count最高的100个ip foreach(<ip, count> in dict) { emit(ip, count); } 由于reduce一般会有很多个,所以最后还需要将所有reduce的输出进行合并、再排序,并得到最终的前100个IP以及对应的访问量。 所以,使用Hadoop来做日志分析很显然不是一件简单事情,它带来了很多的额外的学习和运维成本,但是至少,它让超大规模的日志分析变成了可能。 怎样变得更简单 在超大规模的数据上做任何事情都不是一件容易的事情,包括日志分析,但也并不是说分布式的日志分析就一定要去写MapReduce代码,总是可以去做进一步的抽象,在特定的应用下让事情变得更简单。 也许有人会很自然的想到如果能用SQL来操作Hadoop上的数据该有多好。事实上,不仅仅只有你一个人会这么想,很多人都这么想,并且他们实现了这个想法,于是就有了Hive。 Hive现在也是Hadoop项目下面的一个子项目,它可以让我们用SQL的接口来执行MapReduce,甚至提供了JDBC和ODBC的接口。有了这个之后,Hadoop基本上被包装成一个数据库。当然实际上Hive的SQL最终还是被翻译成了MapReduce代码来执行,因此即使最简单的SQL可能也要执行好几十秒。幸好在通常的离线日志分析中,这个时间还是可以接受的。更重要的是,对于上面提到的例子,我们又可以用一样的SQL来完成分析任务了。 当然Hive并不是完全的兼容SQL语法,而且也不能做到完全的对用户屏蔽细节。很多时候为了执行性能的优化,依然需要用户去了解一些MapReduce的基本知识,根据自己的应用模式来设置一些参数,否则我们可能会发现一个查询执行很慢,或者压根执行不出来。 另外,很显然Hive也并不能覆盖所有的需求,所以它依然保留插入原始MapReduce代码的接口,以便扩展。 更多的问题 即使有了Hive这样一个类似于数据库的东西,我们依然还有很多事情需要做。例如时间久了,可能会有越来越多的需要例行执行的SQL,而这些SQL中,也许有一些是做了重复的事情;也许有一些的执行效率非常低下,一个复杂的SQL就占满了所有的计算资源。这样的系统会变得越来越难以维护的,直到有一天例行的SQL终于跑不完了。而最终用户往往不会去关心这些事情,他们只关心自己提交的查询是不是能即时得到响应,怎么样才能尽快的拿到结果。 举个简单的例子,如果发现在使用apache_log的所有查询中,几乎没有人用其中的user_agent字段,那么我们完全可以把这个字段去除掉,或者拆分成两张表,以减少多数查询的IO时间,提高执行的效率。 为了系统化的解决这些问题,我们可能需要引入例行任务的调度机制,可能需要去分析所有的SQL来发现哪些是可以合并的、哪些的性能需要优化,使用的数据表是不是需要做水平或者垂直分表等等。根据实际情况的不同,这时事情可能是人工来完成,也可能是写程序来自动分析并调整。 再者随着日志类型、分析需求的不断增长。用户会越来越多的抱怨很难找到想要的数据在哪份日志里,或者跑的好好的查询因为日志格式的变化而突然不能用了。另外上面提到的ETL过程也会变得复杂,简单的转换导入脚本很可能已经解决不了问题。这时候可能需要构建一个数据管理系统,或者干脆考虑建立一个所谓的数据仓库。 总之,随着日志数据量、日志类型、用户数量、分析需求等等的不断增长,越来越多的问题会逐渐浮现出来,日志分析这件事情可能就不再像我们最初想的那么简单,会变得越来越有价值,也越来越有挑战。
发表评论
-
zookeeper集群安装
2011-12-15 11:48 9570好文章http://www.codedump.info/?p= ... -
(转)jslinux
2011-12-09 00:57 1925转载http://zwhc.iteye.com/blog/10 ... -
mac版本的qemu的网站及js的shell
2011-12-09 00:54 1110那个jslinux http://coolshell.cn/a ... -
xen的教程
2011-11-29 18:06 1006xen的虚机一直没建过,怒了,备份一下 http://wik ... -
hbase官方文档
2011-11-20 21:58 834http://www.yankay.com/wp-conten ... -
yum原配置
2011-04-06 11:15 906mount -o loop rhel-server-5.4-x ... -
libvrit
2011-03-30 14:10 1636参考 http://www.baidu.com/s?wd=vi ... -
ubuntu备份笔记
2011-03-26 15:00 1144ls -sh du -h --max-depth=1 /roo ... -
(转)libvirt和Fedora 13 上搭建Eucalyptus
2011-03-26 09:58 2257转载 http://blog.csdn.net/hispani ... -
axis2c qpid
2011-03-13 23:39 1221具体http://haoningabc.iteye.com/b ... -
ubuntu_eucalyptus_qpid
2011-03-11 23:14 1938http://open.eucalyptus.com/wiki ... -
海量数据存储的数据库设计
2011-03-08 11:02 1780能想到的就只有这些了 缓存,分布式,hadoop,Atomki ... -
hadoop最基本配置及build(ant代理)
2011-01-06 11:16 8104网上的大多数都是hadoop-site.xml 20的版本,分 ... -
hadoop ipc
2010-12-30 14:32 1418用cygwin在window上装hadoop,做namenod ... -
hadoop学习笔记
2010-12-17 21:20 4178启动后可以用 * NameNode - http:// ...
相关推荐
Hadoop-LZO广泛应用于需要高效数据压缩和解压缩的场景,如日志分析、大规模数据处理、流式数据处理等。它特别适用于那些I/O密集型的应用,因为LZO的快速解压能力能有效减少数据读取的时间,提高整体处理速度。 总结...
- **日志分析**:通过查看`logs`目录下的日志文件,可以找到错误信息并解决问题。 11. **性能优化**: 虽然Windows不是Hadoop的最佳运行环境,但可以通过调整内存分配、优化网络设置等方法提高性能。 以上是关于...
### 基于Hadoop的网络日志分析系统研究 #### 概述 随着信息技术的飞速发展,网络日志的收集与分析成为了确保系统稳定运行的关键环节之一。网络日志记录了系统运行过程中的各类事件,对于追踪系统故障、监控系统...
### Hadoop环境搭建之Hive 2.1.1配置详解 #### 一、概述 在构建大数据处理环境时,Apache Hive 是一个重要的组件,它提供了SQL查询功能,使用户能够方便地对存储在Hadoop文件系统(HDFS)中的大规模数据集进行数据...
### Hadoop权威指南知识点概述 #### 一、Hadoop概览 - **Hadoop的核心功能**:Hadoop提供了一个稳定的基础架构,支持大规模数据的存储和分析。这一体系主要由两部分组成——Hadoop分布式文件系统(HDFS)和...
通过使用Hadoop,暴风影音能够实现对海量日志数据的高效处理,从而提供更加精准的产品分析、广告分析和用户行为分析等服务。 #### 海量数据应用发展趋势 随着互联网的快速发展,数据量呈现爆炸式增长。据IDC预测,...
- **百度**:用于搜索日志分析和网页数据库挖掘。 - **Facebook**:处理内部日志和维度数据源,作为报告/分析和机器学习的数据来源。 - **Freestylers**:图像检索引擎,利用Hadoop进行图像处理。 - **IBM**:通过...
### HadoopSpark企业应用实战知识点概述 #### 一、Hadoop与Spark简介 - **Hadoop**:Hadoop是一个能够对大量数据进行分布式处理的软件框架。它由Apache基金会所开发,能够在普通的商用硬件上运行,这使得它可以...
- **Hadoop在日志分析中的优势**: - **高效性**:Hadoop通过将数据分割成多个小块并行处理,极大地提高了处理速度。 - **可扩展性**:随着数据量的增长,可以通过简单地添加更多节点到集群中来扩展处理能力。 -...
2. **Hadoop 应用场景**:Hadoop 主要用于大数据的存储和处理,适用于日志分析、推荐系统、机器学习、数据挖掘等多种场景。它特别适合那些数据量大、处理速度要求高、传统数据库难以应对的业务需求。 3. **Hadoop ...
- **故障恢复**:讨论了作业失败时的处理机制,包括重试策略和日志分析。 #### 总结 Hadoop Streaming官方中文文档是一个全面的资源,它不仅为初学者提供了入门指南,也为经验丰富的开发者提供了深入的技术细节和...
这可能包括数据导入导出、查询优化、监控和日志分析等。 7. **开发工具和生态系统**:除了基本组件,指南可能还会提及Hadoop生态中的其他工具,如Hive(数据仓库工具)、Pig(数据分析工具)、ZooKeeper(协调服务...
8. **Hadoop的实际应用**:Hadoop被广泛应用于互联网广告分析、推荐系统、基因组学研究、日志分析等领域,帮助企业从海量数据中挖掘价值。 9. **Hadoop的未来与挑战**:随着云计算和Spark等新技术的崛起,Hadoop正...
**数据分析任务**:使用MapReduce处理大规模日志数据,进行用户行为分析等。 - **操作步骤**: 1. 编写Map函数:读取输入数据,将其转换为键值对形式。 2. 编写Reduce函数:对Map阶段产生的中间结果进行聚合处理...
- **日志处理示例**: 介绍了如何使用Hadoop进行日志文件分析,这通常涉及到对日志文件进行过滤、排序和汇总统计。 #### 四、Hadoop杂志——《Hadoop开发者》 - **网址**: [百度文库中的《Hadoop开发者》系列]...
《搜狗搜索日志分析报告》是对海量的搜狗搜索数据进行深度挖掘和解析的科研文档,旨在揭示用户搜索行为的规律与趋势。本报告基于500万条搜狗搜索日志,采用Hadoop、Hive等大数据处理工具,结合R语言进行统计分析,...