#统计apache cookie log中访问频率最高的20个ip和访问次数 cat cookielog | awk '{ a[$1] += 1; } END { for(i in a) printf("%d, %s\n", a[i], i ); }' | sort -n | tail -20 #统计apache cookie log中返回404的url列表 awk '$11 == 404 {print $8}' access_log | uniq -c | sort -rn | head #统计一个ip访问超过20次的ip和访问次数列表,把$1改为url对应的$9,则可以统计每个url的访问次数 cat access_log | awk '{print $1}' | sort | uniq -c | sort -n | awk '{ if ($1 > 20)print $1,$2}' #统计每个url的平均访问时间 cat cookielog | awk '{ a[$6] += 1; b[$6] += $11; } END { for(i in a) printf("%d, %d, %s\n", a[i],a[i]/b[i] i ); }' | sort -n | tail -20 #打印访问apache的新ip列表 tail -f access.log | awk -W interactive '!x[$1]++ {print $1}' #通过日志查看当天指定ip访问次数过的url和访问次数: cat access.log | grep "10.0.21.17" | awk '{print $7}' | sort | uniq -c | sort –nr #通过日志查看当天访问次数最多的时间段 awk '{print $4}' access.log | grep "26/Mar/2012" |cut -c 20-50|sort|uniq -c|sort -nr|head #查看某一天的访问量 cat access_log|grep '12/Nov/2012'|grep "******.htm"|wc|awk '{print $1}'|uniq #查看访问时间超过30ms的url列表 cat access_log|awk ‘($NF > 30){print $7}’|sort -n|uniq -c|sort -nr|head -20 #列出响应时间超过60m的url列表并统计出现次数 cat access_log |awk ‘($NF > 60 && $7~/\.php/){print $7}’|sort -n|uniq -c|sort -nr|head -100 #排除搜索引擎后的url访问次数 sed "/Baiduspider/d;/Googlebot/d;/Sogou web spider/d;" xxx.log|awk -F' ' '{print $7}'|sort | uniq -c | sort -k1,2 -nr #统计/index.html页面的访问uv grep "/index.html" access.log | cut –d “ ” –f 4| sort | uniq | wc –l
相关推荐
Shell 常用脚本收集 本文收集了一些常用的 Shell 脚本,涵盖了批量删除已安装程序、重启服务程序、日志切割、资源同步和错误监控等多个方面。这些脚本可以帮助开发者和运维人员快速解决一些常见的问题,提高工作...
apache的默认日志文件分析,用于IP统计访问量,查看某一时间段的ip连接数
本篇将围绕“accessLog.rar”这个压缩包文件,探讨如何使用Spark进行日志分析,并深入解析其中的"log.log"文件。 一、Spark基础与日志分析概述 Spark是由Apache基金会开发的一个开源大数据处理框架,其核心理念是...
该脚本根据日期切割Nginx的access.log,以便于日后的分析和存储。它使用date命令获取当前日期时间戳,然后重命名并移动日志文件。这对于管理大型日志文件,保持磁盘空间整洁至关重要。 这些Shell脚本实例展示了...
5. Nginx 访问日志分析脚本:通过分析Nginx的access.log,可以获取到网站访问情况,例如最频繁的URL、访问来源、错误页面等。这些数据对于优化网站性能和安全策略很有帮助。 6. 查看网卡实时流量脚本:通过shell...
为了高效地分析access.log,我们可以使用各种工具,如AWStats、Log analyzers、Web Log Expert等,或者编写自定义脚本利用Python、Perl等编程语言进行处理。数据分析的结果可以帮助我们调整网站架构,改善SEO策略,...
weblogic 分析一批 access.log,生成csv 分析结果
因此,我们探讨的是如何利用多线程和自定义规则来构建一个比AWK更快的Nginx Access Log分析器。 首先,我们要理解Nginx Access Log的格式。通常,它遵循Common Log Format或Combined Log Format,包含以下字段:...
在Nginx服务器中,Access Log是记录客户端请求的重要日志,它包含了丰富的信息,可用于分析用户行为、优化网站性能和排查问题。了解和掌握Access Log的分析与配置对于任何Web服务的运维人员来说都至关重要。 1. **...
在Laravel框架中,开发accesslog是一个常见的需求,它涉及到记录和分析应用程序的访问日志。这可以帮助开发者追踪用户行为,诊断性能问题,以及确保系统的安全性。本文将深入探讨如何在Laravel中创建一个访问日志...
常用 shell 脚本,更加快捷的管理服务器 本文档将详细介绍常用的 shell 脚本,旨在帮助读者更加快速地管理服务器。shell 脚本是利用 Shell 的命令解释功能,对一个纯文本的文件进行解析,然后执行这些功能,也可以...
分析weblogic access.log 把结果插入 sqlite 数据库,便于分析和统计。sqlite客户端可以用SqliteDev3.75
4. **nginx访问日志分析脚本**:通过对nginx的access.log进行解析,可以获取到服务器的访问情况,如访问频率、热门页面、异常请求等,帮助分析服务器性能和安全状况。 5. **一键部署LNMP网站平台脚本.sh**:LNMP...
本文将介绍一个用于分析`nginx`日志的`shell`脚本,该脚本能够帮助我们找出访问次数最多和最耗时的页面,从而针对性地进行优化。这个脚本类似于`MySQL`中的慢查询日志分析,但针对的是Web页面的慢访问情况。 首先,...
Mysql的access log不断的增大,造成磁盘空间不足。 做了一个bat定期把这个log备份一下。 因为需要停掉mysql服务才能正确备份。 这个bat是先停掉mysql服务,access log重新命名,然后启动mysql服务。再执行 access ...
`access.log.zip`是一个压缩包,里面包含了Nginx服务器生成的访问日志记录,接下来我们将深入探讨Nginx日志的结构、用途及分析方法。 Nginx的默认日志格式(也称为`combined`格式)如下: ``` $remote_addr - $...
实时显示Squid Access log. 并自动清空Access.log 解压后运行, 填入Access.log 的中径,然后点击开始即可. 同样适用于实时查看Apache的日志. 注意: 1 用户需要用读写日志文件的权限. 2 会实时清空Access.log 的内容,...
最后,如果你想要进行更深度的分析或自动化处理,可以考虑使用脚本语言(如Python或Perl)编写更复杂的工具,或者使用专门的日志分析软件,如Logstash、ELK Stack(Elasticsearch、Logstash、Kibana)等。...
用于Spring Boot应用程序的可清除AccessLog 为基于Spring Boot的应用程序启用访问日志文件清除功能的模块。 添加项目Lombok代理 该项目使用生成getter和setter等。从命令行编译应该不会引起任何问题,但是在IDE中,...
资源一access.log资源一access.log资源一access.log资源一access.log