- 浏览: 323100 次
- 性别:
- 来自: 深圳
文章分类
最新评论
-
hdwmp123:
GGGGeek 写道HTMLLayout布局的邮件被QQ邮箱拒 ...
logback配置错误邮件发送 -
GGGGeek:
HTMLLayout布局的邮件被QQ邮箱拒收了,代理服务用的是 ...
logback配置错误邮件发送 -
Inmethetiger:
在windows下面用;分隔,linux下面用:分隔。 在 ...
【转】程序包com.sun.image.codec.jpeg不存在 问题的完美解决 -
wuxiaozeng2440:
感动了,谢谢
这世界上你最在乎的人 -
ahong520:
很重要的一点,安装完xcode后还需要到xcode prefe ...
MAC下配置Eclipse Java/C++ 开发环境
1.查看TCP连接状态
netstat -nat |awk '{print $6}'|sort|uniq -c|sort -rn
netstat -n | awk '/^tcp/ {++S[$NF]};END {for(a in S) print a, S[a]}'
netstat -n | awk '/^tcp/ {++state[$NF]}; END {for(key in state) print key,"\t",state[key]}'
netstat -n | awk '/^tcp/ {++arr[$NF]};END {for(k in arr) print k,"\t",arr[k]}'
netstat -n |awk '/^tcp/ {print $NF}'|sort|uniq -c|sort -rn
netstat -ant | awk '{print $NF}' | grep -v '[a-z]' | sort | uniq -c
netstat -ant|awk '/ip:80/{split($5,ip,":");++S[ip[1]]}END{for (a in S) print S[a],a}' |sort -n
netstat -ant|awk '/:80/{split($5,ip,":");++S[ip[1]]}END{for (a in S) print S[a],a}' |sort -rn|head -n 10
awk 'BEGIN{printf ("http_code\tcount_num\n")}{COUNT[$10]++}END{for (a in COUNT) printf a"\t\t"COUNT[a]"\n"}'
2.查找请求数请20个IP(常用于查找攻来源):
netstat -anlp|grep 80|grep tcp|awk '{print $5}'|awk -F: '{print $1}'|sort|uniq -c|sort -nr|head -n20
netstat -ant |awk '/:80/{split($5,ip,":");++A[ip[1]]}END{for(i in A) print A[i],i}' |sort -rn|head -n20
3.用tcpdump嗅探80端口的访问看看谁最高
tcpdump -i eth0 -tnn dst port 80 -c 1000 | awk -F"." '{print $1"."$2"."$3"."$4}' | sort | uniq -c | sort -nr |head -20
4.查找较多time_wait连接
netstat -n|grep TIME_WAIT|awk '{print $5}'|sort|uniq -c|sort -rn|head -n20
5.找查较多的SYN连接
netstat -an | grep SYN | awk '{print $5}' | awk -F: '{print $1}' | sort | uniq -c | sort -nr | more
6.根据端口列进程
netstat -ntlp | grep 80 | awk '{print $7}' | cut -d/ -f1
=============================================================
网站日志分析(Apache):
1.获得访问前10位的ip地址
cat access.log|awk '{print $1}'|sort|uniq -c|sort -nr|head -10
cat access.log|awk '{counts[$(11)]+=1}; END {for(url in counts) print counts[url], url}'
2.访问次数最多的文件或页面,取前20及统计所有访问IP
cat access.log|awk '{print $11}'|sort|uniq -c|sort -nr|head -20
awk '{ print $1}' access.log |sort -n -r |uniq -c|wc -l
3.列出传输最大的几个exe文件(分析下载站的时候常用)
cat access.log |awk '($7~/\.exe/){print $10 " " $1 " " $4 " " $7}'|sort -nr|head -20
4.列出输出大于200000byte(约200kb)的exe文件以及对应文件发生次数
cat access.log |awk '($10 > 200000 && $7~/\.exe/){print $7}'|sort -n|uniq -c|sort -nr|head -100
5.如果日志最后一列记录的是页面文件传输时间,则有列出到客户端最耗时的页面
cat access.log |awk '($7~/\.php/){print $NF " " $1 " " $4 " " $7}'|sort -nr|head -100
6.列出最最耗时的页面(超过60秒的)的以及对应页面发生次数
cat access.log |awk '($NF > 60 && $7~/\.php/){print $7}'|sort -n|uniq -c|sort -nr|head -100
7.列出传输时间超过 30 秒的文件
cat access.log |awk '($NF > 30){print $7}'|sort -n|uniq -c|sort -nr|head -20
8.统计网站流量(G)
cat access.log |awk '{sum+=$10} END {print sum/1024/1024/1024}'
9.统计404的连接
awk '($9 ~/404/)' access.log | awk '{print $9,$7}' | sort
10. 统计http status.
cat access.log |awk '{counts[$(9)]+=1}; END {for(code in counts) print code, counts}'
cat access.log |awk '{print $9}'|sort|uniq -c|sort -rn
11.每秒并发:
awk '{if($9~/200|30|404/)COUNT[$4]++}END{for( a in COUNT) print a,COUNT[a]}'|sort -k 2 -nr|head -n10
12.带宽统计
cat apache.log |awk '{if($7~/GET/) count++}END{print "client_request="count}'
cat apache.log |awk '{BYTE+=$11}END{print "client_kbyte_out="BYTE/1024"KB"}'
13.统计对象数量及对象平均大小
cat access.log |awk '{byte+=$10}END{ print byte/NR/1024,NR}'
cat access.log |awk '{if($9~/200|30/)COUNT[$NF]++}END{for( a in COUNT) print a,COUNT
[a],NR,COUNT[a]/NR*100"%"}
14.取5分钟日志
if [ $DATE_MINUTE != $DATE_END_MINUTE ] ;then #则判断开始时间戳与结束时间戳是否相等START_LINE=`sed -n "/$DATE_MINUTE/=" $APACHE_LOG|head -n1` #如果不相等,则取出开始时间戳的行号,与结束时间戳的行号
#END_LINE=`sed -n "/$DATE_END_MINUTE/=" $APACHE_LOG|tail -n1`
END_LINE=`sed -n "/$DATE_END_MINUTE/=" $APACHE_LOG|head -n1`sed -n "${START_LINE},${END_LINE}p" $APACHE_LOG > $MINUTE_LOG ##通过行号,取出5分钟内的日志内容 存放到 临时文件中
GET_START_TIME=`sed -n "${START_LINE}p" $APACHE_LOG|awk -F '[' '{print $2}' |awk '{print $1}'|
sed 's#/# #g'|sed 's#:# #'` #通过行号获取取出开始时间戳
GET_END_TIME=`sed -n "${END_LINE}p" $APACHE_LOG|awk -F '[' '{print $2}' |awk '{print $1}'|sed
's#/# #g'|sed 's#:# #'` #通过行号获取结束时间戳
15.蜘蛛分析
查看是哪些蜘蛛在抓取内容
/usr/sbin/tcpdump -i eth0 -l -s 0 -w - dst port 80 | strings | grep -i user-agent | grep -i -E 'bot|crawler|slurp|spider'
网站日分析2(Squid篇)
2.按域统计流量
zcat squid_access.log.tar.gz| awk '{print $10,$7}' |awk 'BEGIN{FS="[ /]"}{trfc[$4]+=$1}END{for
(domain in trfc){printf "%s\t%d\n",domain,trfc[domain]}}'
效率更高的perl版本请到此下载:http://docs.linuxtone.org/soft/tools/tr.pl
数据库篇
1.查看数据库执行的sql
/usr/sbin/tcpdump -i eth0 -s 0 -l -w - dst port 3306 | strings | egrep -i 'SELECT|UPDATE|DELETE|INSERT|SET|COMMIT|ROLLBACK|CREATE|DROP|ALTER|CALL'
系统Debug分析篇
1.调试命令
strace -p pid
2.跟踪指定进程的PID
gdb -p pid
netstat -nat |awk '{print $6}'|sort|uniq -c|sort -rn
netstat -n | awk '/^tcp/ {++S[$NF]};END {for(a in S) print a, S[a]}'
netstat -n | awk '/^tcp/ {++state[$NF]}; END {for(key in state) print key,"\t",state[key]}'
netstat -n | awk '/^tcp/ {++arr[$NF]};END {for(k in arr) print k,"\t",arr[k]}'
netstat -n |awk '/^tcp/ {print $NF}'|sort|uniq -c|sort -rn
netstat -ant | awk '{print $NF}' | grep -v '[a-z]' | sort | uniq -c
netstat -ant|awk '/ip:80/{split($5,ip,":");++S[ip[1]]}END{for (a in S) print S[a],a}' |sort -n
netstat -ant|awk '/:80/{split($5,ip,":");++S[ip[1]]}END{for (a in S) print S[a],a}' |sort -rn|head -n 10
awk 'BEGIN{printf ("http_code\tcount_num\n")}{COUNT[$10]++}END{for (a in COUNT) printf a"\t\t"COUNT[a]"\n"}'
2.查找请求数请20个IP(常用于查找攻来源):
netstat -anlp|grep 80|grep tcp|awk '{print $5}'|awk -F: '{print $1}'|sort|uniq -c|sort -nr|head -n20
netstat -ant |awk '/:80/{split($5,ip,":");++A[ip[1]]}END{for(i in A) print A[i],i}' |sort -rn|head -n20
3.用tcpdump嗅探80端口的访问看看谁最高
tcpdump -i eth0 -tnn dst port 80 -c 1000 | awk -F"." '{print $1"."$2"."$3"."$4}' | sort | uniq -c | sort -nr |head -20
4.查找较多time_wait连接
netstat -n|grep TIME_WAIT|awk '{print $5}'|sort|uniq -c|sort -rn|head -n20
5.找查较多的SYN连接
netstat -an | grep SYN | awk '{print $5}' | awk -F: '{print $1}' | sort | uniq -c | sort -nr | more
6.根据端口列进程
netstat -ntlp | grep 80 | awk '{print $7}' | cut -d/ -f1
=============================================================
网站日志分析(Apache):
1.获得访问前10位的ip地址
cat access.log|awk '{print $1}'|sort|uniq -c|sort -nr|head -10
cat access.log|awk '{counts[$(11)]+=1}; END {for(url in counts) print counts[url], url}'
2.访问次数最多的文件或页面,取前20及统计所有访问IP
cat access.log|awk '{print $11}'|sort|uniq -c|sort -nr|head -20
awk '{ print $1}' access.log |sort -n -r |uniq -c|wc -l
3.列出传输最大的几个exe文件(分析下载站的时候常用)
cat access.log |awk '($7~/\.exe/){print $10 " " $1 " " $4 " " $7}'|sort -nr|head -20
4.列出输出大于200000byte(约200kb)的exe文件以及对应文件发生次数
cat access.log |awk '($10 > 200000 && $7~/\.exe/){print $7}'|sort -n|uniq -c|sort -nr|head -100
5.如果日志最后一列记录的是页面文件传输时间,则有列出到客户端最耗时的页面
cat access.log |awk '($7~/\.php/){print $NF " " $1 " " $4 " " $7}'|sort -nr|head -100
6.列出最最耗时的页面(超过60秒的)的以及对应页面发生次数
cat access.log |awk '($NF > 60 && $7~/\.php/){print $7}'|sort -n|uniq -c|sort -nr|head -100
7.列出传输时间超过 30 秒的文件
cat access.log |awk '($NF > 30){print $7}'|sort -n|uniq -c|sort -nr|head -20
8.统计网站流量(G)
cat access.log |awk '{sum+=$10} END {print sum/1024/1024/1024}'
9.统计404的连接
awk '($9 ~/404/)' access.log | awk '{print $9,$7}' | sort
10. 统计http status.
cat access.log |awk '{counts[$(9)]+=1}; END {for(code in counts) print code, counts}'
cat access.log |awk '{print $9}'|sort|uniq -c|sort -rn
11.每秒并发:
awk '{if($9~/200|30|404/)COUNT[$4]++}END{for( a in COUNT) print a,COUNT[a]}'|sort -k 2 -nr|head -n10
12.带宽统计
cat apache.log |awk '{if($7~/GET/) count++}END{print "client_request="count}'
cat apache.log |awk '{BYTE+=$11}END{print "client_kbyte_out="BYTE/1024"KB"}'
13.统计对象数量及对象平均大小
cat access.log |awk '{byte+=$10}END{ print byte/NR/1024,NR}'
cat access.log |awk '{if($9~/200|30/)COUNT[$NF]++}END{for( a in COUNT) print a,COUNT
[a],NR,COUNT[a]/NR*100"%"}
14.取5分钟日志
if [ $DATE_MINUTE != $DATE_END_MINUTE ] ;then #则判断开始时间戳与结束时间戳是否相等START_LINE=`sed -n "/$DATE_MINUTE/=" $APACHE_LOG|head -n1` #如果不相等,则取出开始时间戳的行号,与结束时间戳的行号
#END_LINE=`sed -n "/$DATE_END_MINUTE/=" $APACHE_LOG|tail -n1`
END_LINE=`sed -n "/$DATE_END_MINUTE/=" $APACHE_LOG|head -n1`sed -n "${START_LINE},${END_LINE}p" $APACHE_LOG > $MINUTE_LOG ##通过行号,取出5分钟内的日志内容 存放到 临时文件中
GET_START_TIME=`sed -n "${START_LINE}p" $APACHE_LOG|awk -F '[' '{print $2}' |awk '{print $1}'|
sed 's#/# #g'|sed 's#:# #'` #通过行号获取取出开始时间戳
GET_END_TIME=`sed -n "${END_LINE}p" $APACHE_LOG|awk -F '[' '{print $2}' |awk '{print $1}'|sed
's#/# #g'|sed 's#:# #'` #通过行号获取结束时间戳
15.蜘蛛分析
查看是哪些蜘蛛在抓取内容
/usr/sbin/tcpdump -i eth0 -l -s 0 -w - dst port 80 | strings | grep -i user-agent | grep -i -E 'bot|crawler|slurp|spider'
网站日分析2(Squid篇)
2.按域统计流量
zcat squid_access.log.tar.gz| awk '{print $10,$7}' |awk 'BEGIN{FS="[ /]"}{trfc[$4]+=$1}END{for
(domain in trfc){printf "%s\t%d\n",domain,trfc[domain]}}'
效率更高的perl版本请到此下载:http://docs.linuxtone.org/soft/tools/tr.pl
数据库篇
1.查看数据库执行的sql
/usr/sbin/tcpdump -i eth0 -s 0 -l -w - dst port 3306 | strings | egrep -i 'SELECT|UPDATE|DELETE|INSERT|SET|COMMIT|ROLLBACK|CREATE|DROP|ALTER|CALL'
系统Debug分析篇
1.调试命令
strace -p pid
2.跟踪指定进程的PID
gdb -p pid
发表评论
-
将本地已有的一个项目上传到新建的git仓库的方法
2019-03-21 16:33 554将本地已有的一个非git项目上传到新建的git仓库的方法一共有 ... -
Linux下Tomcat日志定期清理
2014-06-03 14:48 1106在tomcat目录下的logs目录下有一个catalina.o ... -
在Linux中开机自动运行普通用户脚本程序
2014-06-03 11:27 1783Linux在启动时,会自动执行/etc/rc.d目录下的初始化 ... -
is not in the sudoers file(解决)
2014-05-06 10:16 783解决方案: 首需要切换到root身份 $su - (注意有- ... -
mac 忘记root密码
2014-04-14 22:14 783sudo bash password:输入你的当前用户密码 b ... -
RESTEasy 3 broken with Spring 4.0
2014-03-26 13:18 2400问题描述: ------------------------- ... -
eclipse中文注释字体大小如何修改
2014-03-21 12:03 9314貌似没有直接的办法,但是可以取个巧: Window --> ... -
eclipse中集成jad反编译
2014-03-18 14:06 894转载地址:http://www.blogjava.net/sy ... -
eclipse 插件 File Explorer
2014-03-17 17:58 3905ExploreFS的安装地址: 在eclipse中Help – ... -
[转]Mac下搭建svn服务器和XCode配置svn
2014-03-02 19:33 1213转载自:http://blog.csdn.net/jjunjo ... -
[转]Wireshark基本介绍和学习TCP三次握手
2013-11-17 16:04 881Wireshark基本介绍和学习TCP三次握手http:/ ... -
数据压缩解压缩(zip)
2013-11-05 14:06 992网络上传输数据大部分都需要压缩数据后传递,常见的有zip方式压 ... -
Linux批量重命名文件
2013-08-18 11:55 767Linux批量重命名文件会涉及到改变一个字母、改变一些相连字母 ... -
linux之sed用法
2013-08-18 11:39 908sed是一个很好的文件处 ... -
html页面内容自动换行显示
2013-03-25 11:32 1264style="word-break:break-al ... -
js编码转码中文
2013-03-25 11:29 3377javascript汉字编码与转码: <!DOCT ... -
Eclipse get/set方法 自动加上字段注释
2013-03-15 10:47 2865编码的时候通常要用到 JavaBean ,而在我们经常把注释写 ... -
gcd算法(求最大公约数)
2012-12-27 15:37 4558gcd算法:给定俩个正整数m,n(m>=n),求它们 ... -
xml内容解析,包含命名空间时需特殊处理(dom4j)
2012-12-19 12:53 2037你是否在解析xml内容的时候遇到包含命名空间的解析不到内容的情 ... -
标准对联广告Js代码
2012-07-30 17:09 1303标准对联广告Js代码 用于门户网站两侧的“对联广告” &l ...
相关推荐
在Linux操作系统中,命令行工具是提升效率和灵活性的关键元素,尤其对于IT专业人士而言,它们在没有图形用户界面(GUI)的情况下也能发挥巨大作用。以下是一些被IT专家广泛推荐的实用Linux命令行工具的详细解释: 1...
### 故障排查与日志 当遇到问题时,lemail的日志信息会提供帮助。默认情况下,日志可能保存在`~/.lemail/logs`目录下。通过`lemail logs`命令查看这些日志,以便诊断错误。 ### 总结 lemail作为一款仿Linux shell...
进程管理对于系统维护和故障排查非常重要,特别是理解进程状态和如何使用信号来控制进程。 Linux命令行大全通过对上述知识点的介绍,构建了一个全面的Linux命令行使用框架,旨在帮助读者快速入门并提高在Linux环境...
在Linux系统中,查看和分析日志文件是故障排查和系统监控的重要手段。本文将介绍几种常用命令行工具来查看Linux日志。 首先,Linux日志文件主要存放于/var/log目录下,这是系统日志文件的集中位置。管理员可以在...
18. **sosreport命令**:收集系统配置信息生成诊断报告,用于故障排查。 19. **pwd命令**:显示当前工作目录。 20. **cd命令**:改变工作目录,如`cd /home/user`进入用户家目录。 21. **ls命令**:列出目录内容...
7. **系统维护**:包括日志查看、性能监控、备份与恢复、故障排查等维护技巧。 8. **LINUX源码**:虽然标题提到了"LINUX源码",但通常树莓派用户并不需要直接处理Linux内核源码。不过,对于有经验的用户,了解如何...
5. **故障排查**:通过可视化的方式,帮助定位网络延迟、丢包等问题。 6. **配置编辑**:可能允许用户自定义网络参数,如端口、缓冲区大小等,用于测试和优化。 由于`sokit-master`是开源项目,用户还可以根据自己...
在Linux操作系统中,命令行是高效工作的重要工具。这篇文档介绍了五个...这些技巧提高了Linux命令行的使用效率,无论是日常使用还是故障排查,都能派上用场。熟悉并掌握这些技巧,将使你在Linux环境下更加游刃有余。
10. **系统监控与调试**:学习如何查看系统性能(如iostat、vmstat、dmesg)和日志文件,以及故障排查技巧。 11. **安全与防火墙**:介绍用户和组管理、文件权限设置、SSH安全、防火墙配置(如iptables)以及 ...
最后,持续监控和记录是故障排查过程中的重要部分。定期收集日志(如Loggly、Airbrake、Graylog等),并使用适当的工具进行分析,有助于找出故障的根本原因。 总之,排查Linux服务器高负载问题需要全面而深入的检查...
Linux操作系统自诞生以来,以其开源、高效、稳定的特性吸引了无数用户和开发者。...通过这些命令的使用,用户可以有效地进行Linux系统的日常管理、维护和故障排查,从而充分利用Linux系统的强大功能。
《Linux故障排除宝典教程》是一份全面深入的指南,专为解决Linux系统中的各种问题而设计。在Linux环境中,无论是服务器管理、桌面应用还是自动化脚本,都可能遇到各式各样的故障,从系统崩溃到服务中断,从权限问题...
### Windows XP系统故障排查知识点详解 #### 一、系统启动问题与修复方法 **知识点1:启动配置问题** - **故障现象**:Windows XP在启动过程中可能会遇到“NTLDR is missing”错误提示。 - **故障原因**:该错误...
测试结束后,软件将生成详细的报告,列出所有测试结果,包括任何遇到的问题和异常,这对于故障排查和性能优化至关重要。 总的来说,BurnInTest Linux V4是一款专业且实用的工具,对于系统管理员、硬件发烧友以及...
slurm可以为网络管理员提供网络接口的详细流量统计信息,有助于网络流量监控和故障排查。 说到文本处理,vim和emacs是两个被广泛认可的程序员代码编辑器。vim以其模式化编辑著称,通过键盘快捷键进行高效文本编辑,...
yum是Linux下常用的包管理工具,如果在软件包安装或更新过程中出现问题,可能导致yum操作停滞不前。 8. PHP配置错误导致的nginx 502错误。这可能是指在nginx服务器中配置PHP处理时出现问题,导致nginx无法正确将...
此外,对于网络管理员和开发者而言,了解如何利用PuTTY进行远程故障排查、自动化任务执行以及安全通信也是必备技能。 总的来说,PuTTY及其相关工具提供了强大的远程访问能力,是IT从业者和Linux学习者的必备工具之...
最后,了解如何使用Linux进行故障排查和日志分析同样关键。`dmesg`用于查看系统启动时的硬件信息,`journalctl`则可以查看系统日志,帮助我们诊断问题。 通过本教程,读者将能够逐步熟悉Linux的基本操作,为深入...
在IT领域,Linux操作系统是许多...学习和熟练掌握这些基本的Linux命令,能够极大地提高你在系统管理、开发和故障排查上的效率。在日常工作中,不断实践和探索新的命令及选项,将有助于你更深入地理解和运用Linux系统。