论坛首页 Java企业应用论坛

Nginx日志统计方案全过程

浏览 9451 次
精华帖 (0) :: 良好帖 (0) :: 新手帖 (0) :: 隐藏帖 (0)
作者 正文
   发表时间:2014-11-29  

本文主要记录下给予python的nginx日志统计过程,主要原因是最近系统经常遭到未知程序的疯狂爬数据,虽然做了防爬机制,但是还是必须要找出是哪些IP访问次数比较多。想到的办法就是通过分析ngxin日志,从而找出这些IP排行即可。具体方案的操作步骤包括:

  1. ngxin日志每日切割功能;
  2. 设置ngxin的日志格式;
  3. 编写python代码在每日切割之前统计下access.log中的IP访问次数并将统计结果录入MongoDB;
  4. 编写web查询MongoDB进行统计。

下面按照每个步骤详细说明。

一、nginx日志每日切割功能

该功能主要通过自己编写shell脚本实现,然后将shell脚本通过crontab设置任务周期。

shell脚本如下:

#!/bin/bash
## 零点执行该脚本
## Nginx 日志文件所在的目录
LOGS_PATH=/usr/local/nginx/logs
## 获取昨天的 yyyy-MM-dd
YESTERDAY=$(date -d ”yesterday” +%Y-%m-%d)
## 移动文件
mv ${LOGS_PATH}/access.log ${LOGS_PATH}/access_${YESTERDAY}.log
## 向 Nginx 主进程发送 USR1 信号。USR1 信号是重新打开日志文件
kill -USR1 $(cat /usr/local/nginx/nginx.pid)

加入crontab

0 0 * * * /bin/bash /usr/local/nginx/sbin/cut-log.sh

 

二、设置ngxin日志格式

打开nginx.conf配置文件,在server段中加入

log_format  access  '$remote_addr - $remote_user [$time_local] "$request"' '$status $body_bytes_sent "$http_referer"' '"$http_user_agent" $http_x_forwarded_for';
access_log /usr/local/nginx/logs/access.log access;

 

加入成功后重启ngxin

./nginx -s reload

 

三、编写python代码在每日切割之前统计下access.log中的IP访问次数并将统计结果录入MongoDB;

下载pymongo,上传到服务器,并安装

# tar zxvf pymongo-1.11.tar.gz
# cd pymongo-1.11
# python setup.py install

 

python连接mongodb样例

$ cat conn_mongodb.py 
#!/usr/bin/python
 
import pymongo
import random
 
conn = pymongo.Connection("127.0.0.1",27017)
db = conn.tage #连接库
db.authenticate("tage","123")
#用户认证
db.user.drop()
#删除集合user
db.user.save({'id':1,'name':'kaka','sex':'male'})
 #插入一个数据
for id in range(2,10):
    name = random.choice(['steve','koby','owen','tody','rony'])
    sex = random.choice(['male','female'])
    db.user.insert({'id':id,'name':name,'sex':sex}) 
#通过循环插入一组数据
content = db.user.find()
#打印所有数据
for i in content:
    print i

 

编写python脚本

#encoding=utf8
 
import re
 
zuidaima_nginx_log_path="/usr/local/nginx/logs/www.zuidaima.com.access.log"
pattern = re.compile(r'^\d{1,3}\.\d{1,3}\.\d{1,3}\.\d{1,3}')
 
def stat_ip_views(log_path):
    ret={}
    f = open(log_path, "r")
    for line in f:
        match = pattern.match(line)
        if match:
            ip=match.group(0)
            if ip in ret:
                views=ret[ip]
            else:
                views=0
            views=views+1
            ret[ip]=views
    return ret
def run():
    ip_views=stat_ip_views(zuidaima_nginx_log_path)
    max_ip_view={}
    for ip in ip_views:
        views=ip_views[ip]
        if len(max_ip_view)==0:
            max_ip_view[ip]=views
        else:
            _ip=max_ip_view.keys()[0]
            _views=max_ip_view[_ip]
            if views>_views:
                max_ip_view[ip]=views
                max_ip_view.pop(_ip)
 
        print "ip:", ip, ",views:", views
    #总共有多少ip
    print "total:", len(ip_views)
    #最大访问的ip
    print "max_ip_view:", max_ip_view
 
run()

 

上面程序运行结果:

ip: 221.221.155.53 ,views: 1
ip: 221.221.155.54 ,views: 2
total: 2
max_ip_view: {'221.221.155.54': 2}

 

更多java架构应用文章,欢迎访问http://arching.wc.lt

   发表时间:2014-12-02  
真正的说是后知后觉啊。当你统计出来或许你的网站已经被爬虫抓取的拖垮了一天都有了,还要加上人工介入处理时间,想想都可怕。
0 请登录后投票
   发表时间:2014-12-04  
挺好的学习方式,不过我觉得20w pv左右的,你用这个方式去可能会出现很大问题了,
我觉得awk命令就可以完成你现阶段要完成的工作
如果海量,我觉得结合hadoop map-reduce可能更好点
0 请登录后投票
论坛首页 Java企业应用版

跳转论坛:
Global site tag (gtag.js) - Google Analytics