第一步:主要是读取配置文件的内容,以及把各种数据存放到文件里
#下载日志
def down():
downloadfile=os.path.join(util.FileUtil.getconfig("info", "downloadfile"))#需要下载的文件列表
downloadpath=os.path.join(util.FileUtil.getconfig("info", "downloadpath"))
logpath=os.path.join(util.FileUtil.getconfig("info", "logpath"))
today=util.DateUtil.getYesterday(0)#今天
yesterday=util.DateUtil.getYesterday(1)#昨天
# befor=util.DateUtil.getYesterday(2)#前天
successdownlog=os.path.join(logpath,"dwonsuccess"+str(today)+".txt")#记录下载成功的文件
successdownfile=os.path.join(logpath,"dwonsuccess"+str(yesterday)+".txt")#记录下载成功的文件
#错误日志按时间进行区分,这个采用哪中方法需要订策略
#beforlog=os.path.join(logpath,str(befor)+"downerror.txt")#前天的日志错误下载列表,主要是读取
#yesterdaylog=os.path.join(logpath,str(yesterday)+"downerror.txt")#昨天的日志错误下载列表,主要是写入
# downlist=getDownloadList(downloadfile,beforlog,successdownfile)#把前天下载错误的日志和昨天需要下载的日志进行合并
# for li in downlist:
# wgetFile(li,downloadpath,successdownfile,yesterdaylog)
errorlog=os.path.join(logpath,"downerror.txt")#下载的错误日志
#下载地址列表
downlist=getDownloadList(downloadfile,errorlog,successdownfile,successdownlog)
for li in downlist:
wgetFile(li,downloadpath,successdownlog,errorlog)
第二步:通过各个文件里获取需要下载的列表
#获取下载列表
#downfile是下载文件的列表
#errordownfile错误日志
#successdownfile下载成功的记录
#successdownlog 当天下载成功的记录,当停止再执行时不会重复下载已经成功的日志
#print getDownloadList("c:\\ip.txt","c:\\ip1.txt")
def getDownloadList(downfile,errordownfile,successdownfile,successdownlog):
#从配置的文件里获取下载列表
li=util.FileUtil.readfiletolist(downfile)
#从错误的下载文件里获取下载列表
errorli=util.FileUtil.readfiletolist(errordownfile)
#成功的下载列表
successli=util.FileUtil.readfiletolist(successdownfile)
#成功的下载列表
todaysuccessli=util.FileUtil.readfiletolist(successdownlog)
#更新错误的下载列表文件
util.FileUtil.coverLine(errordownfile, errorli, successli)
util.FileUtil.coverLine(errordownfile, errorli, todaysuccessli)
#合并下载列表的文件以及下载错误的文件里的列表
ret=[]
map={}
for line in li:
map[line]=line
ret.append(line)
for line in errorli:
if line in map.keys():
pass
else:
map[line]=line
ret.append(line)
for line in successli:
if line in map.keys():
del(map[line])
ret.remove(line)
else:
pass
for line in todaysuccessli:
if line in map.keys():
del(map[line])
ret.remove(line)
else:
pass
return ret;
第三步:下载日志的函数(通过wget下载,需要把wget.exe复制到目录下):
#下载文件
#wgetFile('http://localhost/test/1.zip','c:\\','log.zip')
def wgetFile(url,path,successdowloadfile,errordowloadfile):
"""
下载url指定的网络资源对象
return result
0 成功
1 wget error, 2 User interrupt, 3 Execution failed
"""
filename=util.FileUtil.getFileNameByUrl(url)
#-t2试两次;-c是继续,相当于断点续传;-o是输出到wget.log日志中;-T是timeout,超时时间;--waitretry 等待5m检索
#-U参数还不是很清楚;-O是把url下载了放到那个目录下并重新命名。
cmd='wget -t2 -c -o wget.log -T2 --waitretry=5 -U downyclog -O '+path+filename+' '+url+''
try:
retcode = subprocess.call(cmd, shell = True)
#os.system(cmd)
print url,"wget return code:",retcode
if retcode!=0 :
print "\nFailed"
util.FileUtil.appendfile(errordowloadfile, url+"\n")
return 1
else:
util.FileUtil.appendfile(successdowloadfile, url+"\n")
except KeyboardInterrupt,e:
print >>sys.stderr, "User Interrupt!",e
util.FileUtil.appendfile(errordowloadfile, url+"\n")
return 2
except OSError,e:
print >>sys.stderr, "Execution failed!",e
util.FileUtil.appendfile(errordowloadfile, url+"\n")
return 3
print "\tOK"
return 0
附件为在myeclipce下建的python项目,程序里只是进行了日志的下载以及解压缩的处理,并没有对日志进行解析,用python只能把原始数据导入到数据库中,在数据库中进行聚合的操作,具有一些局限性,对于url进行统计的数据可以实现,但对于log4j进行统计的数据比较困难,例如;对access日志可以用python进行解析,把url按参数解析为一些字段,这个需要看具体的业务逻辑,比较重要的参数需要放到单独的字段中进行统计,这样可以加快数据库的运算,当然数据量比较大的话最好是一天一个表。对于广告日志使用python做解析并不太合适,主要是一个广告的属性比较多,需要统计的比较杂,这个需要看需求,用python实现比较麻烦一些。
日志解析可以使用c语言来做,这样应该可以提高整体的效率,可能存在的瓶颈一是在数据库,二是在解析日志,三是下载。数据库的优化不是很懂,知道的有分表,索引之类的优化;
下载和网速有关系,这个一般在内网,因此这里应该不会有问题;最后在解析日志这里,使用不同的语言会有比较大的差异,主要是和各种语言的执行速度有关系,知道的c语言应该是特别快的一种吧。
分享到:
相关推荐
标题中的“基于python开发的自动下载outlook邮箱附件程序”是指使用Python编程语言编写的一个工具,该工具能够自动化处理从Outlook邮箱下载附件的任务。这个程序对于经常需要处理大量邮件和附件的人来说,无疑是一个...
Python作为一门广泛使用的编程语言,提供了多种方法来实现日志监控。这篇博文"Python 实时日志监控"可能详细介绍了如何利用Python进行实时的日志分析和管理。 在Python中,内置的`logging`模块是实现日志功能的基础...
标题 "coding_python文档下载工具_python_shakeub8_" 暗示了这是一个关于使用Python编写的文档下载工具的项目,其中可能包含一个名为"shakeub8"的开发者或团队的贡献。这个工具可能是为了帮助用户方便地抓取和下载...
在这个任务中,我们将使用Python来处理Apache的访问日志,找出访问次数最多的IP地址。 Apache是全球最广泛使用的Web服务器,它的跨平台特性和强大的稳定性使其成为首选。Apache提供了访问日志(access_log)和错误...
在IT行业中,SecureCRT(Secure Shell Customer for Windows)是一款广泛使用的终端仿真程序,它支持SSH、Telnet等多种协议,提供安全的远程访问功能。而Python作为一种强大且灵活的编程语言,常常被用来自动化各种...
【Python-基于Python实现的Linux后台日志监控小项目】 在IT运维中,实时监控Linux系统的后台日志是一项至关重要的任务。它可以帮助我们快速发现系统异常、错误信息以及潜在的安全问题。本项目“Python-基于Python...
Python 使用 Fluent 收集日志是一种常见的日志管理和分析解决方案,尤其在大数据和云环境中的应用广泛。Fluentd 是一个开源的数据收集器,它能够统一日志收集、处理、存储和检索流程,使得日志管理更加高效。在这个...
在这个项目中,我们将探讨如何使用Python解析日志文件并将其数据导出到Excel中。 首先,我们需要了解日志文件的格式。通常,日志文件包含时间戳、事件级别(如INFO、WARNING、ERROR)、源代码位置以及具体的事件...
- `util`:工具类模块,可能包含各种通用辅助函数,如日志记录、数据清洗等。 - `enums`:枚举类型定义,用于规范和简化代码中的常量。 - `entity`:实体类,可能定义了数据模型,用于存储和操作爬取的数据。 5....
python获取日志文件增量信息的完整代码,有详细的注释说明。
本文将深入探讨Python串口通信的基础知识,以及如何使用Python实现串口日志小工具。 首先,我们需要了解串口通信的基本概念。串口,即串行通信接口,是计算机上一种古老的通信方式,它通过串行线按位(bit)发送和...
指定区间时间 获取SVN日志指定区间时间 获取SVN日志指定区间时间 获取SVN日志指定区间时间 获取SVN日志指定区间时间 获取SVN日志指定区间时间 获取SVN日志指定区间时间 获取SVN日志指定区间时间 获取SVN日志指定区间...
标题中的“自动下载喜马拉雅的Python脚本”是指利用Python编程语言编写的一段程序,它的主要功能是自动化地从喜马拉雅平台下载音频资源。喜马拉雅是中国一个知名的在线音频分享平台,提供了丰富的有声书、音乐、电台...
本文将深入探讨使用Python进行日志分析的基本方法,以"python 分析日志(初本)"为主题,结合提供的两个Python脚本文件——read_file.py和read.py,来讲解如何有效地读取、解析和分析日志文件。 首先,让我们从基础...
在实际使用中,你可能还需要处理网络错误、重试机制、日志记录等。此外,如果你想要在H264帧中插入自定义数据,可以在处理H264帧之前或之后添加相应的逻辑。 总结来说,树莓派利用Python和librtmp库实现RTMP推流H...
欢迎下载使用!在使用过程中,如有问题或建议,请及时私信沟通。 2.主要针对各个计算机相关专业,包括计科、信息安全、数据科学与大数据技术、人工智能、通信、物联网等领域的在校学生、专业教师或企业员工使用。 3....
本教程将专注于使用Python来批量下载百度图片,这是一个实用且有趣的技能,尤其对于那些需要大量图片数据的人来说。我们将深入探讨以下几个核心知识点: 1. **Python基础知识**:首先,你需要对Python编程有一定的...
标题 "Python-用于Python日志模块的GUI" 指的是一个专为Python日志模块设计的图形用户界面工具,它的主要目的是方便开发者查看和管理应用程序产生的日志信息。Python的标准日志模块提供了丰富的功能,如不同级别的...
Python基于LSTM的日志异常检测系统源码+数据集(期末大作业).zip主要针对计算机相关专业的正在做课程设计和期末大作业的学生和需要项目实战练习的学习者。包含全部项目源码、该项目可以直接使用、项目都经过严格...