论坛首页 综合技术论坛

终于碰到所谓的大文件日志分析了

浏览 23571 次
精华帖 (0) :: 良好帖 (1) :: 新手帖 (0) :: 隐藏帖 (0)
作者 正文
   发表时间:2011-07-20  
用cmd命令行就可以分割的
0 请登录后投票
   发表时间:2011-07-20  
为什么不在记日志时就分割?
0 请登录后投票
   发表时间:2011-07-20  
CoderPlusPlus 写道
为什么不在记日志时就分割?


有很多事情不是你能决定的——。。。。
0 请登录后投票
   发表时间:2011-07-20  
可以下载一个txt文件分割软件
0 请登录后投票
   发表时间:2011-07-20  
Spring Batch, 跑个batch job 慢慢分析嘛
0 请登录后投票
   发表时间:2011-07-20  
我在最近的工作中,也有遇到超过2个g的日志linux下的查看问题,个人推荐用 less 命令查看
0 请登录后投票
   发表时间:2011-07-20  

如果windows的话,可以使用emeditor
0 请登录后投票
   发表时间:2011-07-20  
guoxu1231 写道
Spring Batch, 跑个batch job 慢慢分析嘛



场景不一样——我没说清楚,我这一般是快速定位问题的。

所以下载本地肯定是压缩包下载,当然可以写个脚本,在服务器上split下,然后分别tar下,再tar到一起,下载。

不过貌似用sed windows版本,应该不怕大文件了。我试试,sed/awk这些东东用得太少了,偶要下载文档慢慢提高了。
0 请登录后投票
   发表时间:2011-07-20   最后修改:2011-07-20
哥们 你们系统就不能优化下么。。弄出个1.5G 单个日志文件 = = 这么大的量 你按时段分多个文件记录 打开也方便点吧。。
1天几个G 。。。你就一定要一个文件记录!!
0 请登录后投票
   发表时间:2011-07-21  
楼主这种情况我宁愿在Linux用grep awk 等命令也不要到Windows处理。
0 请登录后投票
论坛首页 综合技术版

跳转论坛:
Global site tag (gtag.js) - Google Analytics