锁定老帖子 主题:终于碰到所谓的大文件日志分析了
精华帖 (0) :: 良好帖 (1) :: 新手帖 (0) :: 隐藏帖 (0)
|
|
---|---|
作者 | 正文 |
发表时间:2011-07-20
用cmd命令行就可以分割的
|
|
返回顶楼 | |
发表时间:2011-07-20
为什么不在记日志时就分割?
|
|
返回顶楼 | |
发表时间:2011-07-20
CoderPlusPlus 写道 为什么不在记日志时就分割?
有很多事情不是你能决定的——。。。。 |
|
返回顶楼 | |
发表时间:2011-07-20
可以下载一个txt文件分割软件
|
|
返回顶楼 | |
发表时间:2011-07-20
Spring Batch, 跑个batch job 慢慢分析嘛
|
|
返回顶楼 | |
发表时间:2011-07-20
我在最近的工作中,也有遇到超过2个g的日志linux下的查看问题,个人推荐用 less 命令查看
|
|
返回顶楼 | |
发表时间:2011-07-20
如果windows的话,可以使用emeditor |
|
返回顶楼 | |
发表时间:2011-07-20
guoxu1231 写道 Spring Batch, 跑个batch job 慢慢分析嘛
场景不一样——我没说清楚,我这一般是快速定位问题的。 所以下载本地肯定是压缩包下载,当然可以写个脚本,在服务器上split下,然后分别tar下,再tar到一起,下载。 不过貌似用sed windows版本,应该不怕大文件了。我试试,sed/awk这些东东用得太少了,偶要下载文档慢慢提高了。 |
|
返回顶楼 | |
发表时间:2011-07-20
最后修改:2011-07-20
哥们 你们系统就不能优化下么。。弄出个1.5G 单个日志文件 = = 这么大的量 你按时段分多个文件记录 打开也方便点吧。。
1天几个G 。。。你就一定要一个文件记录!! |
|
返回顶楼 | |
发表时间:2011-07-21
楼主这种情况我宁愿在Linux用grep awk 等命令也不要到Windows处理。
|
|
返回顶楼 | |