0 0

关于hive处理日志中的异常栈遇到的问题0

2012-02-16 16:27:33,393 [Prototyper] ERROR org.logicalcobwebs.proxool.proxool - Prototype
com.mysql.jdbc.exceptions.jdbc4.CommunicationsException: Communications link failure

The last packet sent successfully to the server was 0 milliseconds ago. The driver has not received any packets from the server.
        at sun.reflect.NativeConstructorAccessorImpl.newInstance0(Native Method)
        at sun.reflect.NativeConstructorAccessorImpl.newInstance(NativeConstructorAccessorImpl.java:39)
        at sun.reflect.DelegatingConstructorAccessorImpl.newInstance(DelegatingConstructorAccessorImpl.java:27)
        at java.lang.reflect.Constructor.newInstance(Constructor.java:513)
        at com.mysql.jdbc.Util.handleNewInstance(Util.java:407)
        at com.mysql.jdbc.SQLError.createCommunicationsException(SQLError.java:1116)
        at com.mysql.jdbc.MysqlIO.<init>(MysqlIO.java:343)
        at com.mysql.jdbc.ConnectionImpl.coreConnect(ConnectionImpl.java:2334)
        at com.mysql.jdbc.ConnectionImpl.connectOneTryOnly(ConnectionImpl.java:2371)
        at com.mysql.jdbc.ConnectionImpl.createNewIO(ConnectionImpl.java:2163)
        at com.mysql.jdbc.ConnectionImpl.<init>(ConnectionImpl.java:794)
        at com.mysql.jdbc.JDBC4Connection.<init>(JDBC4Connection.java:47)
        at sun.reflect.GeneratedConstructorAccessor112.newInstance(Unknown Source)
        at sun.reflect.DelegatingConstructorAccessorImpl.newInstance(DelegatingConstructorAccessorImpl.java:27)
        at java.lang.reflect.Constructor.newInstance(Constructor.java:513)
        at com.mysql.jdbc.Util.handleNewInstance(Util.java:407)
        at com.mysql.jdbc.ConnectionImpl.getInstance(ConnectionImpl.java:378)
        at com.mysql.jdbc.NonRegisteringDriver.connect(NonRegisteringDriver.java:305)
        at java.sql.DriverManager.getConnection(DriverManager.java:582)
        at java.sql.DriverManager.getConnection(DriverManager.java:154)
        at org.logicalcobwebs.proxool.ProxyFactory.buildProxyConnection(ProxyFactory.java:41)
        at org.logicalcobwebs.proxool.Prototyper.buildConnection(Prototyper.java:150)
        at org.logicalcobwebs.proxool.Prototyper.sweep(Prototyper.java:95)
        at org.logicalcobwebs.proxool.PrototyperThread.run(PrototyperThread.java:42)
Caused by: java.net.ConnectException: Connection timed out
        at java.net.PlainSocketImpl.socketConnect(Native Method)
        at java.net.PlainSocketImpl.doConnect(PlainSocketImpl.java:351)
        at java.net.PlainSocketImpl.connectToAddress(PlainSocketImpl.java:213)
        at java.net.PlainSocketImpl.connect(PlainSocketImpl.java:200)
        at java.net.SocksSocketImpl.connect(SocksSocketImpl.java:366)
        at java.net.Socket.connect(Socket.java:529)
        at java.net.Socket.connect(Socket.java:478)
        at java.net.Socket.<init>(Socket.java:375)
        at java.net.Socket.<init>(Socket.java:218)
        at com.mysql.jdbc.StandardSocketFactory.connect(StandardSocketFactory.java:254)
        at com.mysql.jdbc.MysqlIO.<init>(MysqlIO.java:292)
        ... 17 more
2012-02-16 22:49:30,126 [[ACTIVE] ExecuteThread: '0' for queue: 'weblogic.kernel.Default (self-tuning)'] INFO  org.logicalcobwebs.proxool.ProxoolFacade - Proxool 0.8.3 (14-Dec-2003 16:06)
以上是我要处理的日志文件,我想通过hive过滤日志中的异常栈,然后把所有异常栈收集整理到一个文件中。我想通过SerDe的正则式匹配来做这个工作,我先尝试了写了一个正则,测试成功,然后在hive中建表:
create table regextest (line_date STRING, line_time STRING, classname STRING, message_type STRING, message_protocol STRING, message STRING) row format serde 'org.apache.hadoop.hive.contrib.serde2.RegexSerDe' WITH SERDEPROPERTIES ("input.regex" = "^([^ ]*) ([^ ]*) (\\[[^ ]*\\]) (ERROR)+ ([^ ]*) (?:-) ([^\\|]*)(?=\\d{4}-\\d{2}-\\d{2})+", "output.format.string" = "%1$s %2$s %3$s %4$s %5$s %$6s")  stored as textfile;然后倒入数据如上,但是select时候发现为null值,所以在这里请教各位我哪里出错了。之前测试过正则,应该没写错。
2012年7月17日 17:09
目前还没有答案

相关推荐

    hive2.0+开启审计日志.pdf

    在Hive 2.0及更高版本中,启用Metastore审计日志是确保数据安全性与合规性的重要步骤。审计日志记录了用户对Hive Metastore的所有操作,包括元数据的创建、修改和查询等,这对于追踪系统活动、故障排查以及满足法规...

    基于Hive的搜狗日志分析

    在这个阶段,我们需要将预处理好的数据加载到Hive中,以便于后续的分析。数据加载可以确保数据的可靠性和一致性,从而提高后续分析的效率。 二、 基于Hive构建数据仓库 基于Hive构建数据仓库是搜狗日志分析的第二...

    hive开发中常遇到的坑

    在Hive中,如果某个任务长时间运行或出现异常导致锁住资源,可能会阻止其他任务的执行。解决这类问题的方法是终止被锁定的任务,然后重新执行受影响的任务。 ##### 解决Lock问题步骤: 1. **查找被锁定的任务**:...

    Hive常见异常处理.docx

    然而,在使用Hive时,经常会遇到各种异常问题,本文将对Hive常见的异常处理进行总结和分析。 一、表不存在异常 在Hive中,表不存在是最常见的异常之一。当我们尝试查询或操作一个不存在的表时,Hive将抛出一个...

    捕获hive脚本异常: echo $?

    本文将深入探讨如何在执行Hive脚本时捕获并处理异常,以及如何利用shell命令"echo $"来检查脚本的退出状态,以便更好地管理和优化Hive作业。 首先,我们来看标题“捕获hive脚本异常:echo $?”。在Linux或Unix系统...

    hive2.1.1中orc格式读取报数组越界错误解决方法

    在Hive中,这可能源于Hive执行引擎或ORC读写库的问题。在描述中提到的解决方案是替换相关的jar包,具体为`hive-exec-2.1.1-cdh6.3.2.jar`和`hive-orc-2.1.1-cdh6.3.2.jar`。这两个jar包分别是Hive执行引擎和ORC文件...

    基于Hadoop/Hive的web日志分析系统的设计

    Hadoop/Hive系统通过HDFS存储Web日志数据,并通过Hive处理这些数据,最终实现日志分析的功能。 设计Web日志分析系统时,需要考虑到以下几个核心功能模块: 1. 日志采集模块:负责实时或定时从Web服务器获取日志...

    Hive优化案例、Hive数据处理模式、Hive常见问题与优化、Hive实践

    2. Tez模式:Tez是Hive中的一种基于DAG(有向无环图)的数据处理模式,适用于复杂的数据处理任务。Tez可以对数据处理任务进行智能优化,提高处理速度。 3. Spark模式:Spark是Hive中的一种基于内存的数据处理模式,...

    hive视图乱码问题导致查询异常

    hive下建视图后,视图中有中文字符时,元数据中显示乱码,查询视图 数据为空 解决方法

    论文研究-基于Hive的海量搜索日志分析系统研究.pdf

    针对传统分布式模型在海量日志并行处理时的可扩展性和并行程序编写困难的问题, 提出了基于Hive的Web海量搜索日志分析机制。利用HQL语言以及Hadoop分布式文件系统(HDFS)和MapReduce编程模式对海量搜索日志进行分析...

    Hue 常见问题解决方案,大数据平台的hue/hive常见问题总结 免费下载

    本文将围绕“Hue常见问题解决方案”这一主题,详细阐述Hue与Hive在大数据平台中可能遇到的问题以及相应的解决策略。 首先,我们来了解Hue的基本功能。Hue是Cloudera公司开发的一款开源Web应用程序,它提供了一个...

    hive综合应用案例-用户搜索日志分析.docx

    基于上述字段,可以在Hive中创建一个外部表来存储搜索日志数据。外部表的好处在于即使删除了表,其数据依然保留在HDFS上。创建表的SQL语句如下: ```sql CREATE EXTERNAL TABLE search_logs ( user_id STRING, ...

    Apache Web日志Hive实验数据

    在Hive中,首先我们需要创建一个外部表来指向`apache_log.txt`文件,定义表的字段与日志文件中的列相对应。例如,表结构可能包含以下字段: 1. `ip`:客户端IP地址,字符串类型。 2. `timestamp`:访问时间,日期...

    HIVE安装及详解

    下面是关于HIVE的安装及详解。 HIVE基本概念 HIVE是什么?HIVE是一种数据仓库工具,主要用于处理和分析大规模数据。它将结构化数据文件转换为表格形式,以便更容易地执行查询和分析操作。 为什么使用HIVE?HIVE...

    hive on tez 常见报错问题收集

    这个问题是由于Hive中的一个已知bug,具体问题可以在Apache JIRA的HIVE-16398中找到。为了解决这个问题,可以尝试增加`hive.localize.resource.num.wait.attempts`的属性值,将其从默认的5提升到如25这样的更高数值...

    cli正常显示中文的hive-0.10.0

    描述中提到的“desc table1”命令是Hive中用于获取表详细信息的标准命令,包括列名、列类型以及列的注释。在未改造的Hive版本中,由于编码问题,中文注释可能无法正确解析和显示。而在改造后的版本中,这个命令应该...

    基于Hive的hadoop集群日志的分析及错误排解

    本案例中,我们探讨的是如何通过 Hive 分析 Hadoop 集群的日志,并解决在 Eclipse 中运行时遇到的权限问题。该问题表现为:“Access denied for user 'hivenew'@'172.16.2.36' (using password: YES)”,这通常意味...

Global site tag (gtag.js) - Google Analytics