`

Hive UDF整理

    博客分类:
  • hive
 
阅读更多

-----成王败寇(陈小春)

原文章地址:http://www.oratea.net/?p=951 

Hive UDF整理

正则抽取

regexp_extract(reflect("java.net.URLDecoder", "decode", url),'word=(.*)&ie',1)

返回解码后的

字符串函数

字符串长度函数:length

语法: length(string A)

返回值: int

说明:返回字符串A的长度

举例:

hive> select length(‘abcedfg’) from dual;

7

字符串反转函数:reverse

语法: reverse(string A)

返回值: string

说明:返回字符串A的反转结果

举例:

hive> select reverse(‘abcedfg’) from dual;

gfdecba

字符串连接函数:concat

语法: concat(string A, string B…)

返回值: string

说明:返回输入字符串连接后的结果,支持任意个输入字符串

举例:

hive> select concat(‘abc’,'def’,'gh’) from dual;

abcdefgh

带分隔符字符串连接函数:concat_ws

语法: concat_ws(string SEP, string A, string B…)

返回值: string

说明:返回输入字符串连接后的结果,SEP表示各个字符串间的分隔符

举例:

hive> select concat_ws(‘,’,'abc’,'def’,'gh’) from dual;

abc,def,gh

字符串截取函数:substr,substring

语法: substr(string A, int start),substring(string A, int start)

返回值: string

说明:返回字符串A从start位置到结尾的字符串

举例:

hive> select substr(‘abcde’,3) from dual;

cde

hive> select substring(‘abcde’,3) from dual;

cde

hive>  select substr(‘abcde’,-1) from dual;  (和ORACLE相同)

e

字符串截取函数:substr,substring

语法: substr(string A, int start, int len),substring(string A, int start, int len)

返回值: string

说明:返回字符串A从start位置开始,长度为len的字符串

举例:

hive> select substr(‘abcde’,3,2) from dual;

cd

hive> select substring(‘abcde’,3,2) from dual;

cd

hive>select substring(‘abcde’,-2,2) from dual;

de

字符串转大写函数:upper,ucase

语法: upper(string A) ucase(string A)

返回值: string

说明:返回字符串A的大写格式

举例:

hive> select upper(‘abSEd’) from dual;

ABSED

hive> select ucase(‘abSEd’) from dual;

ABSED

字符串转小写函数:lower,lcase

语法: lower(string A) lcase(string A)

返回值: string

说明:返回字符串A的小写格式

举例:

hive> select lower(‘abSEd’) from dual;

absed

hive> select lcase(‘abSEd’) from dual;

absed

去空格函数:trim

语法: trim(string A)

返回值: string

说明:去除字符串两边的空格

举例:

hive> select trim(‘ abc ‘) from dual;

abc

左边去空格函数:ltrim

语法: ltrim(string A)

返回值: string

说明:去除字符串左边的空格

举例:

hive> select ltrim(‘ abc ‘) from dual;

abc

右边去空格函数:rtrim

语法: rtrim(string A)

返回值: string

说明:去除字符串右边的空格

举例:

hive> select rtrim(‘ abc ‘) from dual;

abc

正则表达式替换函数:regexp_replace

语法: regexp_replace(string A, string B, string C)

返回值: string

说明:将字符串A中的符合java正则表达式B的部分替换为C。注意,在有些情况下要使用转义字符

举例:

hive> select regexp_replace(‘foobar’, ‘oo|ar’, ”) from dual;

fb

正则表达式解析函数:regexp_extract

语法regexp_extract(string subject, string pattern, int index)

返回值: string

说明:将字符串subject按照pattern正则表达式的规则拆分,返回index指定的字符。注意,在有些情况下要使用转义字符

举例:

hive> select regexp_extract(‘foothebar’, ‘foo(.*?)(bar)’, 1) from dual;

the

hive> select regexp_extract(‘foothebar’, ‘foo(.*?)(bar)’, 2) from dual;

bar

hive> select regexp_extract(‘foothebar’, ‘foo(.*?)(bar)’, 0) from dual;

foothebar

URL解析函数:parse_url

语法: parse_url(string urlString, string partToExtract [, string keyToExtract])

返回值: string

说明:返回URL中指定的部分。partToExtract的有效值为:HOST, PATH, QUERY, REF, PROTOCOL, AUTHORITY, FILE, and USERINFO.

举例:

hive> select parse_url(‘http://facebook.com/path1/p.php?k1=v1&k2=v2#Ref1′, ‘HOST’) from dual;

facebook.com

hive> select parse_url(‘http://facebook.com/path1/p.php?k1=v1&k2=v2#Ref1′, ‘QUERY’, ‘k1′) from dual;

v1

json解析函数:get_json_object

语法: get_json_object(string json_string, string path)

返回值: string

说明:解析json的字符串json_string,返回path指定的内容。如果输入的json字符串无效,那么返回NULL。

举例:

hive> select  get_json_object(‘{“store”:

>   {“fruit”:\[{"weight":8,"type":"apple"},{"weight":9,"type":"pear"}],

>    “bicycle”:{“price”:19.95,”color”:”red”}

>   },

>  “email”:”amy@only_for_json_udf_test.net”,

>  “owner”:”amy”

> }

> ‘,’$.owner’) from dual;

amy

空格字符串函数:space

语法: space(int n)

返回值: string

说明:返回长度为n的字符串

举例:

hive> select space(10) from dual;

hive> select length(space(10)) from dual;

10

重复字符串函数:repeat

语法: repeat(string str, int n)

返回值: string

说明:返回重复n次后的str字符串

举例:

hive> select repeat(‘abc’,5) from dual;

abcabcabcabcabc

首字符ascii函数:ascii

语法: ascii(string str)

返回值: int

说明:返回字符串str第一个字符的ascii码

举例:

hive> select ascii(‘abcde’) from dual;

97

左补足函数:lpad

语法: lpad(string str, int len, string pad)

返回值: string

说明:将str进行用pad进行左补足到len位

举例:

hive> select lpad(‘abc’,10,’td’) from dual;

tdtdtdtabc

与GP,ORACLE不同,pad 不能默认

右补足函数:rpad

语法: rpad(string str, int len, string pad)

返回值: string

说明:将str进行用pad进行右补足到len位

举例:

hive> select rpad(‘abc’,10,’td’) from dual;

abctdtdtdt

分割字符串函数: split

语法:  split(string str, string pat)

返回值:  array

说明: 按照pat字符串分割str,会返回分割后的字符串数组

举例:

hive> select split(‘abtcdtef’,'t’) from dual;

["ab","cd","ef"]

集合查找函数: find_in_set

语法: find_in_set(string str, string strList)

返回值: int

说明: 返回str在strlist第一次出现的位置,strlist是用逗号分割的字符串。如果没有找该str字符,则返回0(只能是逗号分隔,不然返回0)

举例:

hive> select find_in_set(‘ab’,'ef,ab,de’) from dual;

2

hive> select find_in_set(‘at’,'ef,ab,de’) from dual;

0

 

希望通过共享自己的笔记,来找到一群和我一样愿意分享笔记和心得的朋友,让大家一起进步

分享到:
评论

相关推荐

    Spark不能使用hive自定义函数.doc

    Spark 是一种快速通用的大规模数据处理系统,而Hive 则是一种数据仓库工具,主要用于对存储在 Hadoop 文件中的数据集进行数据整理、特殊查询和分析存储。然而,在实际应用中,开发人员可能会遇到一个常见问题——...

    Hive大数据仓库-笔记整理 (一)2020年最新版.pdf

    Hive还提供了自定义函数(UDF, User Defined Functions)和窗口函数,扩展了查询功能。 6. **Hive性能优化**:Hive可以通过多种方式优化查询性能,比如使用分区过滤减少数据扫描量,使用物化视图预计算常用查询,...

    hive执行文件.zip

    Hive提供了数据整理、离线查询以及用户定义函数(UDF)等功能,使得非编程背景的用户也能方便地操作大数据。 这个压缩包文件"hive执行文件.zip"可能包含用于运行或更新Hive环境的必要组件,尤其是"bin"目录,这是...

    尚硅谷大数据之Hive视频

    2. **可扩展性**:Hive允许用户自定义函数(UDF)、聚合函数(UDAF)和表函数(UDTF),这使得Hive具有高度的灵活性。 3. **批处理能力**:通过将SQL语句转换成MapReduce任务,Hive非常适合用于处理大规模数据集的...

    hive(看雪).rar

    Hive 提供了数据整理、简单SQL查询、用户自定义函数(UDF)、离线批处理等功能,使得非编程背景的用户也能方便地进行数据分析。以下是对 Hive 的详细介绍: 1. **Hive 的架构**: - **Hive Metastore**:存储元...

    hive-1.1.0-cdh5.5.0-src.tar.gz

    4. UDF(用户定义函数)和UDAF(用户定义聚合函数)的增强:增加了更多的内置函数,提升了用户的灵活性。 三、CDH5.5.0中的Hive CDH5.5.0包含了Hive 1.1.0,提供了一个完整的Hadoop生态系统,包括HDFS、YARN、HBase...

    hive编程指南

    Hive是由Facebook开发的一个数据仓库工具,用于对存储在Hadoop文件系统中的数据进行数据整理、特殊查询和分析存储。它通过提供SQL(Hive SQL或HQL)接口来处理结构化数据,使得不熟悉MapReduce的用户能够更加便捷地...

    DolphinScheduler+海豚

    而Hive作为一个基于Hadoop的数据仓库工具,主要用于对存储在Hadoop文件系统中的大量数据集进行数据整理、特殊查询和分析存储。 当在DolphinScheduler中配置Hive作为数据源时,若Hive Jar包版本与当前集群的Hive版本...

    sql解析,hql解析,hive脚本转mysql,解析hive,sparkSql,ER图自动生成、Excel自动生成.zip

    这可能涉及对HQL的特定特性进行映射,比如Hive的分桶、分区、UDF(用户定义函数)等,这些在MySQL中可能有不同的实现方式。转换过程需要对两种数据库系统的特性和限制有深入理解。 4. 解析Hive和SparkSQL: 解析...

    大数据框架整理.pdf

    自定义函数(UDF)允许用户扩展Hive的功能。 Sqoop是一个用于在Hadoop和传统数据库之间批量导入导出数据的工具。它利用MapReduce实现数据并行处理,只需配置HDFS和Hive路径即可使用。Flume是一个日志收集系统,由...

    hadoop中国阿里与京东应用分享

    2. 数据预处理:数据经过整理后进入基于Hive的数据仓库系统。选择Hive的原因在于,Hive支持SQL查询,便于从Oracle数据库背景的技术人员过渡。 3. 数据仓库与HBase的结合:Hive中的查询结果导出到HBase,以提高查询...

    hadoop权威指南(第2版)PDF

    Hive同时也提供了数据整理、ETL(提取、转换、加载)和报表生成等功能。 Pig是针对Hadoop的高级数据分析平台,它提供了一种名为Pig Latin的脚本语言,用于描述数据处理流程。Pig Latin抽象了MapReduce的复杂性,使...

    【面试宝典】2021年超全超详细的最新大数据开发面试题,附答案解析(一版).pdf

    - 可以使用UDF自定义函数或第三方插件来解析JSON。 **8. sort by与order by的区别** - `sort by`仅在每个Reducer内排序数据。 - `order by`在整个输出中排序数据。 **9. 排查数据倾斜** - 分析数据分布。 - 使用...

    ApacheCN 大数据译文集.zip

    这份资料集由ApacheCN社区精心整理,旨在为中文用户提供高质量的大数据技术学习材料。主要涵盖了大数据领域的核心概念、工具和技术,对于想要深入理解和实践大数据的开发者来说,是一份宝贵的参考资料。 在...

    大数据框架整理

    此外,还可以自定义UDF(用户定义函数)以扩展其功能。 Sqoop是Hadoop与传统数据库间的数据导入导出工具,利用MapReduce实现并行操作。安装后只需配置HDFS和Hive路径,即可方便地进行数据迁移。 Flume是数据采集...

Global site tag (gtag.js) - Google Analytics