目录[-]
- Hive UDF整理
- 字符串函数
- 字符串长度函数:length
- 字符串反转函数:reverse
- 字符串连接函数:concat
- 带分隔符字符串连接函数:concat_ws
- 字符串截取函数:substr,substring
- 字符串截取函数:substr,substring
- 字符串转大写函数:upper,ucase
- 字符串转小写函数:lower,lcase
- 去空格函数:trim
- 左边去空格函数:ltrim
- 右边去空格函数:rtrim
- 正则表达式替换函数:regexp_replace
- 正则表达式解析函数:regexp_extract
- URL解析函数:parse_url
- json解析函数:get_json_object
- 空格字符串函数:space
- 重复字符串函数:repeat
- 首字符ascii函数:ascii
- 左补足函数:lpad
- 右补足函数:rpad
- 分割字符串函数: split
- 集合查找函数: find_in_set
-----成王败寇(陈小春)
原文章地址:http://www.oratea.net/?p=951
Hive UDF整理
正则抽取
regexp_extract(reflect("java.net.URLDecoder", "decode", url),'word=(.*)&ie',1)
返回解码后的
字符串函数
字符串长度函数:length
语法: length(string A) 返回值: int 说明:返回字符串A的长度 举例: hive> select length(‘abcedfg’) from dual; 7 |
字符串反转函数:reverse
语法: reverse(string A) 返回值: string 说明:返回字符串A的反转结果 举例: hive> select reverse(‘abcedfg’) from dual; gfdecba |
字符串连接函数:concat
语法: concat(string A, string B…) 返回值: string 说明:返回输入字符串连接后的结果,支持任意个输入字符串 举例: hive> select concat(‘abc’,'def’,'gh’) from dual; abcdefgh |
带分隔符字符串连接函数:concat_ws
语法: concat_ws(string SEP, string A, string B…) 返回值: string 说明:返回输入字符串连接后的结果,SEP表示各个字符串间的分隔符 举例: hive> select concat_ws(‘,’,'abc’,'def’,'gh’) from dual; abc,def,gh |
字符串截取函数:substr,substring
语法: substr(string A, int start),substring(string A, int start) 返回值: string 说明:返回字符串A从start位置到结尾的字符串 举例: hive> select substr(‘abcde’,3) from dual; cde hive> select substring(‘abcde’,3) from dual; cde hive> select substr(‘abcde’,-1) from dual; (和ORACLE相同) e |
字符串截取函数:substr,substring
字符串转大写函数:upper,ucase
语法: upper(string A) ucase(string A) 返回值: string 说明:返回字符串A的大写格式 举例: hive> select upper(‘abSEd’) from dual; ABSED hive> select ucase(‘abSEd’) from dual; ABSED |
字符串转小写函数:lower,lcase
语法: lower(string A) lcase(string A) 返回值: string 说明:返回字符串A的小写格式 举例: hive> select lower(‘abSEd’) from dual; absed hive> select lcase(‘abSEd’) from dual; absed |
去空格函数:trim
语法: trim(string A) 返回值: string 说明:去除字符串两边的空格 举例: hive> select trim(‘ abc ‘) from dual; abc |
左边去空格函数:ltrim
语法: ltrim(string A) 返回值: string 说明:去除字符串左边的空格 举例: hive> select ltrim(‘ abc ‘) from dual; abc |
右边去空格函数:rtrim
语法: rtrim(string A) 返回值: string 说明:去除字符串右边的空格 举例: hive> select rtrim(‘ abc ‘) from dual; abc |
正则表达式替换函数:regexp_replace
语法: regexp_replace(string A, string B, string C) 返回值: string 说明:将字符串A中的符合java正则表达式B的部分替换为C。注意,在有些情况下要使用转义字符 举例: hive> select regexp_replace(‘foobar’, ‘oo|ar’, ”) from dual; fb |
正则表达式解析函数:regexp_extract
URL解析函数:parse_url
语法: parse_url(string urlString, string partToExtract [, string keyToExtract]) 返回值: string 说明:返回URL中指定的部分。partToExtract的有效值为:HOST, PATH, QUERY, REF, PROTOCOL, AUTHORITY, FILE, and USERINFO. 举例: hive> select parse_url(‘http://facebook.com/path1/p.php?k1=v1&k2=v2#Ref1′, ‘HOST’) from dual; facebook.com hive> select parse_url(‘http://facebook.com/path1/p.php?k1=v1&k2=v2#Ref1′, ‘QUERY’, ‘k1′) from dual; v1 |
json解析函数:get_json_object
语法: get_json_object(string json_string, string path) 返回值: string 说明:解析json的字符串json_string,返回path指定的内容。如果输入的json字符串无效,那么返回NULL。 举例: hive> select get_json_object(‘{“store”: > {“fruit”:\[{"weight":8,"type":"apple"},{"weight":9,"type":"pear"}], > “bicycle”:{“price”:19.95,”color”:”red”} > }, > “email”:”amy@only_for_json_udf_test.net”, > “owner”:”amy” > } > ‘,’$.owner’) from dual; amy |
空格字符串函数:space
语法: space(int n) 返回值: string 说明:返回长度为n的字符串 举例: hive> select space(10) from dual; hive> select length(space(10)) from dual; 10 |
重复字符串函数:repeat
语法: repeat(string str, int n) 返回值: string 说明:返回重复n次后的str字符串 举例: hive> select repeat(‘abc’,5) from dual; abcabcabcabcabc |
首字符ascii函数:ascii
语法: ascii(string str) 返回值: int 说明:返回字符串str第一个字符的ascii码 举例: hive> select ascii(‘abcde’) from dual; 97 |
左补足函数:lpad
语法: lpad(string str, int len, string pad) 返回值: string 说明:将str进行用pad进行左补足到len位 举例: hive> select lpad(‘abc’,10,’td’) from dual; tdtdtdtabc 与GP,ORACLE不同,pad 不能默认 |
右补足函数:rpad
语法: rpad(string str, int len, string pad) 返回值: string 说明:将str进行用pad进行右补足到len位 举例: hive> select rpad(‘abc’,10,’td’) from dual; abctdtdtdt |
分割字符串函数: split
语法: split(string str, string pat) 返回值: array 说明: 按照pat字符串分割str,会返回分割后的字符串数组 举例: hive> select split(‘abtcdtef’,'t’) from dual; ["ab","cd","ef"] |
集合查找函数: find_in_set
语法: find_in_set(string str, string strList) 返回值: int 说明: 返回str在strlist第一次出现的位置,strlist是用逗号分割的字符串。如果没有找该str字符,则返回0(只能是逗号分隔,不然返回0) 举例: hive> select find_in_set(‘ab’,'ef,ab,de’) from dual; 2 hive> select find_in_set(‘at’,'ef,ab,de’) from dual; 0 |
希望通过共享自己的笔记,来找到一群和我一样愿意分享笔记和心得的朋友,让大家一起进步
相关推荐
Spark 是一种快速通用的大规模数据处理系统,而Hive 则是一种数据仓库工具,主要用于对存储在 Hadoop 文件中的数据集进行数据整理、特殊查询和分析存储。然而,在实际应用中,开发人员可能会遇到一个常见问题——...
Hive还提供了自定义函数(UDF, User Defined Functions)和窗口函数,扩展了查询功能。 6. **Hive性能优化**:Hive可以通过多种方式优化查询性能,比如使用分区过滤减少数据扫描量,使用物化视图预计算常用查询,...
Hive提供了数据整理、离线查询以及用户定义函数(UDF)等功能,使得非编程背景的用户也能方便地操作大数据。 这个压缩包文件"hive执行文件.zip"可能包含用于运行或更新Hive环境的必要组件,尤其是"bin"目录,这是...
2. **可扩展性**:Hive允许用户自定义函数(UDF)、聚合函数(UDAF)和表函数(UDTF),这使得Hive具有高度的灵活性。 3. **批处理能力**:通过将SQL语句转换成MapReduce任务,Hive非常适合用于处理大规模数据集的...
Hive 提供了数据整理、简单SQL查询、用户自定义函数(UDF)、离线批处理等功能,使得非编程背景的用户也能方便地进行数据分析。以下是对 Hive 的详细介绍: 1. **Hive 的架构**: - **Hive Metastore**:存储元...
4. UDF(用户定义函数)和UDAF(用户定义聚合函数)的增强:增加了更多的内置函数,提升了用户的灵活性。 三、CDH5.5.0中的Hive CDH5.5.0包含了Hive 1.1.0,提供了一个完整的Hadoop生态系统,包括HDFS、YARN、HBase...
Hive是由Facebook开发的一个数据仓库工具,用于对存储在Hadoop文件系统中的数据进行数据整理、特殊查询和分析存储。它通过提供SQL(Hive SQL或HQL)接口来处理结构化数据,使得不熟悉MapReduce的用户能够更加便捷地...
而Hive作为一个基于Hadoop的数据仓库工具,主要用于对存储在Hadoop文件系统中的大量数据集进行数据整理、特殊查询和分析存储。 当在DolphinScheduler中配置Hive作为数据源时,若Hive Jar包版本与当前集群的Hive版本...
这可能涉及对HQL的特定特性进行映射,比如Hive的分桶、分区、UDF(用户定义函数)等,这些在MySQL中可能有不同的实现方式。转换过程需要对两种数据库系统的特性和限制有深入理解。 4. 解析Hive和SparkSQL: 解析...
自定义函数(UDF)允许用户扩展Hive的功能。 Sqoop是一个用于在Hadoop和传统数据库之间批量导入导出数据的工具。它利用MapReduce实现数据并行处理,只需配置HDFS和Hive路径即可使用。Flume是一个日志收集系统,由...
2. 数据预处理:数据经过整理后进入基于Hive的数据仓库系统。选择Hive的原因在于,Hive支持SQL查询,便于从Oracle数据库背景的技术人员过渡。 3. 数据仓库与HBase的结合:Hive中的查询结果导出到HBase,以提高查询...
Hive同时也提供了数据整理、ETL(提取、转换、加载)和报表生成等功能。 Pig是针对Hadoop的高级数据分析平台,它提供了一种名为Pig Latin的脚本语言,用于描述数据处理流程。Pig Latin抽象了MapReduce的复杂性,使...
- 可以使用UDF自定义函数或第三方插件来解析JSON。 **8. sort by与order by的区别** - `sort by`仅在每个Reducer内排序数据。 - `order by`在整个输出中排序数据。 **9. 排查数据倾斜** - 分析数据分布。 - 使用...
这份资料集由ApacheCN社区精心整理,旨在为中文用户提供高质量的大数据技术学习材料。主要涵盖了大数据领域的核心概念、工具和技术,对于想要深入理解和实践大数据的开发者来说,是一份宝贵的参考资料。 在...
此外,还可以自定义UDF(用户定义函数)以扩展其功能。 Sqoop是Hadoop与传统数据库间的数据导入导出工具,利用MapReduce实现并行操作。安装后只需配置HDFS和Hive路径,即可方便地进行数据迁移。 Flume是数据采集...