1 hive group by http://www.cnblogs.com/ggjucheng/archive/2013/01/09/2853798.html
2 hive in http://www.tuicool.com/articles/vauiAzN
3 inner join http://www.cnblogs.com/xd502djj/archive/2013/01/18/2866662.html
4 字符串连接符 oracle 'aaa' || 'bbb' = 'aaabbb' 对应hive---> concat
5 oracle substr(字符串,截取开始位置,截取长度) --> substr('Hello World',2,4) //返回结果为 'ello'
hive substr(string A, intstart, int len) --->hive> select substr('abcde',3,2) from lxw_dual; // cd oracle和hive的功能是一样的
6 oracle a.entname||'%' 字符串连接函数
hive concat(a.entname,'%')
7 在oracle中, where substr(enttype,1,2) in ('43','58','68')
or substr(enttype,1,3) in ('455')
hive where substr(enttype,1,2) = '43' or substr(enttype,1,2) = '58' or substr(enttype,1,2) = '68' or substr(enttype,1,3) = '455' 需要写在一行 否则报错
8 hive 获取当前时间
这里使用shell方式,
1 有个模板文件,里面 sql为 where date1 > to_date('%SYSDATE%')
2写shell,将模板文件cp到目标目录,得到shell的当前时间 后用 sed -i将拷贝到目标目录的文件的%SYSDATE%替换为shell的当前时间
3 shell中通过 hive -f 方式执行替换后的目标文件
eg:
current_date=$(date +%Y-%m-%d)
src_dir=src
target_dir=target_$current_date
rm -rf $target_dir > /dev/null 2>&1
mkdir $target_dir
cp $src_dir/temp.sql $target_dir/temp.sql
sed -i "s/%SYSDATE%/$current_date/g" $target_dir/temp.sql
sudo -u hdfs hive -f $target_dir/temp.sql
9 hive多库下,创建表可以指定库名, eg : create table mydb.stu(id string, name string);
使用hive -f时,可以在对应linux路径的 .sql文件中第一行指定库,这样sql里面的创建表都会在指定库下 create database if not exists st_statics; use st_statics;
10 hive union all 和 oracle的 union all结果一样 都是讲两个表的所有数据都弄在一起 即使重复也弄在一起 http://www.tuicool.com/articles/MZf6ny
11 hive case when CN is null then 0 else CN end CN
12 http://blog.csdn.net/jim110/article/details/6923934 left join 过滤条件写在on后面和写在where 后面的区别
13 hive 资源被使用完了 启动hive脚本不执行 使用 mapred job -list
14 hive join连接中的不等值和过滤条件区别:
join连接的过滤条件: from a join b on a.id = b.id where a.fsq_zlix <> '12' 这是过滤 不是不等值连接
15 在使用cdh的时候,使用root登录后,hive环境下执行hive sql,有时候会报cannot run program "/opt/cloudera/parcels/CHD-5.2.1-../hadoop/bin/hadoop" (in directory "/root") error=13
Permission denied的错.此时登录到 /home/hdfs/下进入 sudo -u hdfs hive 执行hive脚本就不会报错
16 hive自定义函数, 在 xx.sql中引用写法:
1 写好hive udfs函数 打jar
2 将jar 放再集群hive安装节点一个位置 eg: /cloud/mr/ent_statistics/ent_statistics.jar
3 xx.sql(hive sql脚本)开头,写:
set hive.cli.print.current.db=true;
set hive.cli.print.header=true;
add jar /cloud/mr/ent_statistics/ent_statistics.jar
create temporary function instrfun as 'org.apache.hadoop.hive.ql.udf.instrfun';
17 oracle union 在hive应用: 用collect_set 这个函数试试
感觉应该是 现将两个表相同的记录弄临时表a后 然后在将这两个表用 collect_set得到没有重复的记录b 然后在合并
18 hive uuid自定义函数: @UDFType(deterministic = false) http://chengjianxiaoxue.iteye.com/admin/blogs/2263225
20 将linux本地文件上传到hive表中, 要让hive表中 name is null,那么上传文件name对应字段为 \N 如果写成null,那么入到hive表后为 name='null'而不是is null.
21 hive两个表列间隔,
一个是\t
stu:
1 张三
2 李四
一个是,
score
1 50
2 90
执行hive: select a.* ,b.score from stu a left join b score on a.id=b.id; 能够执行成,也就是说,表中列的间隔尽管不同,但是Hive的编译执行器会帮你过滤掉不同
实现统一化表操作。
22 hive on where的区别 以及where是在哪里执行的 map 还是reduce
hive不等值连接:
http://blog.csdn.net/lpxuan151009/article/details/7956568
http://blog.csdn.net/kntao/article/details/17440903
http://my.oschina.net/leejun2005/blog/98244
http://my.oschina.net/leejun2005/blog/307812
http://scholers.iteye.com/blog/1771945 !!!!
23 测试下hive0.13下 select name form t1; 是否还在走mr 在走,----> 不走
24 hive join on where : joins发生在where字句前,如果果要限制join的输出,需要写在where字句,否则写在JOIN字句
http://yugouai.iteye.com/blog/1849395 join on where 中的详细介绍
SELECT a.val, b.val FROM a LEFT OUTER JOIN b ON (a.key=b.key)
WHERE a.ds='2009-07-07' AND b.ds='2009-07-07' -----> join on where中where是在join on后的结果集后在进一步过滤
或者写成: SELECT a.* FROM a JOIN b ON (a.id = b.id AND a.department = b.department) 就是将where的过滤写在了on上。
详细举例:
stu:
1 张三
2 李四
3 王五
4 赵六
一个是,
score
1 90
2 50
3 150
5 200
join on where 分开写:
select a.*, b.score from stu a left join score b on a.id = b.id where a.id='1';
1 张三 90
join on where条件写在on内
select a.*, b.score from stu a left join score b on (a.id = b.id and a.id='1'); 可以看到 写法不一样 明显操作方式是不同的。
1 张三 90
2 李四 NULL
3 王五 NULL
4 赵六 NULL
25 oracle Procedure结构:
declare
定义部分(可选)
begin
可执行部分(必选)
exception
异常处理部分(可选)
end;
26 oracle insert into stu with xxx as tmp1 .... 这个表示根据xxx的查询规则得到临时表tmp1, 然后在后面sql中引用tmp1的数据在和别的表处理
处理后的结果在保存到表 stu中。
27 hive union all, 子查询, left join !!!! http://www.tuicool.com/articles/MZf6ny
stu a union all tea b; ---->
id | name |
+------+----------+
| 1 | zhangsan |
| 2 | lisi |
| 3 | wangwu |
| 1 | zhaoliu |
| 2 | lisi |
| 1 | 50 |
| 4 | 90 |
| 5 | 150
28 where a.pripid = b.pripid(+) ,哪边有(+)哪边就允许为空
等同于 from a left join b on a.pripid = b.pripid;
SELECT a.*, b.* from a(+) = b就是一个右连接,等同于select a.*, b.* from a right join b
SELECT a.*, b.* from a = b(+)就是一个左连接,等同于select a.*, b.* from a left join b
29 oracle : oracle中的nulls last/first 等效于 mysql的 order by desc/asc
30 oracle: http://www.cnblogs.com/ggjucheng/archive/2013/01/03/2842855.html hive in not in
31 hive row_number() over(partition by pripid order by candate) rn from d_e_gt_cancel where .... hive0.13之后可以支持
32 hive 类型强转 select CONAM ,cast(CONAM as decimal(18,6))*0.07 as test111 from d_ei; 其中,CONAM是投资金额在oracle中是number(18,6)的精度,hive中用string存
在hive计算中会出现科学计数法,需要原值展示并保存到hdfs,(如果是用科学计数法存在hdfs的数比如真实是 85423318.1568,而科学计数法为 8.542331815680001E7 那么用后者数据在导入到关系库时也是后者写法), 现在需要前者方式存储,写法为:
select cast(0.615*8.32*16694676 as dicimal(18,4)) from dual limit 2;
85423318.156885423318.1568
注意, 必须是18位,如果位数小返回结果为NULL
33 join on stu.name = score.name 时需要注意的:
一般关系库导入hdfs时都会对Null做初始化处理 比如处理成''
在hive中使用 join时候 要注意 join on stu.name = score.name 两边都为 ''的情况
一般业务上 会对两边为'' 做过滤处理,eg:
join on stu.name = score.name and stu.name !='' and score.name != ''
否则会多出很多数据, eg:
stu: id name 1 zhangsan 2 '' score: id name score 1 zhangsan 50 2 '' 90 3 '' 150 create table stu(id string,name string) row format delimited fields terminated by '\t'; create table score(id string,name string,score string) row format delimited fields terminated by '\t'; load data local inpath 'stu' into table stu; load data local inpath 'score' into table score; select stu.*, sco.score from stu stu join score sco on stu.name=sco.name; Total MapReduce CPU Time Spent: 1 seconds 280 msec OK stu.id stu.name sco.score 1 zhangsan 50 2 '' 90 2 '' 150
34 关于join on 条件1 and 条件2 的补充:
join on 条件1 where 条件2 ----> 需要些笔记总结和实验,
35 hive函数 concat转义字符 ;的使用:
select ('a',';','b') from stu; 会报错,报什么EOF的错,其实就是 ;需要转义的意思,
应该修改成 select ('a','\;','b') from stu; 最后结果就是 a;b
36 业务要求如下:
对业务主键字段去重,同时还有: 若FCP_FZRQ不为空时,选取发布日期较早的一条, a 若FCP_FZRQ不全为空时,保留不为空的一条, b 若FCP_FZRQ同时为空时,随机保留一条: c 下面写法中,order by case when FQX_FZRQ <> '' then FQX_FZRQ else null 表示分组时就按照FQX_FZRQ升序排,这样在分组后FQX_FZRQ都不是null的情况下, 自然能将 asc下第一条获取到,满足了条件a, 然后,条件b下,then FQX_FZRQ else null时,那么这个null在 asc排序下不参与排序,规则和oracle的一致,如下 缺省Oracle在Order by 时缺省认为null是最大值,所以如果是ASC升序则排在最后,DESC降序则排在最前 这样的情况下,自然能符合条件b的获取数据, 至于条件c,因为是随便的因此获取数据规则和条件 a,b一致即可。
代码如下
insert into table f_china_qyjs select sysdateFun1('yyyyMMdd'), t.pripid, t.s_ext_nodenum, t.entname, t.entname_gllzd, tocharFun(t1.FQX_ISSDATE,'yyyy-MM-dd','yyyy/MM/dd'), '14', 'A1402', '', t1.FQX_EVAUNIT, concat(t1.FQX_CERNUM,t1.FQX_EVAUNIT,t1.FQX_ISSDATE,t1.FQX_ENTNAME), t1.fqx_id from (select * from be_derivative_db20151200.f_ent_qyzm where s_ext_nodenum='110000') t inner join (select *, row_number() over(partition by FQX_CERNUM,FQX_EVAUNIT,FQX_ISSDATE,FQX_ENTNAME order by case when FQX_FZRQ <> '' then FQX_FZRQ else null end asc ) num from ST_SRRZ.CHANPIN) t1 on t.entname_gllzd = t1.FCP_QYMC_GLLZD and t1.num = 1 where length(t.entname_gllzd) > 3 and t1.FCP_FZRQ <> '' AND T1.FCP_FZRQ is not null;
37: 将企业成立之前的所有废弃数据删除掉:
select xxx, ..... from (select *, min(case when fhq_act='A0101' then fhq_time else null end) over(partition by fhq_lcid, fhq_area) qycl_date from f_china_qyjs_2 t where fhq_time<> '') t left join m_weidu2 t1 on t.fhq_act = t1.wddm left join m_shijian t2 on t.fhq_act = t2.wddm where t.fhq_time >=t.qycl_date group by t.ddate, toCharFun1(t.fhq_time,'yyyy/MM/dd','yyyy/MM'), t.fhq_lcid, t.fhq_areq, t2.wdmc, t1.wddw,t1.wdzd; 上面的min是当状态为A0101即企业成立时,将fhq_lcid, fhq_area作为分组字段后聚合所有相同企业并得到这些行的最小企业成立时间, 然后在每条记录对比的时候,用每条记录的fhq_time和这个最小成立时间qycl_date做对比来过滤掉不符合的数据。
相关推荐
这可能包括如何使用HiveQL(Hive的SQL方言)编写查询,如何配置Hive以适应不同的存储和计算需求,或者在进行数据迁移时需要注意的关键点。 压缩包内的文件“mynote.zip”可能包含了作者关于这个主题的详细笔记,...
在数据仓库场景中,Oracle SQL脚本常用于创建表、索引、分区,执行数据迁移,以及进行复杂的数据转换。 4. **PostgreSQL SQL**(PgSQL):PostgreSQL是一个开源的对象关系型数据库,具有丰富的SQL支持和强大的数据...
- **集成Sqoop**: 使用`--hive-import`选项,可以直接将导入的数据创建为Hive表,方便后续使用HQL进行数据分析。 5. **使用注意事项** - **元数据同步**: 当从数据库导入数据到Hadoop时,Sqoop并不自动处理数据库...
- **Pig Latin**: 一种简单的数据流语言,用于编写复杂的数据处理脚本。 - **特点**: - 提供了一种更高级的抽象层次,简化了MapReduce程序的编写。 - 支持用户自定义函数(UDF)。 - **应用场景**: - 数据清洗。 ...
JESD79-2F DDR2 JESD79-3F DDR3 JESD79-4D DDR4 JESD79-5C DDR5 JESD209-2F LPDDR2 JESD209-3C LPDDR3 JESD209-4E LPDDR4 JESD209-4-1A LPDDR4X JESD209-5C LPDDR5(X)
COMSOL二维光子晶体角态研究:单胞与超胞能带计算及边界态与角态特性分析,COMSOL二维光子晶体角态研究:单胞与超胞能带计算及边界态与角态特性分析,comsol二维光子晶体角态。 单胞能带,超胞能带,边界态以及角态计算。 ,comsol;二维光子晶体;角态;单胞能带;超胞能带;边界态计算,基于Comsol的二维光子晶体角态及能带边界计算研究
六自由度机械臂抓取动作仿真与代码解析:抓取动画、关节参数变化及轨迹图解详解,六自由度机械臂抓取动作仿真指南:掌握两套代码实现动画与轨迹图模拟学习攻略,六自由度机械臂抓取动作仿真-8 两套关于抓取动作的代码,包括抓取动画、关节角、角速度、角加速度的变化仿真、以及抓取轨迹图 简单易懂好上手~ ,六自由度机械臂;抓取动作仿真;抓取动画;关节角变化;角速度角加速度;抓取轨迹图;两套代码;简单易懂好上手,六自由度机械臂抓取动作仿真演示:代码与轨迹图解
ITC网络广播工具软件
Multisim四位密码锁电路仿真设计:设定、开锁与声光报警功能演示资料包,Multisim四位密码锁电路仿真设计:设定、输入、开锁与报警功能详解,附源文件、原理说明书与演示视频,multisim四位密码锁电路仿真设计 功能: 1.通过拨码开关1进行初始密码设定。 2.通过拨码开关2输入密码,实现开锁判断。 3.如果密码正确,LED绿灯亮,表示开锁。 4.如果密码不正确,LED红灯亮,蜂鸣器鸣叫,声光报警。 资料包含:仿真源文件+原理说明书+演示视频 ,四位密码锁电路、Multisim仿真设计、初始密码设定;拨码开关输入;开锁判断;LED灯显示;声光报警;仿真源文件;原理说明书;演示视频,Multisim四位密码锁电路仿真设计:初始密码设置与智能解锁功能的声光报警展示
俗话说,摸鱼摸的好,上班没烦恼,毕竟谁能拒绝带薪拉屎呢(手动狗头) 这是一个云开发职场打工人专属上班摸鱼划水微信小程序源码,没有后台 直接导入微信开发者工具即可运行,UI简约大气漂亮,只需登录微信公众平台配置完合法域名即可轻松上线。 用户进入摸鱼小程序,可以自由设置薪资,上班时间、下班时间、发薪日、 月工作天数以提醒自己摸鱼,全民打酱油,让自己成为摸鱼冠军,《商鞅摸鱼哲学》 摸鱼不是自我放纵,而是个人实力的积蓄,我们的小目标是晚睡晚起 小程序中的今日待办会提醒用户带薪拉屎和闲逛,下方展示的是距离休息日的天数,距离下一次发工资的天数和节日的天数。
【毕业设计】基于Java的开发的一个集合校园二手交易、拼车、失物招领等功能的app_pgj
个人记录:PICkit3离线烧录流程 使用软件:MPLAB X IDE v5.30 记录时间:20250215
基于Matlab代码的电力系统状态估计与实验仿真研究:扩展卡尔曼滤波和无迹卡尔曼滤波在电力系统动态状态估计中的应用及效果分析,Matlab仿真实验研究:基于扩展卡尔曼滤波器与无迹卡尔曼滤波器对电力系统状态估计的影响及验证,状态估计 电力系统状态估计 Matlab代码 实验仿真研究 电力系统由于测量值和传输误差,还有测量噪声的影响,会对状态估计产生影响。 因此,需要对嘈杂的测量进行滤波,以获得准确的电力系统运行动态。 本文使用扩展卡尔曼滤波器(EKF)和无迹卡尔曼滤波器(UKF)来估计电力系统的动态状态。 扩展卡尔曼滤波EKF、无迹卡尔曼滤波UKF 利用扩展的无迹卡尔曼滤波器估计了动力系统的动态状态。 对WECC 3机9总线系统和新英格兰10机39总线系统进行了案例研究。 结果表明EKF和UKF都能准确地估计电力系统的动态状态。 ,核心关键词:状态估计; 电力系统状态估计; Matlab代码; 实验仿真; 测量值误差; 测量噪声; 扩展卡尔曼滤波器(EKF); 无迹卡尔曼滤波器(UKF); 动力系统; 动态状态估计; WECC 3机9总线系统; 新英格兰10机39总线系统。,Matlab
springboot在线考试--
台达DVP EH3与MS300 PLC&变频器通讯程序的全面解决方案,台达DVP EH3与MS300通讯程序:稳定可靠的频率控制与启停管理系统,台达DVP EH3与台达MS300通讯程序(TDEH-9) 可直接用于实际的程序,程序带注释,并附送触摸屏程序,有接线方式和设置,通讯地址说明等。 程序采用轮询,可靠稳定 器件:台达DVP EH3系列PLC,台达MS300系列变频器,昆仑通态7022Ni 功能:实现频率设定,启停控制,实际频率读取,加减速时间设定。 资料:带注释程序,触摸屏程序,接线和设置说明,后续有技术咨询。 ,核心关键词:台达DVP EH3; 台达MS300; 通讯程序(TDEH-9); 轮询; 稳定; 频率设定; 启停控制; 实际频率读取; 加减速时间设定; 触摸屏程序; 接线方式; 设置说明; 技术咨询。,台达PLC与变频器通讯程序(带注释、触摸屏控制)
项目资源包含:可运行源码+sql文件 适用人群:学习不同技术领域的小白或进阶学习者;可作为毕设项目、课程设计、大作业、工程实训或初期项目立项。项目具有较高的学习借鉴价值,也可拿来修改、二次开发。 个人账户管理:支持用户注册、登录与个人信息编辑;提供密码找回及账号安全保护措施。 声纹采集:利用麦克风设备录制用户的声纹样本;支持多种录音格式和质量调整,确保采集到清晰、准确的声纹数据。 声纹模板库管理:建立和维护一个安全的声纹模板库;支持声纹模板的添加、删除、更新和查询操作。 声纹比对与识别:运用深度学习算法对输入的声纹数据进行特征提取和匹配;实现快速、准确的声纹身份验证。 多场景应用支持:适用于多种场景,如门禁系统、移动支付、远程登录等;可根据实际需求定制开发相应的应用场景。 实时监控与报警:实时监控系统运行状态,包括声纹识别成功率、处理速度等指标;当出现异常情况时,及时发出报警信息。 数据分析与报告生成:收集并分析声纹识别过程中的数据,如识别准确率、处理时间等;根据用户需求输出包含详细图表说明的专业级文档供下载打印保存。 社区互动交流:设立论坛版块鼓励用户分享心得体会讨论热点话题;定期邀请行业专家举办线上讲座传授实用技巧知识。 音乐筛选与推荐:集成音乐平台API,根据用户的浏览习惯和情绪状态推荐背景音乐,增强用户体验。 数据可视化:提供交互式的数据可视化面板,使非技术用户也能轻松理解复杂的数据集,从而做出更明智的决策。
三相与多相开绕组永磁同步电机仿真模型的先进控制策略探讨与实现,三相与多相开绕组永磁同步电机的Simulink仿真模型与先进控制策略研究,开绕组电机,开绕组永磁同步电机仿真模型、simulink仿真 共直流母线、独立直流母线,两相容错,三相容错控制,零序电流抑制,控制策略很多 三相开绕组永磁同步电机,六相开绕组永磁同步电机 五相开绕组永磁同步电机,五相开绕组电机 ,开绕组电机; 永磁同步电机仿真模型; simulink仿真; 共直流母线; 独立直流母线; 两相容错; 三相容错控制; 零序电流抑制; 控制策略; 六相开绕组永磁同步电机; 五相开绕组永磁同步电机,开绕组电机仿真研究:共直流母线与独立直流母线的容错控制策略
【毕业设计】基于Java的开发的网上汽车租赁管理系统_pgj
csv 模块是 Python 的标准库,无需额外安装。 运行结果如下图: ['姓名', '年龄', '城市'] ['张三', '25', '北京'] ['李四', '30', '上海'] ['王五', '22', '广州']
【毕业设计】基于Java+Springboot+Vue的宠物领养系统_pgj