- 浏览: 239474 次
- 性别:
- 来自: 上海
-
文章分类
最新评论
-
lwb314:
你的这个是创建的临时的hive表,数据也是通过文件录入进去的, ...
Spark SQL操作Hive数据库 -
yixiaoqi2010:
你好 我的提交上去 总是报错,找不到hive表,可能是哪里 ...
Spark SQL操作Hive数据库 -
bo_hai:
target jvm版本也要选择正确。不能选择太高。2.10对 ...
eclipse开发spark程序配置本地运行
安装hive,这里使用mysql作为hive的metastore;
Ubuntu 15.10虚拟机中安装mysql方法请看:http://kevin12.iteye.com/admin/blogs/2280771
Hadoop2.6.0集群安装:http://kevin12.iteye.com/blog/2273532
1.查看spark 1.6.0版本支持hive的版本从0.12.0~1.2.1,这里选择hive的1.2.1版本。
2.去官网下载apache-hive-1.2.1-bin.tar.gz,官网地址:http://hive.apache.org/downloads.html
拷贝到master1虚拟机中的,执行命令解压到当前目录中,然后再移到/usr/local/hive目录中。
配置hive的环境变量
下面贴出我的~.bashrc环境变量配置:
Hive的相关配置如下(红框内):
执行source ~/.bashrc 使配置生效!
3.把mysql的jdbc驱动 mysql-connector-java-5.1.35-bin.jar拷贝到/usr/local/hive/apache-hive-1.2.1-bin/
msyql驱动下载文章结尾!
4.将 hive-default.xml.template拷贝一份出来为hive-site.xml,并修改hive-site.xml文件中下面配置的值:
5.配置hive-env.sh
在最后添加下面的配置:
export HIVE_HOME=/usr/local/hive/apache-hive-1.2.1-bin
export HIVE_CONF_DIR=/usr/local/hive/apache-hive-1.2.1-bin/conf
6.配置 hive-config.sh
在最后面添加下面的配置:
export JAVA_HOME=/usr/local/jdk/jdk1.8.0_60
export HADOOP_HOME=/usr/local/hadoop/hadoop-2.6.0
export SPARK_HOME=/usr/local/spark/spark-1.6.0-bin-hadoop2.6
注意:
hadoop的版本是2.6.0,hive的版本是1.2.1,$HIVE_HOME/lib目录下的jline-2.12.jar比$HADOOP_HOME/share/hadoop/yarn/lib下的jline-0.9.94.jar版本高,版本不一致导致。
拷贝hive中的jline-2.12.jar到$HADOOP_HOME/share/hadoop/yarn/lib下,并重启hadoop即可。
root@master1:/usr/local/hadoop/hadoop-2.6.0/share/hadoop/yarn/lib# mv jline-0.9.94.jar jline-0.9.94.jar20160305
root@master1:/usr/local/hadoop/hadoop-2.6.0/share/hadoop/yarn/lib# cp $HIVE_HOME/lib/jline-2.12.jar ./
7.启动hive
首先要启动hadoop集群,并且保证mysql已经启动。
5.练习使用hive
Hive默认有一个Default的数据库,默认建表会建到该数据库中,表名不区分大小写。
5.1.创建testdb数据库
5.2创建内部表
内部表特点:数据加载到内部表中是,如果数据在本地会在将本地数据拷贝一份到内部LOCATION指定的目录下,如果数据在hdfs上,则会将hdfs中的数据mv到内部表指定的LOCATION中。删除内部表时,会删除相应LOCATION下的数据。
hive在hdfs中的默认位置是/user/hive/warehouse,该位置可以修改,是由配置文件hive-site.xml中属性hive.metastore.warehouse.dir决定的,会在/user/hive/warehouse/testdb.db下创建student目录。
通过浏览器可以查看:
5.3.加载数据到student表中
在linux的/usr/local/hive目录下创建文件,文件名为student,里面包含一列数据可以用数字;
第一种加载数据到student中
注意:使用load加载数据到数据库中是不使用mapreduce的,而桶类型的表用insert要用到mapreduce。
使用select * 不加条件时,不执行MapReduce,执行比较快;最后一行显示的是null,原因是文件中有一行空格;
第二种加载数据到student中的方法
在/usr/local/hive/目录下创建student_1文件,并写入一列数字;
执行命令hadoop fs -put /usr/local/hive/student_1 /user/hive/warehouse/testdb.db/student
或者 hdfs dfs -put /usr/local/hive/student_1 /user/hive/warehouse/testdb.db/student
查看结果:
在浏览器中查看,会将数据放到/user/hive/warehouse/testdb.db/student目录下,如下图:
6.创建表student2,有多个列的情况
创建表,指定分隔符为\t
创建文件,第一列数字,第二列是string类型的,两列之间用\t分割;
上传文件,执行命令
查看student2表中的内容:
注意:内部表会将数据拷贝一份到表目录下面,如果删除内部表元数据,那么该元数据下面的数据也会被删除;
7.创建分区表
创建分区表student3,指定分区为d
创建数据
加载数据到student3中,将student3_1加载到d=1的分区中,将student3_2加载到d=2的分区中。
LOAD DATA LOCAL INPATH '/usr/local/hive/student3_1' INTO TABLE student3 PARTITION (d=1);
LOAD DATA LOCAL INPATH '/usr/local/hive/student3_2' INTO TABLE student3 PARTITION (d=2);
说明:第一列是数据,第二列是分区d;
8. 桶表
(表连接时候使用,根据桶的个数进行取模运算,将不同的数据放到不同的桶中)
创建桶类型的表
create table student4(id int) clustered by(id) into 4 buckets;
必须启用桶表
set hive.enforce.bucketing = true;
插入数据,这里并没有使用load,而是用的insert,insert加载数据使用了mapreduce。
insert into table student4 select id from student3;
从执行过程中可以看出:桶类型的表用insert要用到mapreduce。
用浏览器查看,创建4个桶,所以生成了4个文件进行存储,分桶的是对4取膜,结果为0的放到了00000_0中,结果为1的放到00000_1中,依次类推;
9.外部表
外部表的特点是:删除表的时候,只删除表定义,不删除表内容。
首先创建/user/hive/data目录,再将/usr/local/hive/student文件上传到/user/hive/data目录中。
创建外部表
create external table student5(id int) location '/user/hive/data/';
说明:如果不指定location,默认的location是/user/hive/warehouse/student5(也即是hdfs://master1:9000/user/hive/warehouse/student6)
查看浏览器,发现外部表创建后并没有在hdfs中产生目录
登录到mysql数据库查看,发现外部表和内部表的LOCATION不一样了。
select * from SDS;
select * from TBLS;
删除外部表student5查看hdfs上的数据是否被删除,
再次查看mysql数据库,发现表结构已经删除,但是数据还是在hdfs上存在。
10.外部分区表
创建外部分区表
将/usr/local/hive/student3_1和student3_2文件分别上传到/user/hive/warehouse/student6/d=1和/user/hive/warehouse/student6/d=2目录中;
分别加载/user/hive/warehouse/student6/d=1和/user/hive/warehouse/student6/d=2中的数据到分区d=1和d=2中;
ALTER TABLE student6 ADD PARTITION (d='1')LOCATION '/user/hive/warehouse/student6/d=1';
11.hive中的视图
创建student6表的视图,并查询视图
create view vw_student6(id) as select id from (select * from student6 where d=1 union all select * from student6 where d=2)a;
其他Hive命令简单介绍
limit命令:select * from t1 limit 3;只会查询出3条记录。
order by 是对结果进行全排序,使用一个reducer,效率较差
sort by 是对每个reducerjinx局部排序,不对整体结果排序,效率较高
distribute by 指的是对mapper的输出按照指定字段,把数据传递到reducer端;
cluster by 子句相当于sort by和distribute by一起操作。
强转:使用函数CAST(id AS long)把id的类型强转为long类型。
详细的可参考官网:http://hive.apache.org/
Ubuntu 15.10虚拟机中安装mysql方法请看:http://kevin12.iteye.com/admin/blogs/2280771
Hadoop2.6.0集群安装:http://kevin12.iteye.com/blog/2273532
1.查看spark 1.6.0版本支持hive的版本从0.12.0~1.2.1,这里选择hive的1.2.1版本。

2.去官网下载apache-hive-1.2.1-bin.tar.gz,官网地址:http://hive.apache.org/downloads.html
拷贝到master1虚拟机中的,执行命令解压到当前目录中,然后再移到/usr/local/hive目录中。
root@master1:/usr/local/tools# tar -zxvf apache-hive-1.2.1-bin.tar.gz root@master1:/usr/local/tools# mv apache-hive-1.2.1-bin/usr/local/hive/
配置hive的环境变量
下面贴出我的~.bashrc环境变量配置:
export JAVA_HOME=/usr/local/jdk/jdk1.8.0_60 export JRE_HOME=${JAVA_HOME}/jre export SCALA_HOME=/usr/local/scala/scala-2.10.4 export HADOOP_HOME=/usr/local/hadoop/hadoop-2.6.0 export HADOOP_CONF_DIR=${HADOOP_HOME}/etc/hadoop export HADOOP_COMMON_LIB_NATIVE_DIR=${HADOOP_HOME}/lib/native export HADOOP_OPTS="-Djava.library.path=${HADOOP_HOME}/lib" export SPARK_HOME=/usr/local/spark/spark-1.6.0-bin-hadoop2.6 export ZOOKEEPER_HOME=/usr/local/zookeeper/zookeeper-3.4.6 export HIVE_HOME=/usr/local/hive/apache-hive-1.2.1-bin export HIVE_CONF_DIR=${HIVE_HOME}/conf export CLASS_PATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib:${HIVE_HOME}/lib export PATH=.:${JAVA_HOME}/bin:${SCALA_HOME}/bin:${HADOOP_HOME}/bin:${HADOOP_HOME}/sbin:${SPARK_HOME}/bin:${ZOOKEEPER_HOME}/bin:${HIVE_HOME}/bin:$PATH
Hive的相关配置如下(红框内):

执行source ~/.bashrc 使配置生效!
3.把mysql的jdbc驱动 mysql-connector-java-5.1.35-bin.jar拷贝到/usr/local/hive/apache-hive-1.2.1-bin/
msyql驱动下载文章结尾!
4.将 hive-default.xml.template拷贝一份出来为hive-site.xml,并修改hive-site.xml文件中下面配置的值:
root@master1:/usr/local/hive/apache-hive-1.2.1-bin/conf# cp -a hive-default.xml.template hive-site.xml <property> <name>javax.jdo.option.ConnectionURL</name> <value>jdbc:mysql://master1:3306/hive?createDatabaseIfNotExist=true</value> </property> <property> <name>javax.jdo.option.ConnectionDriverName</name> <value>com.mysql.jdbc.Driver</value> </property> <property> <name>javax.jdo.option.ConnectionUserName</name> <value>root</value> </property> <property> <name>javax.jdo.option.ConnectionPassword</name> <value>admin</value> </property> <property> <name>hive.metastore.warehouse.dir</name> <value>/user/hive/warehouse</value> <description>location of default database for the warehouse</description> </property> <property> <name>hive.metastore.warehouse.dir</name> <value>/user/hive/warehouse</value> <description>location of default database for the warehouse</description> </property> <property> <name>hive.querylog.location</name> <value>/usr/local/hive/iotmp/</value> <description>Location of Hive run time structured log file</description> </property> <property> <name>hive.server2.logging.operation.log.location</name> <value>/usr/local/hive/iotmp/operation_logs</value> <description>Top level directory where operation logs are stored if logging functionality is enabled</description> </property> <property> <name>hive.exec.local.scratchdir</name> <value>/usr/local/hive/iotmp/</value> <description>Local scratch space for Hive jobs</description> </property> <property> <name>hive.downloaded.resources.dir</name> <value>/usr/local/hive/iotmp/${hive.session.id}_resources</value> <description>Temporary local directory for added resources in the remote file system.</description> </property
5.配置hive-env.sh
在最后添加下面的配置:
root@master1:/usr/local/hive/apache-hive-1.2.1-bin/conf# cp -a hive-env.sh.template hive-env.sh
export HIVE_HOME=/usr/local/hive/apache-hive-1.2.1-bin
export HIVE_CONF_DIR=/usr/local/hive/apache-hive-1.2.1-bin/conf
6.配置 hive-config.sh
在最后面添加下面的配置:
root@master1:/usr/local/hive/apache-hive-1.2.1-bin/bin# vim hive-config.sh
export JAVA_HOME=/usr/local/jdk/jdk1.8.0_60
export HADOOP_HOME=/usr/local/hadoop/hadoop-2.6.0
export SPARK_HOME=/usr/local/spark/spark-1.6.0-bin-hadoop2.6
注意:
hadoop的版本是2.6.0,hive的版本是1.2.1,$HIVE_HOME/lib目录下的jline-2.12.jar比$HADOOP_HOME/share/hadoop/yarn/lib下的jline-0.9.94.jar版本高,版本不一致导致。
拷贝hive中的jline-2.12.jar到$HADOOP_HOME/share/hadoop/yarn/lib下,并重启hadoop即可。
root@master1:/usr/local/hadoop/hadoop-2.6.0/share/hadoop/yarn/lib# mv jline-0.9.94.jar jline-0.9.94.jar20160305
root@master1:/usr/local/hadoop/hadoop-2.6.0/share/hadoop/yarn/lib# cp $HIVE_HOME/lib/jline-2.12.jar ./
7.启动hive
首先要启动hadoop集群,并且保证mysql已经启动。

5.练习使用hive
Hive默认有一个Default的数据库,默认建表会建到该数据库中,表名不区分大小写。
5.1.创建testdb数据库
hive> create database testdb; OK Time taken: 0.125 seconds hive> use testdb; OK Time taken: 0.068 seconds hive> show databases; OK default testdb Time taken: 0.026 seconds, Fetched: 2 row(s) hive> use testdb; OK Time taken: 0.059 seconds hive>
5.2创建内部表
内部表特点:数据加载到内部表中是,如果数据在本地会在将本地数据拷贝一份到内部LOCATION指定的目录下,如果数据在hdfs上,则会将hdfs中的数据mv到内部表指定的LOCATION中。删除内部表时,会删除相应LOCATION下的数据。
hive> create table student(id int); OK Time taken: 0.113 seconds hive>
hive在hdfs中的默认位置是/user/hive/warehouse,该位置可以修改,是由配置文件hive-site.xml中属性hive.metastore.warehouse.dir决定的,会在/user/hive/warehouse/testdb.db下创建student目录。
通过浏览器可以查看:

5.3.加载数据到student表中
在linux的/usr/local/hive目录下创建文件,文件名为student,里面包含一列数据可以用数字;

第一种加载数据到student中
注意:使用load加载数据到数据库中是不使用mapreduce的,而桶类型的表用insert要用到mapreduce。
hive> LOAD DATA LOCAL INPATH '/usr/local/hive/student' INTO TABLE student; Loading data to table testdb.student Table testdb.student stats: [numFiles=1, totalSize=11] OK Time taken: 1.717 seconds hive> select * from student; OK 1 2 3 5 6 NULL Time taken: 0.572 seconds, Fetched: 6 row(s)
使用select * 不加条件时,不执行MapReduce,执行比较快;最后一行显示的是null,原因是文件中有一行空格;
第二种加载数据到student中的方法
在/usr/local/hive/目录下创建student_1文件,并写入一列数字;
执行命令hadoop fs -put /usr/local/hive/student_1 /user/hive/warehouse/testdb.db/student
或者 hdfs dfs -put /usr/local/hive/student_1 /user/hive/warehouse/testdb.db/student
查看结果:
hive> select * from student where id is not null; OK 1 2 3 5 6 4 7 8 9 10 11 Time taken: 0.15 seconds, Fetched: 11 row(s) hive>
在浏览器中查看,会将数据放到/user/hive/warehouse/testdb.db/student目录下,如下图:

6.创建表student2,有多个列的情况
创建表,指定分隔符为\t
hive> CREATE TABLE student2(id int, name string) ROW FORMAT DELIMITED FIELDS TERMINATED BY '\t'; OK Time taken: 0.108 seconds
创建文件,第一列数字,第二列是string类型的,两列之间用\t分割;
上传文件,执行命令
hdfs dfs -put /usr/local/hive/student2 /user/hive/warehouse/testdb.db/student2

查看student2表中的内容:
hive> select * from student2; OK 1 zhangsan 2 lisi 3 wangwu 4 张飞 5 孙悟空 6 猪八戒 Time taken: 0.111 seconds, Fetched: 6 row(s)
注意:内部表会将数据拷贝一份到表目录下面,如果删除内部表元数据,那么该元数据下面的数据也会被删除;
7.创建分区表
创建分区表student3,指定分区为d
hive> CREATE TABLE student3(id int) PARTITIONED BY (d int); OK Time taken: 0.134 seconds
创建数据

加载数据到student3中,将student3_1加载到d=1的分区中,将student3_2加载到d=2的分区中。
LOAD DATA LOCAL INPATH '/usr/local/hive/student3_1' INTO TABLE student3 PARTITION (d=1);
LOAD DATA LOCAL INPATH '/usr/local/hive/student3_2' INTO TABLE student3 PARTITION (d=2);


说明:第一列是数据,第二列是分区d;
8. 桶表
(表连接时候使用,根据桶的个数进行取模运算,将不同的数据放到不同的桶中)
创建桶类型的表
create table student4(id int) clustered by(id) into 4 buckets;
必须启用桶表
set hive.enforce.bucketing = true;
插入数据,这里并没有使用load,而是用的insert,insert加载数据使用了mapreduce。
insert into table student4 select id from student3;

从执行过程中可以看出:桶类型的表用insert要用到mapreduce。
用浏览器查看,创建4个桶,所以生成了4个文件进行存储,分桶的是对4取膜,结果为0的放到了00000_0中,结果为1的放到00000_1中,依次类推;


9.外部表
外部表的特点是:删除表的时候,只删除表定义,不删除表内容。
首先创建/user/hive/data目录,再将/usr/local/hive/student文件上传到/user/hive/data目录中。
root@master1:/usr/local/hive# hdfs dfs -mkdir /user/hive/data/ 16/03/05 19:36:07 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable root@master1:/usr/local/hive# hdfs dfs -put student /user/hive/data 16/03/05 19:37:10 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable root@master1:/usr/local/hive#
创建外部表
create external table student5(id int) location '/user/hive/data/';
说明:如果不指定location,默认的location是/user/hive/warehouse/student5(也即是hdfs://master1:9000/user/hive/warehouse/student6)

查看浏览器,发现外部表创建后并没有在hdfs中产生目录

登录到mysql数据库查看,发现外部表和内部表的LOCATION不一样了。

select * from SDS;
select * from TBLS;
删除外部表student5查看hdfs上的数据是否被删除,
hive> drop table student5; OK Time taken: 0.105 seconds
再次查看mysql数据库,发现表结构已经删除,但是数据还是在hdfs上存在。


10.外部分区表
创建外部分区表
drop table if exists student6; create EXTERNAL TABLE IF NOT EXISTS student6( id int ) PARTITIONED BY (d string);

将/usr/local/hive/student3_1和student3_2文件分别上传到/user/hive/warehouse/student6/d=1和/user/hive/warehouse/student6/d=2目录中;

分别加载/user/hive/warehouse/student6/d=1和/user/hive/warehouse/student6/d=2中的数据到分区d=1和d=2中;
ALTER TABLE student6 ADD PARTITION (d='1')LOCATION '/user/hive/warehouse/student6/d=1';

11.hive中的视图
创建student6表的视图,并查询视图
create view vw_student6(id) as select id from (select * from student6 where d=1 union all select * from student6 where d=2)a;

其他Hive命令简单介绍
limit命令:select * from t1 limit 3;只会查询出3条记录。
order by 是对结果进行全排序,使用一个reducer,效率较差
sort by 是对每个reducerjinx局部排序,不对整体结果排序,效率较高
distribute by 指的是对mapper的输出按照指定字段,把数据传递到reducer端;
cluster by 子句相当于sort by和distribute by一起操作。
强转:使用函数CAST(id AS long)把id的类型强转为long类型。
详细的可参考官网:http://hive.apache.org/
- mysql-connector-java-5.1.35-bin.jar (946 KB)
- 下载次数: 13
发表评论
-
Spark SQL内置函数应用
2016-04-22 07:00 8708简单说明 使用Spark SQL中的内置函数对数据进行 ... -
Spark SQL操作Hive数据库
2016-04-13 22:37 17682本次例子通过scala编程实现Spark SQL操作Hive数 ... -
Spark SQL on hive配置和实战
2016-03-26 18:40 5629spark sql 官网:http://spark ... -
Hive分析搜索引擎的数据(搜狗实验室数据)
2016-03-13 12:48 2228搜狗实验室:http://www.sogou.com/labs ... -
Hive使用默认数据库derby报错及解决方法
2016-03-05 21:19 3231在使用derby数据库时,遇到了很多错误,报错信息和解决方法如 ... -
hive第一个字段为null
2014-03-20 23:17 1460在hive中创建表后,将准备好的数据导入到该表中,如果第一个字 ...
相关推荐
hive java开发驱动包列表hive-common-2.3.4.jarhive-exec-2.3.4.jarhive-jdbc-2.3.4.jarhive-llap-client-2.3.4.jarhive-llap-common-2.3.4.jarhive-llap-server-2.3.4.jarhive-llap-tez-2.3.4.jarhive-metastore-...
通过本实验,我们可以熟悉Hive的基本操作,了解Hive在Hadoop体系结构中的角色担当,并掌握了HiveQL语句的使用。同时,我们也可以了解到Hive内部表和外部表的区别,并掌握了MapReduce统计任务的实现。
Hue是一个基于Web的大数据平台,它可以提供图形界面来操作Hadoop和Hive等组件,方便用户进行数据管理和查询。 #### 三、创建HDFS目录及上传数据 在创建外部表之前,需要先将数据上传到HDFS中。具体步骤如下: 1. ...
带有 HDP-2.1 和 Apache Spark-... 默认情况下, SPARK_HOME=/usr/lib/spark/1.3.0和 Apache Spark 1.3.0 构建时支持hive (Spark SQL)。 如何使用? docker pull ypandit/hdp-spark docker run -td ypandit/hdp-spark
# 基于Python和Arduino框架的LightBox项目 ## 项目简介 LightBox是一个结合了Arduino硬件、Python服务器端脚本和Python客户端脚本的项目。它旨在通过LED灯的状态反馈开发者的编译进程状态,从而提高开发效率。当编译过程出现错误或警告时,LightBox会根据情况改变LED灯的颜色,提醒开发者注意。 ## 项目的主要特性和功能 1. Arduino硬件电路使用Atmega 168芯片,通过Arduino编程控制RGB LED的状态以及外部传感器数据的读取和处理。支持随机颜色模式、命令模式等,并能通过串行端口与外部进行通信。 2. Python服务器脚本负责接收客户端的命令,并通过串行端口发送给Arduino硬件电路。同时,它还可以启动一个UDP服务器,等待客户端的连接和命令。
使用homeassistant 插件将tasmota 接入到米家
# 基于Spring和MyBatis Plus的敏捷工贸公司销售管理系统 ## 项目简介 本项目是一个基于Web的敏捷工贸公司销售管理系统,采用Spring和MyBatis Plus框架开发,前端使用Vue框架。系统旨在为管理员和员工提供操作平台,实现销售管理、库存管理、订单管理等核心功能,促进公司销售行业的信息化管理。 ## 项目的主要特性和功能 1. 用户管理包含用户登录、注册、退出、密码重置等功能,同时支持用户信息的查询、保存、更新和删除操作,不同角色(管理员、员工等)拥有不同权限。 2. 公告管理可进行公告信息的分页查询、详情查看、保存、更新、删除以及批量上传功能。 3. 客户管理实现客户信息的分页展示、详情获取、保存、更新、删除以及批量导入功能。 4. 物资管理涵盖物资列表查询、详情查询、保存、修改、删除,还支持批量上传物资数据。 5. 物资订单管理提供物资订单列表查询、详情查询、保存、修改、删除等功能。
数据库管理系统是一个基于Python开发的完整数据库管理解决方案,采用SQLite作为后端数据库,tkinter和ttkbootstrap作为前端GUI框架。系统提供了用户管理、数据表管理、数据操作、导入导出等完整的数据库管理功能。
【东吴证券】建筑材料行业跟踪周报:关税冲击下首选内需消费-2025-04-06
东北大学人工智能20级算法课设.zip
电子商务_Java高并发_Redis缓存优化_数据库设计_秒杀系统_分布式事务_性能调优_登录验证_密码加密_参数校验_订单处理_商品库存管理_支付系统_前端交互_后端API_系统
185659数值分析(五)(李庆扬清华).zip
内容概要:本文档介绍了美国国家半导体公司的LMH6515全差分放大器,适用于高达400 MHz的信号路径应用。该放大器具有200Ω的输入阻抗,A类输出级,支持卓越的低失真性能和线性度,适合作为电压放大器和ADC驱动器。文中详细讨论了LMH6515的输入和输出特性,包括输入阻抗、输出共模电压设定方法、增益控制机制及其与ADC的接口方式。此外,还探讨了不同负载条件下的带宽表现、电感的选择和布局技巧,以及电源和封装方面的注意事项。 适合人群:电子工程技术人员,尤其是从事射频、模拟电路设计的专业人士。 使用场景及目标:①用于设计和优化高性能、高频率的差分放大器电路;②帮助工程师理解和解决实际应用中的技术难题,如失真、带宽和增益控制等问题;③指导工程师在具体应用场景中选择合适的参数配置和元件搭配,以实现最佳性能。 其他说明:文档强调了LMH6515在高频应用中的优势,特别是在与ADC配合使用时的表现。同时提醒使用者关注关键参数的设定和电路板布局的影响,以确保系统的稳定性和可靠性。
210021102244.pdf
YOLOv10-PyQt5-GUI识别各类害虫-检测农业害虫防治和生态环境保护+数据集+训练好的模型+pyqt5可视化界面包含pyqt可视化界面,有使用教程 1. 内部包含标注好的目标检测数据集,分别有yolo格式(txt文件)和voc格式标签(xml文件), 共717张图像, 已划分好数据集train,val, test,并附有data.yaml文件可直接用于yolov5,v8,v9,v10,v11,v12等算法的训练; 2. yolo目标检测数据集类别名:pests(害虫),包括 Agrotis(夜蛾属)、Athetis_lepigone(一种 moth)、Athetis_lineosa(另一种 moth)、Chilo_suppressalis(螟虫)、Cnaphalocrocis_medinalis_Guenee(一种害虫)、Creatonotus_transiens(一种 moth)、Diaphania_indica(一种螟虫)、Endotricha_consocia(一种 moth)、Euproctis_sparsa(一种 moth)、Gryllidae(蟋蟀科)、Gryllotalpidae(蝼蛄科)、Helicoverpa_armigera(棉铃虫)、Holotrichia_oblita_Faldermann(一种金龟子)、Loxostege_sticticalis(一种 moth)、Mamestra_brassicae(菜青虫)、Maruca_testulalis_Geyer(一种 moth)、Mythimna_separata(粘虫)、Naranga_aenescens_Moore(一种 moth)、Nilaparvata(一种蚜虫)、Paracymoriza_taiwanalis(一种 moth)、Sesamia_inferens(玉米螟)、Sirthe
一个用ssh整合的员工信息查询系统.zip
基于C++和Qt实现的医院信息管理系统+源码+项目文档+数据库,适合毕业设计、课程设计、项目开发。项目源码已经过严格测试,可以放心参考并在此基础上延申使用。详情见md文档~ 语言C++,开发平台QT,数据库Mysql 2.软件设计包含医生、病人、药物和病例症状等的信息存储和管理 3.搭载智能治疗平台,可以通过输入病症匹配出最可能的患病列表 4.当确认病例时,可以推荐治疗方案,协助医生诊断 5.系统后台结合病例、药物等数据进行统计分析,给予预测或警报 基于C++和Qt实现的医院信息管理系统+源码+项目文档+数据库,适合毕业设计、课程设计、项目开发。项目源码已经过严格测试,可以放心参考并在此基础上延申使用。详情见md文档 语言C++,开发平台QT,数据库Mysql 2.软件设计包含医生、病人、药物和病例症状等的信息存储和管理 3.搭载智能治疗平台,可以通过输入病症匹配出最可能的患病列表 4.当确认病例时,可以推荐治疗方案,协助医生诊断 5.系统后台结合病例、药物等数据进行统计分析,给予预测或警报~
内容概要:本文档是关于嵌入式系统开发的合作协议书,详细规定了甲乙双方在嵌入式系统开发项目中的权利、义务、开发内容、交付时间、费用支付、保密条款、争议解决等方面的内容。甲方(嵌入式系统开发者)负责根据乙方(嵌入式系统需求方)的需求,开发包括硬件设计、软件开发、系统集成等在内的嵌入式系统,并确保系统符合法律法规、行业标准及乙方业务需求,具有稳定性、安全性、可靠性。乙方需提供详细需求文档,配合开发,按时支付费用并对系统进行验收。文档还明确了费用支付方式、违约责任、争议解决机制等,确保双方权益得到保障。 适合人群:嵌入式系统开发公司、需求方企业、法律顾问等相关人员。 使用场景及目标:①为嵌入式系统开发项目提供详细的合同模板,确保双方权利义务明确;②为开发过程中的各个环节提供指导,包括开发内容、交付时间、费用支付等;③为可能出现的争议提供解决机制,确保项目顺利进行。 其他说明:文档包含多个附件,如需求文档、设计方案、技术规格等,这些附件与主协议具有同等法律效力,共同构成完整的合同文件。双方应妥善保管附件,并在合同履行过程中共同遵守其中的约定。如有附件内容与主协议正文冲突,以主协议正文为准。
【世界卫生组织】WHO Academy investment case-2025-04-01
本资源隶属于编译器设计知识领域,采用Python实现与Tkinter GUI开发技术,核心内容聚焦有限状态机模型与词法单元识别算法,专为编程语言词法分析教学与编译器前端开发设计。资源包含完整的状态转换引擎实现、带语法高亮的源代码编辑器组件及多维度分析结果可视化模块,提供语法规则配置接口和错误定位机制,适用于计算机编译原理课程实验、编程语言原型开发及代码静态分析工具构建等场景。通过模块化的词法分析API与交互式GUI演示系统,有效降低编译器技术学习曲线,提升语言处理实践能力。