maven的配置
<!-- hbase start --> <dependency> <groupId>org.springframework.data</groupId> <artifactId>spring-data-hadoop</artifactId> <version>${spring.hadoop.version}</version> <exclusions> <exclusion> <groupId>org.springframework</groupId> <artifactId>spring-context-support</artifactId> </exclusion> <exclusion> <groupId>org.slf4j</groupId> <artifactId>slf4j-log4j12</artifactId> </exclusion> <exclusion> <groupId>javax.servlet</groupId> <artifactId>servlet-api</artifactId> </exclusion> <exclusion> <groupId>com.google.guava</groupId> <artifactId>guava</artifactId> </exclusion> </exclusions> </dependency> <!-- hadoop start --> <dependency> <groupId>org.apache.hadoop</groupId> <artifactId>hadoop-client</artifactId> <version>${hadoop.version}</version> <scope>compile</scope> <exclusions> <exclusion> <groupId>org.slf4j</groupId> <artifactId>slf4j-log4j12</artifactId> </exclusion> <exclusion> <groupId>com.google.guava</groupId> <artifactId>guava</artifactId> </exclusion> </exclusions> </dependency> <!-- hadoop end --> <!-- hbase start --> <dependency> <groupId>org.apache.hbase</groupId> <artifactId>hbase-client</artifactId> <version>${hbase.version}</version> <exclusions> <exclusion> <groupId>log4j</groupId> <artifactId>log4j</artifactId> </exclusion> <exclusion> <groupId>org.slf4j</groupId> <artifactId>slf4j-log4j12</artifactId> </exclusion> <exclusion> <groupId>javax.servlet</groupId> <artifactId>servlet-api</artifactId> </exclusion> <!-- <exclusion> <groupId>javax.servlet.jsp</groupId> <artifactId>jsp-api</artifactId> </exclusion> --> <exclusion> <groupId>com.google.guava</groupId> <artifactId>guava</artifactId> </exclusion> </exclusions> </dependency> <!-- hbase end -->
import org.apache.hadoop.hbase.HBaseConfiguration; import org.apache.hadoop.hbase.HConstants; import org.apache.hadoop.hbase.client.Admin; import org.apache.hadoop.hbase.client.Connection; import org.apache.hadoop.hbase.client.ConnectionFactory; import org.slf4j.Logger; import org.slf4j.LoggerFactory; import org.springframework.beans.factory.annotation.Autowired; import org.springframework.beans.factory.annotation.Value; import org.springframework.context.annotation.Bean; import org.springframework.context.annotation.Configuration; import org.springframework.data.hadoop.hbase.HbaseTemplate; import java.io.IOException; /** * HbaseTempalteConfig * * @ClassName: HbaseTempalteConfig * @author kanpiaoxue * @version 1.0 * @CreateTime: 2020/04/10 14:19:41 * @Description: */ @Configuration public class HbaseTempalteConfig { private static final Logger LOGGER = LoggerFactory.getLogger(HbaseTempalteConfig.class); @Value("${hbase.zookeeper.quorum}") private String zkQuorum; @Value("${hbase.zookeeper.port:2181}") private Integer zkPort; @Value("${hbase.zookeeper.znode.parent}") private String zkZnodeParent; @Bean public Admin hbaseAdmin(@Autowired org.apache.hadoop.conf.Configuration configuration) throws IOException { LOGGER.debug("start to hbaseAdmin. zkQuorum:{},zkPort:{},zkZnodeParent:{}", zkQuorum, zkPort, zkZnodeParent); Connection connection = ConnectionFactory.createConnection(configuration); Admin admin = connection.getAdmin(); return admin; } @Bean public org.apache.hadoop.conf.Configuration hbaseConfiguration() { LOGGER.debug("start to hbaseConfiguration. zkQuorum:{},zkPort:{},zkZnodeParent:{}", zkQuorum, zkPort, zkZnodeParent); org.apache.hadoop.conf.Configuration configuration = HBaseConfiguration.create(); configuration.set(HConstants.ZOOKEEPER_QUORUM, zkQuorum); configuration.set(HConstants.ZOOKEEPER_CLIENT_PORT, String.valueOf(zkPort)); configuration.set(HConstants.ZOOKEEPER_ZNODE_PARENT, zkZnodeParent); configuration.set("log4j.logger.org.apache.hadoop.hbase", "DEBUG"); // 设置keyvalue.maxsize的大小限制,这里设置500M = 500*1024*1024 configuration.set("hbase.client.keyvalue.maxsize", "524288000"); return configuration; } @Bean public HbaseTemplate hbaseTemplate(@Autowired org.apache.hadoop.conf.Configuration configuration) { LOGGER.debug("start to hbaseTemplate. zkQuorum:{},zkPort:{},zkZnodeParent:{}", zkQuorum, zkPort, zkZnodeParent); HbaseTemplate hbaseTemplate = new HbaseTemplate(configuration); return hbaseTemplate; } }
import org.apache.commons.io.IOUtils; import org.apache.hadoop.hbase.HColumnDescriptor; import org.apache.hadoop.hbase.HTableDescriptor; import org.apache.hadoop.hbase.TableName; import org.apache.hadoop.hbase.client.Admin; import org.apache.hadoop.hbase.client.Result; import org.apache.hadoop.hbase.util.Bytes; import org.slf4j.Logger; import org.slf4j.LoggerFactory; import org.springframework.beans.factory.annotation.Autowired; import org.springframework.beans.factory.annotation.Value; import org.springframework.data.hadoop.hbase.HbaseTemplate; import org.springframework.stereotype.Service; import com.google.common.base.Preconditions; import com.google.common.io.ByteSource; import com.google.common.io.Files; import java.io.File; import java.io.IOException; import java.io.InputStream; import java.util.Objects; import javax.annotation.PostConstruct; /** * HBase的文件服务实现类 * * @ClassName: HBaseRemoteTargetFileServiceImpl * @author kanpiaoxue * @version 1.0 * @CreateTime: 2020/04/10 16:12:51 * @Description: */ @Service public class HBaseRemoteTargetFileServiceImpl implements RemoteTargetFileService { private static final Logger LOGGER = LoggerFactory.getLogger(HBaseRemoteTargetFileServiceImpl.class); @Autowired private Admin admin; @Autowired private HbaseTemplate hbaseTemplate; @Value("${hbase.table.name}") private String tableName; @Value("${hbase.table.column.family}") private String columnFamily; @Value("${hbase.table.column.columnName}") private String column; private byte[] tableNameAsBytes; private byte[] columnFamilyAsBytes; private byte[] columnAsBytes; @Override public InputStream getFile(String key) throws Exception { LOGGER.info("start to getFile. key:{}", key); key = CommonUtils.checkStringArgs(key, "key"); InputStream input = hbaseTemplate.get(tableName, key, (Result result, int rowNum) -> { byte[] value = result.getValue(columnFamilyAsBytes, columnAsBytes); if (Objects.isNull(value)) { return null; } InputStream targetStream = ByteSource.wrap(value).openStream(); return targetStream; }); CommonUtils.checkDataExist(input, String.format( "can not find data with tableName:%s,columnFamily:%s,column:%s,key:%s from hbase", tableName, columnFamily, column, key)); return input; } @PostConstruct public void initialize() throws Exception { LOGGER.info("start to initialize. tableName:{},columnFamily:{},column:{},admin:{},hbaseTemplate:{}", tableName, columnFamily, column, admin, hbaseTemplate); Preconditions.checkNotNull(admin, "admin is null"); Preconditions.checkNotNull(hbaseTemplate, "hbaseTemplate is null"); initTableInfo(); initTable(); LOGGER.info("finish initializing. tableName:{},columnFamily:{},column:{},admin:{},hbaseTemplate:{}", tableName, columnFamily, column, admin, hbaseTemplate); } @Override public void saveFile(String key, File file) throws Exception { LOGGER.info("start to saveFile. key:{},file:{}", key, file); CommonUtils.checkStringArgs(key, "key"); Preconditions.checkNotNull(file, "file is null"); Preconditions.checkArgument(file.exists(), "file:%s does not exist.", file); Preconditions.checkArgument(file.isFile(), "file:%s is not a valid file.", file); try (InputStream input = Files.asByteSource(file).openStream()) { byte[] value = IOUtils.toByteArray(input); hbaseTemplate.put(tableName, key, columnFamily, column, value); } } private void initTable() throws IOException { LOGGER.info("start to initializeTable."); TableName tableName = TableName.valueOf(tableNameAsBytes); if (!admin.tableExists(tableName)) { LOGGER.info("tableName:{} does not exist. create it.", tableName); HTableDescriptor tableDescriptor = new HTableDescriptor(tableName); HColumnDescriptor columnDescriptor = new HColumnDescriptor(columnFamily); tableDescriptor.addFamily(columnDescriptor); admin.createTable(tableDescriptor); } } private void initTableInfo() { LOGGER.info("start to initTableInfo."); tableName = CommonUtils.checkStringArgs(tableName, "tableName"); columnFamily = CommonUtils.checkStringArgs(columnFamily, "columnFamily"); column = CommonUtils.checkStringArgs(column, "column"); tableNameAsBytes = Bytes.toBytes(tableName); columnFamilyAsBytes = Bytes.toBytes(columnFamily); columnAsBytes = Bytes.toBytes(column); } }
参考文档:
1、https://www.baeldung.com/hbase
2、https://www.jianshu.com/p/c04993cf85ac
3、https://docs.spring.io/spring-hadoop/docs/1.0.0.RELEASE/reference/html/hbase.html
相关推荐
在日常的工作和学习中,你是否常常为处理复杂的数据、生成高质量的文本或者进行精准的图像识别而烦恼?DeepSeek 或许就是你一直在寻找的解决方案!它以其高效、智能的特点,在各个行业都展现出了巨大的应用价值。然而,想要充分发挥 DeepSeek 的优势,掌握从入门到精通的知识和技能至关重要。本文将从实际应用的角度出发,为你详细介绍 DeepSeek 的基本原理、操作方法以及高级技巧。通过系统的学习,你将能够轻松地运用 DeepSeek 解决实际问题,提升工作效率和质量,让自己在职场和学术领域脱颖而出。现在,就让我们一起开启这场实用又高效的学习之旅吧!
在日常的工作和学习中,你是否常常为处理复杂的数据、生成高质量的文本或者进行精准的图像识别而烦恼?DeepSeek 或许就是你一直在寻找的解决方案!它以其高效、智能的特点,在各个行业都展现出了巨大的应用价值。然而,想要充分发挥 DeepSeek 的优势,掌握从入门到精通的知识和技能至关重要。本文将从实际应用的角度出发,为你详细介绍 DeepSeek 的基本原理、操作方法以及高级技巧。通过系统的学习,你将能够轻松地运用 DeepSeek 解决实际问题,提升工作效率和质量,让自己在职场和学术领域脱颖而出。现在,就让我们一起开启这场实用又高效的学习之旅吧!
ACM动态规划模板-区间修改线段树问题模板
# 踏入C语言的奇妙编程世界 在编程的广阔宇宙中,C语言宛如一颗璀璨恒星,以其独特魅力与强大功能,始终占据着不可替代的地位。无论你是编程小白,还是有一定基础想进一步提升的开发者,C语言都值得深入探索。 C语言的高效性与可移植性令人瞩目。它能直接操控硬件,执行速度快,是系统软件、嵌入式开发的首选。同时,代码可在不同操作系统和硬件平台间轻松移植,极大节省开发成本。 学习C语言,能让你深入理解计算机底层原理,培养逻辑思维和问题解决能力。掌握C语言后,再学习其他编程语言也会事半功倍。 现在,让我们一起开启C语言学习之旅。这里有丰富教程、实用案例、详细代码解析,助你逐步掌握C语言核心知识和编程技巧。别再犹豫,加入我们,在C语言的海洋中尽情遨游,挖掘无限可能,为未来的编程之路打下坚实基础!
在日常的工作和学习中,你是否常常为处理复杂的数据、生成高质量的文本或者进行精准的图像识别而烦恼?DeepSeek 或许就是你一直在寻找的解决方案!它以其高效、智能的特点,在各个行业都展现出了巨大的应用价值。然而,想要充分发挥 DeepSeek 的优势,掌握从入门到精通的知识和技能至关重要。本文将从实际应用的角度出发,为你详细介绍 DeepSeek 的基本原理、操作方法以及高级技巧。通过系统的学习,你将能够轻松地运用 DeepSeek 解决实际问题,提升工作效率和质量,让自己在职场和学术领域脱颖而出。现在,就让我们一起开启这场实用又高效的学习之旅吧!
本项目为Python语言开发的PersonRelationKnowledgeGraph设计源码,总计包含49个文件,涵盖19个.pyc字节码文件、12个.py源代码文件、8个.txt文本文件、3个.xml配置文件、3个.png图片文件、2个.md标记文件、1个.iml项目配置文件、1个.cfg配置文件。该源码库旨在构建一个用于表示和查询人物关系的知识图谱系统。
在日常的工作和学习中,你是否常常为处理复杂的数据、生成高质量的文本或者进行精准的图像识别而烦恼?DeepSeek 或许就是你一直在寻找的解决方案!它以其高效、智能的特点,在各个行业都展现出了巨大的应用价值。然而,想要充分发挥 DeepSeek 的优势,掌握从入门到精通的知识和技能至关重要。本文将从实际应用的角度出发,为你详细介绍 DeepSeek 的基本原理、操作方法以及高级技巧。通过系统的学习,你将能够轻松地运用 DeepSeek 解决实际问题,提升工作效率和质量,让自己在职场和学术领域脱颖而出。现在,就让我们一起开启这场实用又高效的学习之旅吧!
rtsp实时预览接口URL:/evo-apigw/admin/API/MTS/Video/StartVideo HLS、FLV、RTMP实时预览接口方式 :接口URL/evo-apigw/admin/API/video/stream/realtime 参数名 必选 类型 说明 data true string Json串 +channelId true string 视频通道编码 +streamType true string 码流类型:1=主码流, 2=辅码流,3=辅码流2 +type true string 协议类型:hls,hlss,flv,flvs,ws_flv,wss_flv,rtmp hls:http协议,m3u8格式,端口7086; hlss:https协议,m3u8格式,端口是7096; flv:http协议,flv格式,端口7886; flvs:https协议,flv格式,端口是7896; ws_flv:ws协议,flv格式,端口是7886; wss_flv:wss协议,flv格式,端口是7896; rtmp:rtmp协议,端口是1975;
Simulink永磁风机飞轮储能系统二次调频技术研究:频率特性分析与参数优化,Simulink永磁风机飞轮储能二次调频技术:系统频率特性详解及参数优化研究参考详实文献及两区域系统应用,simulink永磁风机飞轮储能二次调频,系统频率特性如下,可改变调频参数改善频率。 参考文献详细,两区域系统二次调频。 ,核心关键词: 1. Simulink 2. 永磁风机 3. 飞轮储能 4. 二次调频 5. 系统频率特性 6. 调频参数 7. 改善频率 8. 参考文献 9. 两区域系统 以上关键词用分号(;)分隔,结果为:Simulink;永磁风机;飞轮储能;二次调频;系统频率特性;调频参数;改善频率;参考文献;两区域系统。,基于Simulink的永磁风机与飞轮储能系统二次调频研究:频率特性及调频参数优化
MATLAB驱动的ASR防滑转模型:PID与对照控制算法对比,冰雪路面条件下滑移率与车速轮速对照展示,MATLAB驱动的ASR防滑转模型:PID与对照控制算法对比,冰雪路面条件下滑移率与车速轮速对照图展示,MATLAB驱动防滑转模型ASR模型 ASR模型驱动防滑转模型 ?牵引力控制系统模型 选择PID控制算法以及对照控制算法,共两种控制算法,可进行选择。 选择冰路面以及雪路面,共两种路面条件,可进行选择。 控制目标为滑移率0.2,出图显示车速以及轮速对照,出图显示车辆轮胎滑移率。 模型简单,仅供参考。 ,MATLAB; ASR模型; 防滑转模型; 牵引力控制系统模型; PID控制算法; 对照控制算法; 冰路面; 雪路面; 控制目标; 滑移率; 车速; 轮速。,MATLAB驱动的ASR模型:PID与对照算法在冰雪路面的滑移率控制研究
芯片失效分析方法介绍 -深入解析芯片故障原因及预防措施.pptx
4131_127989170.html
内容概要:本文提供了一个全面的PostgreSQL自动化部署解决方案,涵盖智能环境适应、多平台支持、内存与性能优化以及安全性加强等重要方面。首先介绍了脚本的功能及其调用方法,随后详细阐述了操作系统和依赖软件包的准备过程、配置项的自动生成机制,还包括对实例的安全性和监控功能的强化措施。部署指南给出了具体的命令操作指导,便于新手理解和执行。最后强调了该工具对于不同硬件条件和服务需求的有效应对能力,特别是针对云计算环境下应用的支持特点。 适合人群:对PostgreSQL集群运维有一定基础并渴望提高效率和安全性的数据库管理员及工程师。 使用场景及目标:本脚本能够帮助企业在大规模部署时减少人工介入时间,确保系统的稳定性与高性能,适用于各类需要稳定可靠的数据库解决方案的企业或机构,特别是在大数据量和高并发事务处理场合。 其他说明:文中还提及了一些高级功能如自动备份、流复制等设置步骤,使得该方案不仅可以快速上线而且能满足后续维护和发展阶段的要求。同时提到的技术性能数据也为用户评估其能否满足业务需求提供了直观参考。
房地产开发合同[示范文本].doc
在日常的工作和学习中,你是否常常为处理复杂的数据、生成高质量的文本或者进行精准的图像识别而烦恼?DeepSeek 或许就是你一直在寻找的解决方案!它以其高效、智能的特点,在各个行业都展现出了巨大的应用价值。然而,想要充分发挥 DeepSeek 的优势,掌握从入门到精通的知识和技能至关重要。本文将从实际应用的角度出发,为你详细介绍 DeepSeek 的基本原理、操作方法以及高级技巧。通过系统的学习,你将能够轻松地运用 DeepSeek 解决实际问题,提升工作效率和质量,让自己在职场和学术领域脱颖而出。现在,就让我们一起开启这场实用又高效的学习之旅吧!
在日常的工作和学习中,你是否常常为处理复杂的数据、生成高质量的文本或者进行精准的图像识别而烦恼?DeepSeek 或许就是你一直在寻找的解决方案!它以其高效、智能的特点,在各个行业都展现出了巨大的应用价值。然而,想要充分发挥 DeepSeek 的优势,掌握从入门到精通的知识和技能至关重要。本文将从实际应用的角度出发,为你详细介绍 DeepSeek 的基本原理、操作方法以及高级技巧。通过系统的学习,你将能够轻松地运用 DeepSeek 解决实际问题,提升工作效率和质量,让自己在职场和学术领域脱颖而出。现在,就让我们一起开启这场实用又高效的学习之旅吧!
工程技术承包合同[示范文本].doc
蓝桥杯开发赛【作品源码】
在日常的工作和学习中,你是否常常为处理复杂的数据、生成高质量的文本或者进行精准的图像识别而烦恼?DeepSeek 或许就是你一直在寻找的解决方案!它以其高效、智能的特点,在各个行业都展现出了巨大的应用价值。然而,想要充分发挥 DeepSeek 的优势,掌握从入门到精通的知识和技能至关重要。本文将从实际应用的角度出发,为你详细介绍 DeepSeek 的基本原理、操作方法以及高级技巧。通过系统的学习,你将能够轻松地运用 DeepSeek 解决实际问题,提升工作效率和质量,让自己在职场和学术领域脱颖而出。现在,就让我们一起开启这场实用又高效的学习之旅吧!
CVPR2023复现技术:多数据集验证下的YOLOX、YOLOv5及YOLOV7检测涨点助力器,CVPR2023复现实验助力检测涨点,验证了YOLOX、YOLOv5及YOLOV7在多个数据集上的有效性,cvpr2023复现,助力检测涨点,YOLOX YOLOv5 YOLOV7均有效,再多个数据集验证有效 ,cvpr2023复现; 助力检测涨点; YOLOX有效; YOLOv5有效; YOLOV7有效; 多数据集验证有效,CVPR2023复现成功:多模型检测涨点验证有效