- 浏览: 86919 次
- 性别:
- 来自: 郑州
文章分类
- 全部博客 (69)
- java (28)
- linux (6)
- redis (4)
- C# (3)
- 架构 (10)
- java ee (1)
- web (1)
- 操作系统 (7)
- sqlserver (1)
- android (2)
- Hadoop (12)
- 大数据 (21)
- 分布式 事务 消息 (10)
- linux mysql (1)
- 数据库 (3)
- 关于hadoop之bootshell使用 (2)
- 关于hbase---HTableInterfaceFactory (1)
- Spring (3)
- Hbase (5)
- jstorm (10)
- nginx (1)
- 分布式 (1)
- 区块链 (3)
- dubbo (1)
- nacos (1)
- 阿里 (1)
- go (3)
- 缓存 (1)
- memcached (1)
- ssdb (1)
- 源码 (1)
最新评论
-
想个可以用的名字:
楼主,能不能给发一份源代码,1300246542@qqq.co ...
spring+websocket的使用 -
wahahachuang5:
web实时推送技术使用越来越广泛,但是自己开发又太麻烦了,我觉 ...
websocket -
dalan_123:
前提是你用的是spring mvc 才需要加的1、在web.x ...
spring+websocket的使用 -
string2020:
CharacterEncodingFilter这个filter ...
spring+websocket的使用
一、源码如下
/**
* Synchronization manager handling the tracking of Hbase resources (specifically tables). Used either manually or through {@link HbaseInterceptor} to bind a table to the thread.
* Each subsequent call made through {@link HbaseTemplate} is aware of the table bound and will use it instead of retrieving a new instance.
* HbaseSynchronizationManager是作为hbase资源同步管理跟踪(特别是表);可以通过手动管理;也可以结合HbaseInterceptor将table绑定thread
* 随后的操作可以通过表绑定,而不是再重新创建新的对象
* @author Costin Leau
*/
public abstract class HbaseSynchronizationManager {
private static final Log logger = LogFactory.getLog(HbaseSynchronizationManager.class);
// 创建ThreadLocal 用来存放tableName与Hbase table之间的映射内容
private static final ThreadLocal<Map<String, HTableInterface>> resources = new NamedThreadLocal<Map<String, HTableInterface>>("Bound resources");
/**
* Checks whether any resource is bound for the given key.
* 检查指定的table name 判断与其对应的hbase table resource 是否存在
* @param key key to check
* @return whether or not a resource is bound for the given key
*/
public static boolean hasResource(Object key) {
Object value = doGetResource(key);
return (value != null);
}
/**
* Returns the resource (table) associated with the given key.
* 根据指定的table name 返回对应的hbase table 内容
* @param key association key
* @return associated resource (table)
*/
public static HTableInterface getResource(Object key) {
return doGetResource(key);
}
/**
* Actually checks the value of the resource that is bound for the given key.
* 根据table name 返回对应的hbase table 内容
*/
private static HTableInterface doGetResource(Object actualKey) {
Map<String, HTableInterface> tables = resources.get();
if (tables == null) {
return null;
}
return tables.get(actualKey);
}
/**
* Binds the given resource for the given key to the current thread.
* 将key对应的resources添加到map中,并绑定到当前线程
* @param key the key to bind the value to (usually the resource factory)
* @param value the value to bind (usually the active resource object)
* @throws IllegalStateException if there is already a value bound to the thread
* @see ResourceTransactionManager#getResourceFactory()
*/
public static void bindResource(String key, HTableInterface value) throws IllegalStateException {
Assert.notNull(value, "Value must not be null");
// 判断当前线程中是否包含映射内容
// 若是存在 直接添加新内容
// 若不存在 则先创建map 再将对应的东西 再将map绑定到当前的线程 添加具体内容
Map<String, HTableInterface> map = resources.get();
// set ThreadLocal Map if none found
if (map == null) {
map = new LinkedHashMap<String, HTableInterface>();
resources.set(map);
}
HTableInterface oldValue = map.put(key, value);
if (oldValue != null) {
throw new IllegalStateException("Already value [" + oldValue + "] for key [" + key
+ "] bound to thread [" + Thread.currentThread().getName() + "]");
}
if (logger.isTraceEnabled()) {
logger.trace("Bound value [" + value + "] for key [" + key + "] to thread ["
+ Thread.currentThread().getName() + "]");
}
}
/**
* Unbinds a resource for the given key from the current thread.
* @param key the key to unbind (usually the resource factory)
* @return the previously bound value (usually the active resource object)
* @throws IllegalStateException if there is no value bound to the thread
* @see ResourceTransactionManager#getResourceFactory()
*/
public static HTableInterface unbindResource(String key) throws IllegalStateException {
HTableInterface value = doUnbindResource(key);
if (value == null) {
throw new IllegalStateException("No value for key [" + key + "] bound to thread ["
+ Thread.currentThread().getName() + "]");
}
return value;
}
/**
* Unbinds a resource for the given key from the current thread.
*
* @param key the key to unbind (usually the resource factory)
* @return the previously bound value, or <code>null</code> if none bound
*/
public static Object unbindResourceIfPossible(Object key) {
return doUnbindResource(key);
}
/**
* Actually remove the value of the resource that is bound for the given key.
* 根据指定key(table name) 完成将指定的资源 移除当前线程
*/
private static HTableInterface doUnbindResource(Object actualKey) {
Map<String, HTableInterface> map = resources.get();
if (map == null) {
return null;
}
HTableInterface value = map.remove(actualKey);
// 在解除指定的table name所关联的资源后,防止对应的map不能为空 进行map判断
// Remove entire ThreadLocal if empty...
if (map.isEmpty()) {
resources.remove();
}
if (value != null && logger.isTraceEnabled()) {
logger.trace("Removed value [" + value + "] for key [" + actualKey + "] from thread ["
+ Thread.currentThread().getName() + "]");
}
return value;
}
/**
* Returns the bound tables (by name).
*
* @return names of bound tables
*
*/
public static Set<String> getTableNames() {
Map<String, HTableInterface> map = resources.get();
if (map != null && !map.isEmpty()) {
return Collections.unmodifiableSet(map.keySet());
}
return Collections.emptySet();
}
}
/**
* Synchronization manager handling the tracking of Hbase resources (specifically tables). Used either manually or through {@link HbaseInterceptor} to bind a table to the thread.
* Each subsequent call made through {@link HbaseTemplate} is aware of the table bound and will use it instead of retrieving a new instance.
* HbaseSynchronizationManager是作为hbase资源同步管理跟踪(特别是表);可以通过手动管理;也可以结合HbaseInterceptor将table绑定thread
* 随后的操作可以通过表绑定,而不是再重新创建新的对象
* @author Costin Leau
*/
public abstract class HbaseSynchronizationManager {
private static final Log logger = LogFactory.getLog(HbaseSynchronizationManager.class);
// 创建ThreadLocal 用来存放tableName与Hbase table之间的映射内容
private static final ThreadLocal<Map<String, HTableInterface>> resources = new NamedThreadLocal<Map<String, HTableInterface>>("Bound resources");
/**
* Checks whether any resource is bound for the given key.
* 检查指定的table name 判断与其对应的hbase table resource 是否存在
* @param key key to check
* @return whether or not a resource is bound for the given key
*/
public static boolean hasResource(Object key) {
Object value = doGetResource(key);
return (value != null);
}
/**
* Returns the resource (table) associated with the given key.
* 根据指定的table name 返回对应的hbase table 内容
* @param key association key
* @return associated resource (table)
*/
public static HTableInterface getResource(Object key) {
return doGetResource(key);
}
/**
* Actually checks the value of the resource that is bound for the given key.
* 根据table name 返回对应的hbase table 内容
*/
private static HTableInterface doGetResource(Object actualKey) {
Map<String, HTableInterface> tables = resources.get();
if (tables == null) {
return null;
}
return tables.get(actualKey);
}
/**
* Binds the given resource for the given key to the current thread.
* 将key对应的resources添加到map中,并绑定到当前线程
* @param key the key to bind the value to (usually the resource factory)
* @param value the value to bind (usually the active resource object)
* @throws IllegalStateException if there is already a value bound to the thread
* @see ResourceTransactionManager#getResourceFactory()
*/
public static void bindResource(String key, HTableInterface value) throws IllegalStateException {
Assert.notNull(value, "Value must not be null");
// 判断当前线程中是否包含映射内容
// 若是存在 直接添加新内容
// 若不存在 则先创建map 再将对应的东西 再将map绑定到当前的线程 添加具体内容
Map<String, HTableInterface> map = resources.get();
// set ThreadLocal Map if none found
if (map == null) {
map = new LinkedHashMap<String, HTableInterface>();
resources.set(map);
}
HTableInterface oldValue = map.put(key, value);
if (oldValue != null) {
throw new IllegalStateException("Already value [" + oldValue + "] for key [" + key
+ "] bound to thread [" + Thread.currentThread().getName() + "]");
}
if (logger.isTraceEnabled()) {
logger.trace("Bound value [" + value + "] for key [" + key + "] to thread ["
+ Thread.currentThread().getName() + "]");
}
}
/**
* Unbinds a resource for the given key from the current thread.
* @param key the key to unbind (usually the resource factory)
* @return the previously bound value (usually the active resource object)
* @throws IllegalStateException if there is no value bound to the thread
* @see ResourceTransactionManager#getResourceFactory()
*/
public static HTableInterface unbindResource(String key) throws IllegalStateException {
HTableInterface value = doUnbindResource(key);
if (value == null) {
throw new IllegalStateException("No value for key [" + key + "] bound to thread ["
+ Thread.currentThread().getName() + "]");
}
return value;
}
/**
* Unbinds a resource for the given key from the current thread.
*
* @param key the key to unbind (usually the resource factory)
* @return the previously bound value, or <code>null</code> if none bound
*/
public static Object unbindResourceIfPossible(Object key) {
return doUnbindResource(key);
}
/**
* Actually remove the value of the resource that is bound for the given key.
* 根据指定key(table name) 完成将指定的资源 移除当前线程
*/
private static HTableInterface doUnbindResource(Object actualKey) {
Map<String, HTableInterface> map = resources.get();
if (map == null) {
return null;
}
HTableInterface value = map.remove(actualKey);
// 在解除指定的table name所关联的资源后,防止对应的map不能为空 进行map判断
// Remove entire ThreadLocal if empty...
if (map.isEmpty()) {
resources.remove();
}
if (value != null && logger.isTraceEnabled()) {
logger.trace("Removed value [" + value + "] for key [" + actualKey + "] from thread ["
+ Thread.currentThread().getName() + "]");
}
return value;
}
/**
* Returns the bound tables (by name).
*
* @return names of bound tables
*
*/
public static Set<String> getTableNames() {
Map<String, HTableInterface> map = resources.get();
if (map != null && !map.isEmpty()) {
return Collections.unmodifiableSet(map.keySet());
}
return Collections.emptySet();
}
}
发表评论
-
nacos单机源码调试
2018-12-17 11:35 1218首先从github上获取对应的源码Nacos源码git cl ... -
jstorm源码之TransactionalState
2016-03-21 19:31 887一、作用 主要是通过结合zookeeper,在zookee ... -
jstorm源码之RotatingTransactionalState
2016-03-21 19:29 578一、作用 构建一个Rotationg transacti ... -
jstorm源码之PartitionedTridentSpoutExecutor
2016-03-21 19:28 886一、作用 Partition Spout对应的exec ... -
jstorm源码之 RichSpoutBatchExecutor
2016-03-21 19:28 0一、作用 RichSpoutBatchExecutor是IRi ... -
jstorm源码之RotatingMap
2016-03-21 19:27 875一、作用 基于LinkedList + HashM ... -
jstorm源码之 RichSpoutBatchExecutor
2016-03-21 19:24 613一、作用 RichSpoutBatchExecutor是IRi ... -
jstorm源码之TridentTopology
2016-03-16 18:12 2362在jstorm中对应TridentTopology的源码如下, ... -
jstorm操作命令
2016-03-15 18:04 2733启动ZOOPKEEPER zkServer.sh start ... -
JStorm之Supervisor简介
2016-03-15 18:02 1246一、简介Supervisor是JStorm中的工作节点,类似 ... -
JStorm介绍
2016-03-15 17:56 918一、简介Storm是开源的 ... -
mycat的使用---sqlserver和mysql
2016-01-11 14:33 8617数据库中间件mycat的使 ... -
jstorm安装
2015-12-03 19:43 1747关于jstorm单机安装可以 ... -
HBase系列一
2015-11-30 16:17 710关于hbase 一、客户端类 HTable 和 HTabl ... -
spring hadoop系列(六)---HbaseSystemException
2015-11-30 09:13 492一、源码 /** * HBase Data Access e ... -
spring hadoop 系列(三)--spring hadoop hbase HbaseConfigurationFactoryBean
2015-11-27 16:28 1539一、源码分析 /** * 设定Hbase指定Configu ... -
spring hadoop 系列(二)
2015-11-27 15:26 597一、源码分析 /** * * HbaseAccesso ... -
spring hadoop之batch处理(二)
2015-11-24 18:10 1521一、测试 public class MrBatchApp { ... -
spring hadoop之mapreduce batch
2015-11-24 15:51 632一、测试 // 定义hadoop configuration ... -
centos6.7 64位 伪分布 安装 cdh5.4.8 + jdk 8
2015-11-09 00:37 2318一、安装JAVA # 创建JAVA的目录 mkdir -p / ...
相关推荐
Java操作hbase完成hbase数据文件下载
Spring Boot Starter Hbase 是一个专为简化HBase操作而设计的框架组件,它与Spring Boot紧密结合,提供了在Java应用程序中轻松集成和操作HBase数据库的能力。这个压缩包"spring-boot-starter-hbase.zip"包含了所有...
2. **数据访问接口**:Spring Data Hadoop定义了一系列的Repository接口,如`HadoopRepository`,使得开发者可以通过声明式的方式操作Hadoop数据。这些接口的实现通常基于Hadoop的API,如`FileSystem`和`JobConf`,...
Spring Data Hadoop是Spring框架的一部分,它为开发人员提供了一种简单的方式来使用Hadoop生态系统的组件,如HDFS、MapReduce和HBase等。在1.0.1.RELEASE这个版本中,它继续致力于简化Hadoop编程模型,让Java开发者...
phoenix +hbase+spring 整合技术 phoenix +hbase+spring 整合技术 phoenix +hbase+spring 整合技术 根据需要 下载 集成的jar phoenix-core-4.13.0-HBase-0.98.jar
Spring Data Hadoop官方文档涉及了多个关于如何使用Spring Data Hadoop框架及其与Hadoop生态系统的集成的相关知识点。以下为文档中提到的主要知识点: 1. **Hadoop基本配置、MapReduce和分布式缓存**: - Spring ...
Spring-Boot-HBase-RESTful Spring-Boot-HBase-RESTful ##安装 brew install hadoop hbase zookeeper## HBase入门 start-hbase.sh start sudo /usr/local/Cellar/zookeeper/3.4.8/bin/zkServer start参考示例代码: ...
首先,hbase-client-2.2.4.jar是HBase客户端的核心库,它提供了与HBase服务器交互的API,包括数据的读写、扫描、行键操作等。这个版本的HBase客户端已经对HBase 2.2.4进行了优化,确保了与服务端的兼容性和性能。 ...
在Spring 3.0版本之后,Spring Data Hadoop开始被引入,为开发者提供了一套声明式的编程模型,用于处理Hadoop的MapReduce任务、HDFS操作以及HBase等组件的集成。 在集成Spring 3和Hadoop 0.2.0时,首先需要确保安装...
这是一个基于Java技术栈,利用SpringMVC、Spring、HBase和Maven构建的Hadoop分布式云盘系统的项目。该项目旨在实现一个高效的、可扩展的云存储解决方案,利用Hadoop的分布式特性来处理大规模数据存储需求。 首先,...
- **使用DAO**:Spring for Apache Hadoop提供了对HBase的数据访问对象支持,简化了与HBase的交互。 ```java public interface HBaseDao extends HBaseOperations { // 定义HBase操作方法 } ``` #### 六、与Hive...
Spring Hadoop 提供了一系列工具和 API 来与 HBase 集成,这使得开发者可以更容易地访问 HBase 数据。 #### 五、Hive 集成 ##### 5.1 启动 Hive Server Hive 是一个基于 Hadoop 的数据仓库工具,可以使用 SQL 查询...
* hbase-client:提供了HBase的客户端依赖项,版本号为1.1.2。 * spring-data-hadoop:提供了Hadoop的依赖项,版本号为2.5.0.RELEASE。 知识点3:HBase的配置 HBase的配置可以通过XML文件或注解方式进行。下面是一...
Spring for Apache Hadoop 提供了 Spring 框架用于创建和运行 Hadoop MapReduce、Hive 和 Pig 作业的功能,包括 HDFS 和 HBase。如果你需要简单的基于 Hadoop 进行作业调度,你可添加 Spring for Apache Hadoop 命名...
安装步骤包括解压HBase的tar.gz文件,配置`hbase-site.xml`以指向Hadoop的配置,然后启动HBase的各种进程(RegionServer、Master等)。通过HBase shell或者Java API,我们可以测试插入和查询数据,验证HBase的功能。...
在IT行业中,Spring框架是Java领域最常用的轻量级开源框架之一,而HBase则是一个分布式、基于列族的NoSQL数据库,适用于处理大规模数据。本教程将详细讲解如何使用Spring来操作HBase,这对于大数据处理和分布式系统...
Hadoop 2.5.2是在Hadoop 2.x系列中的一个稳定版本,它引入了许多重要的改进和优化,以提高性能、可靠性和易用性。 Hadoop主要由两个关键组件构成:HDFS(Hadoop Distributed File System)和MapReduce。HDFS是一种...
Spring 是一个强大的 Java 应用框架,提供了丰富的依赖注入、AOP(面向切面编程)和模块化功能,而 HBase 是基于 Hadoop 的分布式列式数据库,适用于实时读写和大规模数据存储。下面我们将详细探讨如何将 Spring 与 ...
在构建分布式网盘系统时,通常会涉及到多个技术栈,如大数据处理框架Hadoop、分布式数据库HBase以及微服务开发框架Spring Boot。本项目“基于hadoop+hbase+springboot实现分布式网盘系统”旨在利用这些技术搭建一个...