- 浏览: 114780 次
- 性别:
- 来自: 北京
-
文章分类
- 全部博客 (109)
- hive (5)
- web (1)
- spring (7)
- struts2 (1)
- s2sh (2)
- mysql (3)
- hadoop (31)
- hbase (6)
- java (8)
- ubuntu (8)
- pig (2)
- Interview (2)
- zookeeper (1)
- system (1)
- 遥控 (1)
- linux (3)
- myeclipse (2)
- Oracle (1)
- redis (9)
- ibatis (2)
- 架构 (2)
- 解析xml (1)
- autoProxy (0)
- jedis (6)
- http://www.infoq.com/cn/articles/tq-redis-copy-build-scalable-cluster (1)
- xmemcached (1)
- 图片服务器 (1)
- 对象池 (0)
- netty (1)
最新评论
-
laoma102:
已经不好使了,能找到最新的吗
spring官方文档 -
di1984HIT:
不错,。不错~
pig安装
http://www.360doc.com/content/11/0406/18/11586_107636584.shtml
发表评论
-
mapreduce Bet
2012-04-11 15:00 925import java.io.IOException; imp ... -
hadoop 输出格式
2012-04-05 17:18 729http://blog.csdn.net/dajuezhao/ ... -
hadoop mapreduce 原理
2012-03-31 16:14 699http://www.cnblogs.com/forfutur ... -
hadoop搭建问题
2012-03-30 13:23 811file:///E:/hadoop/搭建/hadoop集群搭建 ... -
hadoop输出文件格式
2012-03-26 10:09 658http://apps.hi.baidu.com/share/ ... -
hadoop 学习
2012-03-26 09:48 658http://hi.baidu.com/shuyan50/bl ... -
hadoop提高性能建议
2012-03-22 22:40 686http://langyu.iteye.com/blog/91 ... -
hadoop例子
2012-03-22 22:09 736http://www.hadoopor.com/thread- ... -
hadoop
2012-04-25 13:16 754精通HADOOP http://blog.csdn.net/ ... -
Hadoop Hive与Hbase整合
2012-03-07 15:02 362http://www.open-open.com/lib/vi ... -
hive hadoop 代码解析
2012-04-25 13:16 798http://www.tbdata.org/archives/ ... -
Hadoop MapReduce操作MySQL
2012-03-05 17:33 895http://www.javabloger.com/artic ... -
hadoop hdfs常用操作类
2012-03-05 10:03 1962import java.io.IOException; ... -
hdfs 操作类自己的
2012-03-02 17:57 562package operateFile; import ... -
hadoo 文件常用操作
2012-03-02 15:53 781http://www.360doc.com/content/1 ... -
Mapper,Reducer,Wrapper的Java模板
2012-03-02 08:24 1119http://www.easyigloo.org/?p=114 ... -
hadoop基础知识
2012-03-02 08:00 744http://www.blogjava.net/killme2 ... -
HadoopFileUtil
2012-03-01 14:42 1840import java.io.File; import jav ... -
hadoop ExtendedFileUtil
2012-03-01 14:34 1056在Hadoop编写生产环境的任务时,定义以下任务,要求是相同的 ... -
hadoop StringUtil
2012-03-01 14:33 864import java.util.*; public cla ...
相关推荐
Java接口在Hadoop中扮演着核心角色,提供了丰富的API供开发者进行编程。本篇将深入探讨如何利用Hadoop的Java接口进行文件操作,实现对Hadoop服务的增、删、改、查等功能。 首先,我们要了解Hadoop的核心组件:HDFS...
这个压缩包"基于Hadoop-3.1.1版本的hdfs操作封装.zip"显然包含了与Hadoop分布式文件系统(HDFS)操作相关的代码或工具,可能是为了简化对HDFS的编程接口,使得开发人员能更方便地进行数据读写和管理。Hadoop 3.1.1是...
Hadoop并没有使用Java的序列化机制,而是自己定义了大量的可序列化对象,这些对象都实现了Writable接口。实现Writable接口的类可以将对象数据编码成适合网络传输的格式,并能够从这种格式中解码。 Hadoop的...
例如,我们可以创建一个Spring Bean来封装Hadoop的NameNode或DataNode服务,然后通过Spring的依赖注入,让其他服务或组件能够便捷地使用这些Hadoop服务。 为了实现Hadoop与Spring的集成,开发者通常会遵循以下步骤...
这个文件对于Hadoop在Windows上的运行至关重要,因为它提供了与Hadoop生态系统交互的接口,例如HDFS(Hadoop分布式文件系统)和MapReduce的本地操作。 `winutils.exe`则是Hadoop在Windows下的实用工具集,它包含了...
Spring Data Hadoop项目是Spring对Hadoop生态系统的抽象和封装,它简化了Hadoop配置,提供了高层次的API,使得开发者可以更加专注于业务逻辑,而非底层的基础设施。在Spring 3.0版本之后,Spring Data Hadoop开始被...
Hadoop原本设计在Linux系统上,但随着Windows对开源软件的接纳,Hadoop.dll成为了Windows用户运行Hadoop的关键组件,它封装了Windows系统调用,使Hadoop能与Windows操作系统进行交互。 2. **Winutils.exe**:这也是...
* fs:提供文件系统的抽象,可以理解为支持多种文件系统实现的统一文件访问接口。 * hdfs:提供 HDFS 的实现。 * ipc:提供一个简单的 IPC 的实现,依赖于 io 提供的编解码功能。 * io:提供数据的编解码功能。 * ...
ZooKeeper的设计目标是将这些复杂的分布式协调服务封装起来,向应用层提供简单易用的接口。 Hadoop的生态系统还包括了其他一些组件,例如: - Chukwa:它是基于Hadoop的开源数据收集系统,用于监控大型分布式系统...
2. **数据访问接口**:Spring Data Hadoop定义了一系列的Repository接口,如`HadoopRepository`,使得开发者可以通过声明式的方式操作Hadoop数据。这些接口的实现通常基于Hadoop的API,如`FileSystem`和`JobConf`,...
3. **序列化与反序列化**:Hadoop RPC使用Writables接口进行数据序列化,将对象转化为字节流在网络中传输,到达目的地后再反序列化为对象。这确保了数据在网络间的有效传输。 4. **安全认证**:为了保证通信安全,...
3. **MapReduce改进**:新的MapReduce框架(MRv2)与YARN紧密集成,使得任务调度更加高效,同时引入了Container概念,封装了执行环境,减少了资源浪费。 4. **故障恢复与容错机制**:Hadoop 2.0.4增强了故障检测和...
在 Spring Hadoop 中,`HadoopJobTasklet` 提供了一个接口来实现自定义的 Hadoop 作业逻辑。 ##### 2.6 运行 Hadoop 工具 除了标准的 MapReduce 作业外,还可以使用 Hadoop 提供的各种工具,如 `fs` 命令行工具来...
这个包包含了Hadoop中的基本输入/输出类,如`BytesWritable`、`Text`等,以及序列化和反序列化机制,如`Writable`和`WritableComparable`接口。这些接口和类是HDFS数据传输的基础。 #### 3.2 RPC实现方法 Hadoop...
为了满足Hadoop内部组件之间的通信需求,Hadoop并没有采用Java内置的序列化方式,而是引入了自己的序列化机制。这种机制主要集中在`org.apache.hadoop.io`包中,定义了一系列可序列化的对象,并要求这些对象实现`...
Hadoop的序列化机制不同于Java的内置序列化,它采用了Writable接口。任何实现了Writable接口的类,如示例中的`MyWritable`,都需要提供`write()`方法来实现数据的序列化,以及`readFields()`方法来实现反序列化。...
9. **容器化与微服务**:Docker和Kubernetes等技术的兴起,使得Hadoop组件可以被封装在容器中,方便构建微服务架构,提高系统的弹性和可维护性。 10. **数据湖与数据仓库**:Hadoop与Hive、HBase、Parquet等技术...
`hadoop.cmd`是Hadoop命令的封装,用于执行Hadoop相关的操作,如启动和停止Hadoop服务,查看集群状态等。`hdfs.cmd`则是针对HDFS(Hadoop Distributed File System)的命令行工具,用户可以通过它来操作HDFS上的文件...
在CDH(Cloudera Distribution Including Apache Hadoop)5.3.1版本中,这是对Hadoop的一个企业级封装,它包含了各种Hadoop相关组件和服务,如HBase、Hive、Spark等,以及针对不同硬件和操作系统的优化。CDH的目标是...
Hadoop并没有使用Java自带的序列化机制,而是引入了自己的序列化系统。序列化对象在`org.apache.hadoop.io`包中定义,并实现了Writable接口。任何实现了Writable接口的类,都需要定义`write(DataOutput out)`和`...