原创文章:转载请注明出处http://wangwei3.iteye.com/blog/895867
最近需要把hadoop的HDFS替换成KFS。
其实具体性能的差异我还没有测试过。不过理论上说,C+写的KFS应该在性能上比HDFS更胜一筹。
关于底层的FS的支持。hadoop的扩展性着实不错。KFS便是其中一种
那么如何配置呢?
首先KFS必须先部署起来(具体过程不讲解了)。测试OK后
我们继续hadoop
一。修改core-site.xml,添加以下语句:
<property>
<name>fs.kfs.impl</name>
<value>org.apache.hadoop.fs.kfs.KosmosFileSystem</value>
<description>The FileSystem for kfs: uris.</description>
</property>
<property>
<name>fs.default.name</name>
<value>kfs://<server:port></value>
</property>
<property>
<name>fs.kfs.metaServerHost</name>
<value><server></value>
<description>The location of the KFS meta server.</description>
</property>
<property>
<name>fs.kfs.metaServerPort</name>
<value><port></value>
<description>The location of the meta server's port.</description>
</property>
<server:port>:填写KFS系统的服务 例如 :kfs://192.168.1.1:20000
<server>:填写KFS系统的IP 例如:192.168.1.1
<port>:填写KFS系统的端口 例如:20000
二。hadoop中已有kfs的jar包,但是可能KFS和hadoop的jar包版本不一样。所以一定要删除hadoop中的jar包,拷贝KFS的jar包到hadoop的lib中。文件名为:kfs-0.5.jar
三。修改hadoop-env.sh加入一段export LIBERARY_PATH=path
如果kfs和hadoop部署在同一台机器上,path就是KFS存放so包的那个文件路径。如果不在一台机器上则需要把kfs so 文件全都拷贝到hadoop那台机器上的任意路径
注意:so是分系统版本号的有64位和32位的千万表弄混了。否则就很杯具的。
但是按照以上的配置方法是无法正常启动的
一。我们还需要配置map/reducer
修改mapred-site.xml加入以下语句
<property>
<name>mapred.job.tracker</name>
<value>hdfs://192.168.1.1:9001</value>
</property>
二。需要把 libkfsClient.so和libkfs_access.so拷贝到hadoop中的/lib/native/linux-i386-32目录下
接下来就可以启动hadoop了
试着拷贝,或者新建个目录如果可以在kfs中查看到说明就OK了
原创文章:转载请注明出处http://wangwei3.iteye.com/blog/895867
分享到:
相关推荐
我们将对HDFS和KFS在架构、设计原则、性能等方面进行深入的比较。 1. **架构设计** - HDFS采用了主从结构(Master-Slave),由一个NameNode作为主节点负责元数据管理,多个DataNode作为从节点存储数据块。这种设计...
HDFS(Hadoop Distributed File System)和KFS(Kosmos File System)都是GFS(Google File System)的开源实现,它们被设计用来处理大规模分布式存储。HDFS是Hadoop生态系统的一部分,使用Java语言开发,擅长处理高...
- **支持文件系统**: 包括Hadoop Distributed File System (HDFS)、Kosmos File System (KFS)和本地文件系统。 - **存储模式**: Tablet的数据永久存储在DFS上的CellStore文件、log文件以及Hyperspace上的schema中。 ...
6. `KFS`:Kosmos文件系统,一种类似HDFS和Google GFS的系统。 7. `FtpFileSystem`:FTP服务器支持的文件系统。 8. `S3`:Amazon S3的两种访问方式,`s3n`(本地)和`s3`(基于块)。 HDFS文件的读取过程涉及以下...
⼤数据技术体系 ⽂件存储:Hadoop HDFS、Tachyon、KFS 离线计算:Hadoop MapReduce、Spark 流式、实时计算:Storm、Spark Streaming、S4、Heron K-V、NOSQL数据库:HBase、Redis、MongoDB 资源管理:YARN、Mesos ⽇...
2. **分块存储**:KFS 将大文件分割成固定大小的数据块,并将这些数据块复制到多个节点上,通常为3份,以实现容错。这种分块策略有利于并行处理,提高读写效率。 3. **元数据管理**:元数据服务负责跟踪文件和数据...
在像GFS或HDFS(Hadoop分布式文件系统)这样的系统中,文件被分成固定大小的数据块(chunk或block),这些数据块被存储在不同的节点上。KFS可能也采用了类似的机制,以实现负载均衡和容错。 在文档中还提到了多个...
HDFS (Hadoop Distributed File System)** - **基本概念和架构** - **概念**: Hadoop的核心组件之一,用于存储和处理大规模数据集。 - **基本架构** - **Blocks**: 数据块是最小的存储单位。 - **NameNode**: ...
Hadoop Distributed File System(HDFS)是Hadoop项目的核心之一,旨在存储大量数据并提供高效的数据访问能力。 **特点和目标** - **硬件故障**:设计时考虑到了硬件故障的可能性,具备自动恢复机制。 - **流式的...
它建立在分布式并行文件系统之上,如GFS、Hadoop HDFS、KFS等,提供了结构化的数据组织,支持类似SQL的接口,方便用户进行数据操作。 2. **数据模型** - **行键(Row Key)**:Hypertable的数据组织成多维稀疏矩阵...
与Hadoop一同发展起来的Kosmos文件系统(KFS)以及Hadoop分布式文件系统(HDFS)都是分布式数据存储系统的重要组成部分。 物联网数据挖掘在云计算平台上的优势主要表现在以下几个方面:首先,云计算平台能提供足够...
从提供的文件内容看,目前市场上存在多种应用级分布式文件系统,例如HDFS(Hadoop Distributed File System)、MogileFS、FastDFS、GFS(Google File System)、pNFS(并行网络文件系统)、KFS等。HDFS是Hadoop项目...
随着互联网技术的发展,尤其是云计算平台的出现,分布式应用程序需要处理大量...HDFS、KFS等,在此基础上,Hypertable实现了分布式结构化的数据组织,Hypertable可以对海量的结构化的数据(PB级)提供面向表形式的组织方
而随着非结构化数据量的激增,审计人员必须借助Hadoop、HDFS、KFS、GFS等系统来处理这些数据。通过这些技术手段,审计人员可以更好地把握企业的发展状况,对企业的内控和风险做出全面评估。 综上所述,在大数据背景...