- 浏览: 141790 次
- 性别:
- 来自: 深圳
文章分类
- 全部博客 (43)
- web服务器 (1)
- Linux (6)
- MySQL (3)
- xen (1)
- SpringSide (2)
- Windows (1)
- WebService (1)
- Hadoop (12)
- hbase (0)
- sqoop (1)
- Java (1)
- SQL Server 存储过程 xml (0)
- hive mysql (1)
- Eclipse Hadoop 源码 编译 (1)
- Perl (2)
- Shell (1)
- Nutch (1)
- NFS (0)
- CHM (0)
- SVN (1)
- eclipse (1)
- NekoHTML (0)
- MapReduce (0)
- hive (2)
- spring hibernate (0)
- jsp (0)
- CYGWIN (0)
- maven (0)
- selenium server (0)
- CentOS (1)
- hibernate (1)
- spring mvc (0)
- Mahout (0)
- openvpn (0)
- vpn (0)
- kvm (0)
- git (1)
- CPU (1)
- thrift avro (0)
最新评论
-
rmn190:
不错, 多谢分享!
hdfs mount为linux本地文件系统 -
melburg:
请教一下,hadoop 1.0.3版本中,为什么无法启动bac ...
Hadoop SecondaryNameNode备份及恢复
1、软件下载
http://code.google.com/p/hdfs-webdav/downloads/list
把war包放到tomcat下面,启动tomcat会自动解压该war包,在/usr/tomcat6/webapps/hdfs-webdav/linux_mount_lib/目录下有fuse-2.7.4.tar.gz和neon-0.28.3.tar.gz,所以下面的包也可以不用下载
neon
http://www.webdav.org/neon/neon-0.29.6.tar.gz
fuse
http://sourceforge.net/projects/fuse/files/fuse-2.X/2.8.7/
2、软件安装
yum install gcc
yum install libxml*
tar -zxvf neon-0.28.3.tar.gz
cd /usr/tomcat6/webapps/hdfs-webdav/linux_mount_lib/neon-0.28.3
./configure
make
make install
cd ..
tar zxvf davfs2-1.3.3.tar.gz
cd davfs2-1.3.3
./configure
make
make install
cd ..
tar zxvf fuse-2.7.4.tar.gz
cd fuse-2.7.4
./configure
make
make install
vim /usr/tomcat6/webapps/hdfs-webdav/WEB-INF/classes/hadoop-site.xml
<property>
<name>fs.default.name</name>
<value>hdfs://10.0.30.235:9000/</value>
<description>namenode</description>
</property>
scp 10.0.30.151:/download/hadoop-0.20.203.0/hadoop-core-0.20.203.0.jar /usr/tomcat6/webapps/hdfs-webdav/WEB-INF/lib/
并删除掉lib目录下旧的hadoop jar包
scp 10.0.30.151:/download/hadoop-0.20.203.0/lib/commons-configuration-1.6.jar /usr/tomcat6/webapps/hdfs-webdav/WEB-INF/lib
启动hadoop集群
启动tomcat
访问http://113.105.131.240/hdfs-webdav
在tomcat服务器上创建一下信息
mkdir /download/hdfs
groupadd davfs2
useradd -g davfs2 davfs2
mount -t davfs http://10.0.30.151/hdfs-webdav /download/hdfs
cd /download/hdfs
ls
至此,扩展hadoop hdfs,实现WebDav协议,并将hdfs mount为linux本地文件系统成功!
发表评论
-
升级hadoop
2013-10-09 10:21 1451在没有更换前先备份数据 [hadoop@Hadoop-1 ... -
hadoop的Avatar机制
2013-08-21 15:45 0http://www.wangyuxiong.com/arch ... -
hive
2013-07-31 14:12 0hive行号 select row_number() o ... -
Hadoop RACK ID Awareness Configuration
2013-01-25 17:21 0The configuration includes ... -
window hadoop
2012-12-28 14:31 0http://hayesdavis.net/2008/06/1 ... -
hadoop读写流程
2012-07-27 15:20 0客户端通过调用FileSystem ... -
hadoop三个配置文件的参数含义说明
2012-07-14 13:03 02 常用的端口配置 2.1 HDFS端 ... -
编译hadoop 1.0.3 eclipse plugin jar包
2012-09-13 10:32 2378环境:Win 7 32bit 1、修改hadoop- ... -
编译hadoop 1.0.3 eclipse plugin jar包
2012-07-07 23:21 3969环境:Win 7 32bit 1、修改hadoop-1. ... -
hadoop fsck使用
2012-05-08 15:05 0首先,执行fsck命令行的客户端必须在hdfs-site.xm ... -
hive使用
2012-05-03 17:33 0[root@cnn001 hive-0.8.1]# bin/h ... -
AvatarNode
2012-04-24 13:28 0http://blog.csdn.net/rzhzhz/art ... -
扩展hadoop hdfs,实现WebDav协议,将hdfs mount为linux本地文件系统
2012-03-15 16:18 1556本文引自:http://badqiu.iteye.com/bl ... -
Hadoop MapReduce统计指定目录下所有文本文件中数字总和
2012-03-06 16:16 0package org.apache.hadoop.exa ... -
Hadoop Zookeeper HBase集群
2012-02-16 16:19 9209注:Hadoop环境搭建请参考上一篇文档。 环境: ... -
Hadoop NameNode NFS备份及恢复
2012-02-16 14:28 1515准备任意一台Linux服务器 [root@localhost ... -
Hadoop SecondaryNameNode备份及恢复
2012-02-15 17:22 68811、同步各个服务器时间 yum install ntp n ... -
Hadoop 0.20.205.0安装配置
2012-02-15 15:55 1281环境: 10.0.30.235 NameNode ... -
hadoop mapred-default.xml配置文件
2012-02-15 13:25 4200name value description ... -
hadoop hdfs-default.xml配置文件
2012-02-15 13:05 4177name value description d ...
相关推荐
允许将远程HDFS挂载为本地Linux文件系统,并允许任意应用程序/ Shell脚本以有效且安全的方式将HDFS作为普通文件和目录进行访问。 功能(计划中) 高性能 使用协议缓冲区直接为FUSE和HDFS连接Linux内核(不需要Java...
它继承了Unix以网络为核心的设计思想,是一个性能稳定的多用户网络操作系统,Linux是许多企业和服务提供商的首选操作系统,用于部署Web服务器、数据库服务器、邮件服务器等。Linux系统具有高效的网络功能和稳定的...
6. linux_mount_lib:可能包含Linux系统下挂载HDFS或WebDAV的相关脚本和库文件。 综上所述,这个压缩包可能包含如何在Hadoop 2.0环境下,通过WebDAV实现HDFS的远程访问和挂载为NFS的详细步骤、源代码示例、配置文件...
2. `nfsd`:这是NFS服务器的主要组件,处理来自客户端的文件系统请求,并将这些请求转发到本地文件系统。 3. `/etc/exports`:这是NFS服务器的配置文件,定义了哪些目录可以被共享,以及对这些目录的访问控制规则。...
根据提供的文件内容,知识点可以从以下...- 格式化HDFS文件系统。 - 启动Hadoop集群。 以上知识点涵盖了操作系统准备工作、配置yum源、Linux命令操作和网络信息提供等多个方面,是安装Hadoop伪分布式环境的必要步骤。
完成上述步骤后,就可以将HDFS挂载到本地文件系统上了。 1. 进入`$HADOOP_HOME/build/contrib/fuse_dfs`目录。 2. 执行挂载命令。 ```bash ./fuse_dfs_wrapper.sh dfs://namenodeIP地址:9000/mnt/dfs ``` 其中`...
9. 初始化HDFS文件系统,执行`hadoop namenode -format`。 10. 启动Hadoop服务,包括DataNode、NameNode、ResourceManager和NodeManager。 11. 测试Hadoop集群,如运行WordCount示例程序验证安装是否成功。 在实际...
而在操作系统层面,小米使用了Linux内核版本2.6.32,调整了ulimit设置,对ext4文件系统进行了微调,设置了mount参数,关闭了文件系统的访问时间记录,使用了tune2fs命令进行优化,并启用了NTP服务。此外,还关闭了...
接着使用`mkfs -t ext4 /dev/sdc1`将分区格式化为ext4文件系统,最后使用`mount /dev/sdc1 /disk5`将分区挂载到指定目录(如/disk5)。 二、Hadoop命令的使用 1. **配置环境变量** 要在终端中使用Hadoop命令,...
Ubuntu 14.04 下 NFS 安装配置 NFS(Network File System)是一种允许不同主机之间共享文件...NFS 是一种文件目录共享模式,以本地方式进行访问,而 HDFS 是一种分布式的文件系统,能够在服务器中进行数据的负载均衡。