- 浏览: 65317 次
- 性别:
- 来自: 广州
文章分类
最新评论
-
zuo_huai:
赞一个!!!
java多线程编程 -
zuo_huai:
呵呵……,不客气
使用common-fileupload 和common-io实现文件的上传和批量上传 -
lg_asus:
呵呵,不错的东东。多谢
使用common-fileupload 和common-io实现文件的上传和批量上传
在做hadoop例子中,Win7远程连接linux服务器上的hadoop 出现一下问题:
12/04/24 15:32:44 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable 12/04/24 15:32:44 ERROR security.UserGroupInformation: PriviledgedActionException as:Administrator cause:java.io.IOException: Failed to set permissions of path: xxxxxxxx Exception in thread "main" java.io.IOException: Failed to set permissions of path: xxxxxx at org.apache.hadoop.fs.FileUtil.checkReturnValue(FileUtil.java:682) at org.apache.hadoop.fs.FileUtil.setPermission(FileUtil.java:655) at org.apache.hadoop.fs.RawLocalFileSystem.setPermission(RawLocalFileSystem.java:509) at org.apache.hadoop.fs.RawLocalFileSystem.mkdirs(RawLocalFileSystem.java:344) at org.apache.hadoop.fs.FilterFileSystem.mkdirs(FilterFileSystem.java:189) at org.apache.hadoop.mapreduce.JobSubmissionFiles.getStagingDir(JobSubmissionFiles.java:116) at org.apache.hadoop.mapred.JobClient$2.run(JobClient.java:856) at org.apache.hadoop.mapred.JobClient$2.run(JobClient.java:850) at java.security.AccessController.doPrivileged(Native Method) at javax.security.auth.Subject.doAs(Subject.java:396) at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1093) at org.apache.hadoop.mapred.JobClient.submitJobInternal(JobClient.java:850) at org.apache.hadoop.mapreduce.Job.submit(Job.java:500) at org.apache.hadoop.mapreduce.Job.waitForCompletion(Job.java:530) at
经过分析之后,需要修改hadoop的源码,我使用的是hadoop-1.0.4,修改hadoop-core-1.0.4.jar 中对应的org.apache.hadoop.fs.FileUtil 的代码为,如下:
private static void checkReturnValue(boolean rv, File p, FsPermission permission ) throws IOException { /** if (!rv) { throw new IOException("Failed to set permissions of path: " + p + " to " + String.format("%04o", permission.toShort())); } **/ }
打包之后,重新编译,放到项目中,就可以正常运行了,附件是修改之后,重新编译的hadoop-core-1.0.4.jar
- hadoop-core-1.0.4.jar (3.7 MB)
- 下载次数: 33
发表评论
-
java7-(fork-join) 的使用
2016-06-29 14:17 0public class ForkJoinTest { ... -
tomcat无法启动的问题 -Xss太小
2016-06-23 16:40 2962线上的tomcat 无法启 ... -
codis实现高可用的服务端架构
2016-01-11 11:03 0codis实现高可用的服务端架构 安装codis 用lv ... -
netty入门
2014-03-14 18:14 18751 阻塞IO ,阻塞异步IO,非阻塞异步IO 首先学习n ... -
SVN权限管理
2013-09-14 10:37 01.安装subversion 2.安装TortoiseS ... -
HIVE知识点
2013-08-21 20:35 0安装hive: 1.创建目录 ... -
HQL
2013-08-21 11:07 0select site, fr, count(sid) as ... -
Hbase微博系统
2013-05-02 11:38 0HBase是一个分布式的、面向列的开源数据库 HB ... -
由Word Count 得到的HDFS、map reducde
2013-05-02 10:57 0HDFS 设计目标: 大文件 一次写入,多次读取 普 ... -
新手在Centos 6 下mysql5.5.30下源码安装
2013-03-30 09:55 13561) 下载CentOS6,mysql5.5.30 源码包, ... -
Protocol Buffers的应用与分析将数据存储在Hbase中
2013-02-04 15:24 0ddd -
hbase整合hadoop,并在Window环境下连接hbase
2012-11-26 22:33 2960环境:redhat9 ,hadoop-1.0.4,hbase- ... -
jconsole在windows和linux版本下的使用
2013-04-02 17:10 4164在WINDWO7 平台下使用jconsole: jcons ... -
JDK自带VM分析工具jps,jstat,jmap,jconsole
2012-10-22 22:03 0一、概述 Sun 的JDK中的几个工具,非 ... -
精通java正则表达式
2012-10-16 22:41 2247精通java正则表达式 1.正则表达式的作用 ... -
java实现文件的按照每次读取固定行数读取一个 文件 ,计算文件总行数和通过LINUX 命令读取固定行数文件内容,计算文件总行数
2012-06-27 22:50 46311 ) java实现文件的按照每次读取固定行数读取一个文件 ... -
[转载]VMWARE 虚拟机连接主机,或被其他网内的机器访问
2012-04-12 12:24 2568原文:http://blog.sina.com.cn/s/bl ... -
JVM内存设置(转)
2012-02-07 09:23 1964对于jvm的设置我一直知道的很少,有时候遇到outOfM ... -
利用Java和Java IDL创建CORBA应用
2012-01-07 22:44 2929CORBA基本介绍 CORBA ... -
enum"优雅而干净"地解决问题
2011-10-24 14:15 11561.分析代码1 和代码2 的代码 代码1: i ...
相关推荐
这包括监控JobTracker(在Hadoop 2.x中变为YARN的ResourceManager)的任务调度、TaskTracker(在Hadoop 2.x中变为NodeManager)的工作状态以及数据传输效率等。通过Hadoop提供的日志和监控工具,如Ganglia、Ambari或...
### Hadoop 学习总结 #### 一、HDFS简介 **1.1 数据块(Block)** HDFS(Hadoop Distributed File System)是Hadoop的核心组件之一,它主要用于存储大规模的数据集。HDFS默认的基本存储单位是64MB的数据块。与...
在Hadoop集群环境中,启动过程中可能会遇到某些关键节点未能正常启动的问题。例如,在启动Hadoop集群时,可能会遇到NameNode无法正常启动的情况。此类问题可能由多种因素引起,包括配置错误、节点ID不匹配等。本文将...
### Hadoop技术答疑知识点汇总 #### 一、YARN Log Aggregation - **知识点概述**:YARN(Yet Another Resource Negotiator)中的日志聚合(Log Aggregation)功能是指将作业运行过程中产生的日志文件集中存储到HDFS...
Hadoop自学书籍汇总
Hadoop常见问题及解决办法汇总 Hadoop是一个基于Apache的开源大数据处理框架,广泛应用于大数据处理、数据分析和机器学习等领域。然而,在使用Hadoop时,经常会遇到一些常见的问题,这些问题可能会导致Hadoop集群...
“Hadoop学习总结之五:Hadoop的运行痕迹.doc”可能涉及监控和日志记录,这是理解Hadoop系统运行状态和问题排查的重要手段。通过监控Hadoop集群的性能指标,如CPU利用率、内存使用情况、磁盘I/O等,可以优化系统配置...
### Hadoop集群搭建总结 #### 一、Hadoop概述与应用场景 Hadoop是一个由Apache基金会维护的开源分布式计算框架,其主要目标是处理大规模数据集的存储与计算问题。通过Hadoop,用户能够轻松地在分布式环境中开发和...
在学习Hadoop的过程中,理解HDFS的工作原理至关重要。HDFS采用了主从结构,由一个NameNode作为主节点管理元数据,多个DataNode作为从节点存储数据块。NameNode负责目录树的维护、文件与数据块的映射,而DataNode则...
本次实验过程中遇到了如Namenode节点缺失和无法访问Web UI等问题,这些问题通过查阅资料和自我学习得以解决。实验不仅加深了对Hadoop环境配置的理解,也提升了使用Hadoop进行分布式编程的能力。此外,实验过程锻炼了...
IT面试-Hadoop总结-云计算 Hadoop是当前最流行的云计算技术之一,它是一种分布式的计算模型,包含了分布式文件系统HDFS和计算模型MapReduce。 一、Hadoop基础知识 1. MapReduce大致流程:MapReduce是Hadoop的核心...
总的来说,这个压缩包中的Hadoop实例将为初学者提供宝贵的实践经验,帮助他们理解如何在实际项目中运用Hadoop处理大数据问题。通过深入研究这些案例,开发者可以更好地掌握Hadoop的核心原理,并具备解决实际问题的...
Hadoop_Spark相关面试问题总结 - Hadoop知识库.pdf Hadoop_Spark相关面试问题总结 - Hadoop知识库.pdf Hadoop_Spark相关面试问题总结 - Hadoop知识库.pdf
总结起来,这个示例展示了如何在Windows环境下使用Eclipse和Hadoop插件处理HDFS中的中文文本数据,通过MapReduce完成分词、统计和排序任务。这个过程中涉及到了Hadoop的MapReduce编程模型、中文分词库的使用以及数据...
【Hadoop总结资料Hadoop1.0.3】 Hadoop是一个开源的分布式计算框架,主要由Apache基金会维护。Hadoop1.0.3是该框架的一个早期版本,它包括了Hadoop的核心组件如HDFS(Hadoop Distributed File System)和MapReduce...
- **解释**: 在Hadoop 1.x版本中,默认的数据块大小为64MB,在2.x及之后的版本中增加到了128MB。较大的块大小有助于提高存储效率和减少元数据开销。 #### 6. 集群的主要瓶颈 - **知识点**: 对于大多数Hadoop集群而...
在这个过程中,你将学习到Hadoop的配置、启动和测试方法。这只是一个基础起点,深入学习Hadoop还需要理解其背后的分布式原理和MapReduce编程模型。随着Hadoop生态系统的不断发展,如YARN、Spark等,持续学习和实践是...
但是在使用 Hadoop 时,经常会遇到一些常见的问题,本文将对这些问题进行总结和解决。 Shuffle Error: Exceeded MAX_FAILED_UNIQUE_FETCHES 在 Hadoop 中,Shuffle Error 是一个常见的问题,主要是由于系统默认的...
"Hadoop期末考试题总结" 本资源摘要信息主要介绍了Hadoop的相关知识点,涵盖了Hadoop的版本、4V特征、大数据存储、HDFS、MapReduce、SecondaryNameNode、Hadoop shell命令、集群管理工具等方面。 1. Hadoop的最高...