- 浏览: 2097423 次
- 性别:
- 来自: 北京
文章分类
- 全部博客 (366)
- hadoop (91)
- DB (2)
- vmware (0)
- python (49)
- Java (72)
- Linux (57)
- 多线程 (2)
- hive (1)
- hbase (3)
- mongodb (5)
- Hibernate (3)
- nodejs (1)
- 模式与重构 (1)
- 持续集成CI (4)
- Mysql (2)
- chorme (1)
- 软件开发 (0)
- 敏捷 (5)
- maven (3)
- windows (7)
- 测试驱动 (1)
- scala (3)
- Jetty (0)
- android (1)
- eclipse (1)
- 设计模式 (1)
- 面向对象设计 (2)
- oracle (3)
- cassandra (15)
- pig (3)
- rails (1)
- redis (4)
- ruby (1)
- storm (0)
- 实时运算 (3)
- scribe (1)
- hadoop源码 (3)
- cassandra jna (1)
- Kafka (2)
- Sublime (2)
- C++ (2)
- C (1)
- 版本控制 (1)
- 服务器 (1)
- docker (0)
- flink (1)
最新评论
-
伍大都督:
解释太到位了,感谢分享
理解Linux系统中的load average(图文版) -
rfjian123:
非常感谢,用你的方法解决了问题。
Server sent unexpected return value (403 Forbidden) in response to OPTIONS -
yuhaifei12:
今天遇到同样的问题了。设置的是每分钟执行一次。结果发现每分钟执 ...
解决Linux下crontab同一时间重复执行问题 -
BigBird2012:
想问一下,使用ExecutorService每次都要调用 sh ...
spring quartz使用多线程并发“陷阱” -
zhuqx1130:
有用,谢谢
解决Sublime Text 3中文显示乱码(tab中文方块)问题
==================================
windows cygwin环境下,遇到这个错误:org.apache.hadoop.security.AccessControlException: Permission denied: user=cyg_server, access=EXECUTE, inode="job_201010161322_0003":heipark:supergroup:rwx------
解决:刚开始还使用“./bin/hadoop dfs -chmod 777 ”,后来发现老是这样设置麻烦。可以取消hadoop hdfs的用户权限检查。打开conf/hdfs-site.xml,找到dfs.permissions属性修改为false(默认为true)OK了。注意生产环境处于安全考虑不要这么搞。
==================================
window下使用eclipse开发hadoop程序遇到的问题。
现象一:“DFS Locations”无法浏览DFS中文件,报错
Cannot connect to the Map/Reduce location: heipark
Call to localhost/127.0.0.1:9000 failed on local exception: java.io.EOFException
现象二:启动自己编写的mapred程序报相同错误。
原因:Hadoop服务端版本和eclipse插件版本不一致
解决:倒腾了好几个版本eclipse和hadoop插件,有的点击没反应,不能浏览文件系统。最后整理了一下有两个办法:
一:自己编译eclipse plugin(自己尝试编译0.21.0版本没有成功。首选遇到包的依赖问题,接着编译成功后,eclipse右键创建还是没有响应)
二:我使用0.21.0自带的eclipse plugin在多个eclipse都不好用,在网上下了一个可以3.3,,3.4,3.5都可以跑的hadoop-0.20.3-dev-eclipse-plugin.jar(http://code.google.com/p/hadoop-eclipse-plugin/downloads/list),但是报上面的错误,有网友说是插件和hadoop版本不一致导致的。最后我下载了一个0.20.2版本hadoop,使用自带的插件在eclipse3.3.2下完美运行。
==================================
Namenode报错:“jobtracker.info could only be replicated to 0 nodes, instead of 1”
DateNode报错java.io.IOException: Incompatible namespaceIDs错误
原因:由于DateNode一段时间未启动,再次启动与NameNode数据不同步导致。
解决一:修改/dfs/data/current/VERSION文件中namespaceID值,保证NameNode和DateNode一致。修改原则:如果你有多个DateNode需要都需要修改,那就修改NameNode;否则就修改NameNode。总之就是最小化修改原则。这样修改不会删除数据,推荐。
解决二:删除有问题datenode的data文件夹,然后format namenode。
参考:http://forum.hadoop.tw/viewtopic.php?f=4&t=43
==================================
在windows eclipse开发环境提交job到远处linux hadoop集群,运行mapred报错“IOException: Cannot run program "chmod": CreateProcess error=2”
原因:安装cygwin,而且需要设置"cygwin\bin"到环境变量PATH中
==================================
运行hive0.6.0报如下错误:
Invalid maximum heap size: -Xmx4096m
The specified size exceeds the maximum representable size.
Could not create the Java virtual machine.
修改“hive-0.6.0/bin/ext/util/execHiveCmd.sh”
HADOOP_HEAPSIZE=4096 为
HADOOP_HEAPSIZE=256
==================================
使用java client运行hive官方《 Getting Started Guide》中apachelog例子报错:
ClassNotFoundException: org.apache.hadoop.hive.contrib.serde2.RegexSerDe
hive没有找到hive-contrib-0.7.0.jar吗?这个jar明明在lib下,解决办法如下:
vi hive-default.xml
<name>hive.aux.jars.path</name>
<value>file:///home/hadoop/hive-0.7.0/lib/hive-contrib-0.7.0.jar</value>
</property>
再次启动Hive Thrift Server,OK了。
参考资料:http://web.archiveorange.com/archive/v/S2z2uyzt6K4HGoJJbSUy
发表评论
-
cloudera CDH5 vmware中cloudera manager报错"Internal error while querying the Host "
2014-07-22 10:19 2063无法获取host和service状态,解决办法: s ... -
thrift0.9.1简单教程(包含Java服务端和Java、python客户端)
2014-04-25 15:55 6414一、Thrift Java服务端和客户端 官 ... -
yum错误“Error in PREUN scriptlet in rpm package ”
2014-03-10 12:07 3983打算通过yum安装软件,发展之前有软件残骸。使用yu ... -
搭建cloudera yum私服
2014-03-05 11:08 3207一、安装Cloudera yum仓库 1. 下载仓库rpm ... -
cloudera创建私服错误一例
2014-02-24 11:41 1375执行“reposync -r cloudera-cdh4 ” ... -
Cloudera Manager的Hadoop配置文件管理
2014-02-11 10:21 11460本文基于Cloudera Manager 4.8,以下简称 ... -
修改cloudera manager管理主机名(转)
2014-02-10 14:22 7646I installed the Cloudera Mana ... -
cloudera manager tasktrakcer监控状态错误
2014-02-10 11:32 1300此文用作图片外链。cloudera网站坑爹呀! -
cloudera manager 4.8 添加设备DNS反向解析问题
2014-01-28 16:20 3769添加设备时agent会使用host命令反向解析获取clou ... -
apache kafka v0.8入门遇到问题
2014-01-23 12:20 1671官方文档:https://kafka.apache.org/ ... -
hadoop2.0(cdh4) fs client错误"java.io.IOException: No FileSystem for scheme: hdfe"
2013-12-31 12:32 10063启动dfs client时候报错:“java.io.IOE ... -
Hadoop Combiner的几个调用时间点
2013-12-20 08:37 2967Combiner是在Map端被执行,共有两个时机会被触 ... -
hadoop1.0中NameNode HA的妥协方案
2013-12-10 16:26 1529hadoop1.0没有HA,可以添加NFS做为metada ... -
hdaoop2.x (CDH4、5)下使用DFS Client(包含HA)
2013-12-09 16:42 3317一、不使用HA场景 1.1 获取FileSystem(下 ... -
Hadoop学习指南
2013-11-26 14:26 1395安装配置 CDH4(hadoop2.0) 端口 C ... -
cloudera cdh中hadoop-client包的作用
2013-11-22 22:12 4119hadoop-client是为了让开发者可以很方便的使用当前 ... -
could only be replicated to 0 nodes instead of minReplication (=1)
2013-11-18 17:02 13936一、出现这个错误,先看看DN是不是正常启动并与NN通信,使用 ... -
Hadoop Pig获取HDFS文件名
2013-11-15 08:37 3218A = LOAD 'input' using PigS ... -
cloudera CDH5正式版(与CDH4比较)
2013-11-04 22:14 2517要求JDK7以上,JDK6不被支持 基于a ... -
Pig写UDF解析XML遇到一诡异错误“ClassNotFoundException”
2013-10-16 10:11 1282UDF中使用apache digester做XML解析,代码 ...
相关推荐
Hadoop常见问题及解决办法汇总 Hadoop是一个基于Apache的开源大数据处理框架,广泛应用于大数据处理、数据分析和机器学习等领域。然而,在使用Hadoop时,经常会遇到一些常见的问题,这些问题可能会导致Hadoop集群...
- **编译脚本调试**:编译过程中可能会遇到各种错误,需要仔细检查编译脚本中的错误信息,并根据错误信息进行相应的调试。 - **权限问题**:确保有足够的权限执行编译脚本。在 Linux 系统中,可能需要使用 `sudo` ...
2. **Hadoop常见错误及解决办法汇总.docx**:这份文档很可能是针对Hadoop在实际操作中遇到的问题和解决方案的集合。通过阅读,用户可以了解常见的错误类型,如NameNode和DataNode的故障、MapReduce作业的错误等,...
# tar -zxf hadoop-2.7.2-src.tar.gz [root@hadoop101 ~]# cd hadoop-2.7.2-src/ [root@hadoop101 hadoop-2.7.2-src]# mvn package -DskipTests 5.4 常见问题及解决方案 在 Hadoop 源码编译过程中,可能会遇到以下...
8. 编译过程中的问题和解决方案:文档中提到了编译过程中可能会遇到的问题,如权限问题和缺失文件错误,并提供了相应的解决方法。 9. 开发工具和环境:要成功编译和运行Hadoop,需要适当的开发工具和环境。文档中...
在搭建和使用Hadoop的过程中,可能会遇到各种问题,例如配置错误、网络连接失败等。对于这些问题,可以通过查阅官方文档、社区论坛或邮件列表寻求帮助。同时,了解Hadoop的日志文件也是解决问题的关键之一。 #### ...
- **故障排查**:遇到问题时,首先查看日志文件,尝试重现问题,然后根据错误信息进行定位和修复。 - **数据丢失恢复**:定期备份重要数据,遇到数据丢失时可以通过备份快速恢复。 通过以上内容的学习,读者可以...
深入理解这些配置文件的内容和含义对于优化 Hadoop 性能和解决实际问题具有重要意义。例如,`core-site.xml` 中的 `fs.defaultFS` 用于指定默认的文件系统;`hdfs-site.xml` 中的 `dfs.replication` 用于设置 HDFS ...
Map阶段对数据进行排序和过滤,Reduce阶段则对这些数据进行汇总和合并。这种模型非常适合处理大量数据,并且可以在多台机器上并行运行,提高处理速度。 #### 国内Hadoop应用情况 随着大数据时代的到来,Hadoop在...
6. **错误排查与优化**:在使用Hadoop时,可能会遇到各种错误,如节点通信问题、内存溢出等。学习例子中应包含了这些问题的解决方案,教你如何诊断和优化Hadoop集群的性能。 7. **Hadoop版本差异**:Hadoop有多个...
在进行日志分析时,我们可能会遇到以下问题和解决方案: 1. 数据清洗:日志数据可能存在缺失值、异常值或格式错误,需要预处理步骤来过滤或修正这些数据。 2. 用户行为分析:通过分析用户的请求URL,可以识别出最常...
在Hive on Spark MR(MapReduce)数据开发中,开发者经常遇到各种问题,这些问题往往阻碍了工作效率。...同时,定期审查和更新这个知识库,确保它包含最新的错误信息和解决方案,将使整个开发团队受益。
注意,这些步骤可能会遇到一些兼容性问题,需要解决依赖库和编译错误。 6. **测试编译**:编译完成后,可以运行Hadoop的单元测试以验证其正确性,使用`mvn test`命令。 **Hadoop测试与使用:** 1. **启动Hadoop**:...
### 大数据面试题知识点详解 #### 一、HDFS数据存储...通过以上知识点的梳理,我们不仅了解了Hadoop的基本架构和运行机制,还深入探讨了面试中可能会遇到的各种问题及其解决方案,有助于更好地准备相关的技术面试。
这份手册主要涉及了GBase-8a MPP Cluster在实际应用过程中可能遇到的问题及其解决办法,同时还包括了一些重要的配置参数和技术细节。下面将详细阐述这些知识点。 ### 一、数据加载与导出相关问题 1. **加载指定...