`
Taoo
  • 浏览: 293863 次
  • 性别: Icon_minigender_1
  • 来自: 北京
社区版块
存档分类
最新评论
文章列表

rpm 常用命令

rpm -qpl xxxxxx.rpm 1.如何安装rpm软件包 rmp软件包的安装可以使用程序rpm来完成。执行下面的命令 rpm -i your-package.rpm 其中your-package.rpm是你要安装的rpm包的文件名,一般置于当前目录下。 安装过程中可能出现下面的警告或者提示: ... conflict with ... 可能是要安装的包里有一些文件可能会覆盖现有 的文件,缺省时这样的情况下是无法正确安装的可以用 rpm --force -i 强制安装即可 ... is needed by ... ... is not installed ... 此包需要的一些软件你没有安 ...

zz hadoop常见问题

http://www.hadoopor.com/thread-71-1-1.html Hadoop技术论坛 注册 登录     论坛     导航     RSS Hadoop技术论坛 » Hadoop综合 » Hadoop使用常见问题以及解决方法 123下一页 返回列表 发帖 版主 Rank: 7Rank: 7Rank: 7 十级勋章 1# 跳转到 » 倒 ...

mysql 数据表修复

由于断电原因, mysql数据表损坏, 运气比较好,损坏的并不严重, 通过简单修复 (myisamchk -r -q)就解决啦。 主要参照链接: http://www.chinahtml.com/0610/mysql-11619183797660.html 教你用Myisamchk进行崩溃恢复MySQL 发表时间:2006-10-27内容来 ...
现象就是在root下 ssh host1 一直卡住没反应, 然后用ssh的debug模式查看ssh -v host1,显示如下: OpenSSH_4.3p2, OpenSSL 0.9.8e-fips-rhel5 01 Jul 2008 debug1: Reading configuration data /etc/ssh/ssh_config debug1: Applying options for * debug1: Connecting to vbaby2 [10.1.60.175] port 22. debug1: Connection established. debug1: perm ...
启动有几个部分: 1,hdfs; 其中包括、namenode、datanode、secondaryNamenode、backupNode 在namenode上执行:./start-dfs.sh 即可启动nn、dn、snn, backupNode需要在backupNode上去执行: nohup ./hdfs namenode -backup > backupNode.out & 2,yarn的启动: 直接./start-yarn.sh即可,没啥难的。 这个脚本自动会将resourcemanager和 resourceNode启动。 然后就可以准备跑第一MapReduce程序啦。 ...
yarn的配置比hdfs那几个点点简单多了, 网上随便找个教程应该都可以搞定。 遇到的几个问题,记录以下。 1,尼玛yarn-env.sh 与 hadoop-env.sh,启动dfs的时候只会读取hadoop-env.sh,    启动yarn时,运行./start-yarn.sh,会先执行hadoop-env.sh再执行yarn-env.sh,也就是说后者级别高,会覆盖前者。 2,yarn的log路径问题。看yarn-default.xml里面说yarn.nodemanager.log-dirs参数是指定log存放的,可是我怎么折腾都没效果,它会把路径设置为/logs,这个比较痛苦。后 ...
折腾了一天, 装0.23的hdfs。 版本是0.23.1 官方文档写的这个是alpha,折腾了一下午,这个尼玛果然是alpha,一堆东西有问题。 废话少说,直入主题。 首先是下载官网上的安装包。 官网上也推荐把hdfs、mapred、yarn三个帐号分开。 ...
http://blog.csdn.net/sony315 一个很不错的博客,转载了大量前沿技术内容
hadoop 配置文件配置 hadoop-metrics.properties 修改如下:     # Configuration of the "dfs" context for ganglia     # Pick one: Ganglia 3.0 (former) or Ganglia 3.1 (latter)     # dfs.class=org.apache.hadoop.metrics.ganglia.GangliaContext     dfs.class=org.apache.hadoop.metrics.ganglia.GangliaContext ...

redhat yum配置

一些故障的排除, 在用bigtop安装hadoop时,运行yum install hadoop,会报错如下: warning: rpmts_HdrFromFdno: Header V4 DSA signature: NOKEY, key ID 9475bd5d GPG key retrieval failed: [Errno 14] HTTP Error 404: Not Found 只有两台机器报这个错误,其他机器都不报,找了一圈没有发现问题。 google下,可以增加参数,让yum不chech key,执行如下命令: yum install hadoop --nogpgcheck 解决。 ...

Hive 部署与其他

    博客分类:
  • hive
按照hadoop权威指南中文版第二版中,374页的内容, 部署hive。 部署模式 remote metastore。 1,配置好mysql。 2,按照mysql的url、数据库名称,用户名、密码,配置hive的javax.jdo.*参数。 3,启动matestore服务。hive --service metastore 默认端口用的是9083,也可以通过METASTORE_PORT环境变量指定。 (nohup ./bin/hive --service metastore >> metastoreServer.log 2>&1 &) 4,配置hive的c ...
hbase启动时,有些regionserver起不来, 看了日志发现,应该是系统时间不同步导致。 于是把所有机器时间以master为标准同步。 之后启动正常。 时间校准的方法。 由于集群无法访问外网,不能internet,又因为懒得弄时间服务器, 机器不多,手工设置了下时间。 date --set "11/19/11 10:00:00"   (月/日/年 时:分:秒) regionserver的log中错误代码如下: 2011-11-19 08:58:46,453 DEBUG org.apache.hadoop.hbase.regionserver.Priority ...
只是升级hadoop和Hbase两个组件。 参考的主要是 http://www.iteye.com/topic/515848 和 http://caibinbupt.iteye.com/blog/283811 分割线---转载部分---- 1:运行dfsadmin -upgradeProgress status 检查是否存在备份 如果是第一次升级 就不存在备份 2:备份dfs.namenode.dir下文件 3:停止所有节点 bin/stop-all.sh 4:在所有节点上重新部署hadoop 并替换conf文件夹下所有文件(就是将原有的hadoop-0.19.1更名为hadoop-0. ...
错误一,hbase版本统一 报出一堆getMaster的错误,或者各种看不懂的错误,结果发现是部署的hbase版本和,开发程序依赖的hbase版本不匹配。所以版本问题首先要解决,统一版本。 错误二,伪分布和单机模式要区别。 hbase-site.xml中有个“hbase.cluster.distributed”参数,如果这个参数为false,则意味着hbase将依赖的是本地文件系统来建立,相应的“hbase.rootdir”也应该是file:///xxxxx。 如果“hbase.cluster.distributed”参数为ture,则意味着hbase将在HDFS文件系统中建立,相应的“hba ...
因为一个程序把hadoop集群整死了。 集群重启后,hbase死活无法正常启动。 现象: master上HMaster进程有,slaves上的zookeeper和regionserver进程也有, 但是web无法访问hbase,hbase shell也起不来。 总之,hbase无法提供服务。 查看hbase master日志, 发现启动过程中,对hdfs/hbase/.logs下的某个文件创建失败, 提示该文件已经存在神马的。 然后备份.logs文件夹,把.logs文件夹删了。 重新启动hbase, ok,起来了。 初步看来,hbase里面的表都在。
Global site tag (gtag.js) - Google Analytics