- 浏览: 2182585 次
- 性别:
- 来自: 北京
文章分类
- 全部博客 (682)
- 软件思想 (7)
- Lucene(修真篇) (17)
- Lucene(仙界篇) (20)
- Lucene(神界篇) (11)
- Solr (48)
- Hadoop (77)
- Spark (38)
- Hbase (26)
- Hive (19)
- Pig (25)
- ELK (64)
- Zookeeper (12)
- JAVA (119)
- Linux (59)
- 多线程 (8)
- Nutch (5)
- JAVA EE (21)
- Oracle (7)
- Python (32)
- Xml (5)
- Gson (1)
- Cygwin (1)
- JavaScript (4)
- MySQL (9)
- Lucene/Solr(转) (5)
- 缓存 (2)
- Github/Git (1)
- 开源爬虫 (1)
- Hadoop运维 (7)
- shell命令 (9)
- 生活感悟 (42)
- shell编程 (23)
- Scala (11)
- MongoDB (3)
- docker (2)
- Nodejs (3)
- Neo4j (5)
- storm (3)
- opencv (1)
最新评论
-
qindongliang1922:
粟谷_sugu 写道不太理解“分词字段存储docvalue是没 ...
浅谈Lucene中的DocValues -
粟谷_sugu:
不太理解“分词字段存储docvalue是没有意义的”,这句话, ...
浅谈Lucene中的DocValues -
yin_bp:
高性能elasticsearch ORM开发库使用文档http ...
为什么说Elasticsearch搜索是近实时的? -
hackWang:
请问博主,有用solr做电商的搜索项目?
Solr中Group和Facet的用法 -
章司nana:
遇到的问题同楼上 为什么会返回null
Lucene4.3开发之第八步之渡劫初期(八)
刚装完的hadoop集群,在查看namenode的log时,散仙发现有如下的警告信息:
注意上述代码的最后几行发出的警告信息,意思是说对于dr.who这个用户,没有有效的组归属,在hadoop的权限认证中,如果默认没有用户组声明,就会把当前的这个hadoop用户,归属于dr.who用户,当然这个用户在我们的用户组里面是不存在的,所以log里面就记录了这个warn信息。
解决方法如下:
方法(1),在core-site.xml里面添加如下配置:
hadoop是散仙的用户名
方法(2),在当前的用户组里面添加一个dr.who的用户
gpasswd -a dr.who hadoop
将dr.who用户添加到hadoop用户组里面
如此就能通过linux的权限验证,改完之后,重启hadoop集群之后,就不会出现这样的警告了
2014-10-30 16:49:18,340 INFO org.apache.hadoop.hdfs.StateChange: STATE* Leaving safe mode after 2 secs 2014-10-30 16:49:18,340 INFO org.apache.hadoop.hdfs.StateChange: STATE* Network topology has 0 racks and 0 datanodes 2014-10-30 16:49:18,340 INFO org.apache.hadoop.hdfs.StateChange: STATE* UnderReplicatedBlocks has 0 blocks 2014-10-30 16:49:18,485 INFO org.apache.hadoop.hdfs.server.namenode.NameNode: NameNode RPC up at: fsedump00yw/192.168.223.163:8020 2014-10-30 16:49:18,485 INFO org.apache.hadoop.hdfs.server.namenode.FSNamesystem: Starting services required for active state 2014-10-30 16:49:18,452 INFO org.apache.hadoop.ipc.Server: IPC Server Responder: starting 2014-10-30 16:49:18,454 INFO org.apache.hadoop.ipc.Server: IPC Server listener on 8020: starting 2014-10-30 16:49:25,377 INFO org.apache.hadoop.hdfs.StateChange: BLOCK* registerDatanode: from DatanodeRegistration(192.168.223.168, storageID=DS-1779348018-192.168.223.168-50010-1414658969808, infoPort=50075, ipcPort=50020, storageInfo=lv=-47;cid=CID-0f002fcf-1b19-4004-a76e-a736b0b98df1;nsid=1726826048;c=0) storage DS-1779348018-192.168.223.168-50010-1414658969808 2014-10-30 16:49:25,392 INFO org.apache.hadoop.net.NetworkTopology: Adding a new node: /default-rack/192.168.223.168:50010 2014-10-30 16:49:25,983 INFO org.apache.hadoop.hdfs.server.blockmanagement.BlockManager: BLOCK* processReport: Received first block report from 192.168.223.168:50010 after starting up or becoming active. Its block contents are no longer considered stale 2014-10-30 16:49:25,984 INFO BlockStateChange: BLOCK* processReport: from DatanodeRegistration(192.168.223.168, storageID=DS-1779348018-192.168.223.168-50010-1414658969808, infoPort=50075, ipcPort=50020, storageInfo=lv=-47;cid=CID-0f002fcf-1b19-4004-a76e-a736b0b98df1;nsid=1726826048;c=0), blocks: 0, processing time: 15 msecs 2014-10-30 16:49:25,998 INFO org.apache.hadoop.hdfs.StateChange: BLOCK* registerDatanode: from DatanodeRegistration(192.168.223.163, storageID=DS-335820978-192.168.223.163-50010-1414658964818, infoPort=50075, ipcPort=50020, storageInfo=lv=-47;cid=CID-0f002fcf-1b19-4004-a76e-a736b0b98df1;nsid=1726826048;c=0) storage DS-335820978-192.168.223.163-50010-1414658964818 2014-10-30 16:49:26,002 INFO org.apache.hadoop.net.NetworkTopology: Adding a new node: /default-rack/192.168.223.163:50010 2014-10-30 16:49:26,409 INFO org.apache.hadoop.hdfs.server.blockmanagement.BlockManager: BLOCK* processReport: Received first block report from 192.168.223.163:50010 after starting up or becoming active. Its block contents are no longer considered stale 2014-10-30 16:49:26,409 INFO BlockStateChange: BLOCK* processReport: from DatanodeRegistration(192.168.223.163, storageID=DS-335820978-192.168.223.163-50010-1414658964818, infoPort=50075, ipcPort=50020, storageInfo=lv=-47;cid=CID-0f002fcf-1b19-4004-a76e-a736b0b98df1;nsid=1726826048;c=0), blocks: 0, processing time: 0 msecs 2014-10-30 16:49:31,077 INFO org.apache.hadoop.hdfs.StateChange: BLOCK* registerDatanode: from DatanodeRegistration(192.168.223.167, storageID=DS-563266444-192.168.223.167-50010-1414682451971, infoPort=50075, ipcPort=50020, storageInfo=lv=-47;cid=CID-0f002fcf-1b19-4004-a76e-a736b0b98df1;nsid=1726826048;c=0) storage DS-563266444-192.168.223.167-50010-1414682451971 2014-10-30 16:49:31,078 INFO org.apache.hadoop.net.NetworkTopology: Adding a new node: /default-rack/192.168.223.167:50010 2014-10-30 16:49:31,174 INFO org.apache.hadoop.hdfs.server.blockmanagement.BlockManager: BLOCK* processReport: Received first block report from 192.168.223.167:50010 after starting up or becoming active. Its block contents are no longer considered stale 2014-10-30 16:49:31,174 INFO BlockStateChange: BLOCK* processReport: from DatanodeRegistration(192.168.223.167, storageID=DS-563266444-192.168.223.167-50010-1414682451971, infoPort=50075, ipcPort=50020, storageInfo=lv=-47;cid=CID-0f002fcf-1b19-4004-a76e-a736b0b98df1;nsid=1726826048;c=0), blocks: 0, processing time: 0 msecs 2014-10-30 16:50:31,872 INFO org.apache.hadoop.hdfs.server.namenode.FSNamesystem: Roll Edit Log from 192.168.223.163 2014-10-30 16:50:31,872 INFO org.apache.hadoop.hdfs.server.namenode.FSEditLog: Rolling edit logs 2014-10-30 16:50:31,872 INFO org.apache.hadoop.hdfs.server.namenode.FSEditLog: Ending log segment 1 2014-10-30 16:50:31,872 INFO org.apache.hadoop.hdfs.server.namenode.FSEditLog: Number of transactions: 2 Total time for transactions(ms): 1 Number of transactions batched in Syncs: 0 Number of syncs: 2 SyncTimes(ms): 30 2014-10-30 16:50:31,873 INFO org.apache.hadoop.hdfs.server.namenode.FSEditLog: Number of transactions: 2 Total time for transactions(ms): 1 Number of transactions batched in Syncs: 0 Number of syncs: 3 SyncTimes(ms): 30 2014-10-30 16:50:31,876 INFO org.apache.hadoop.hdfs.server.namenode.FileJournalManager: Finalizing edits file /data/hadoop-nd/current/edits_inprogress_0000000000000000001 -> /data/hadoop-nd/current/edits_0000000000000000001-0000000000000000002 2014-10-30 16:50:31,876 INFO org.apache.hadoop.hdfs.server.namenode.FSEditLog: Starting log segment at 3 2014-10-30 16:50:33,246 INFO org.apache.hadoop.hdfs.server.namenode.TransferFsImage: Opening connection to http://fsedump00yw:8021/getimage?getimage=1&txid=2&storageInfo=-47:1726826048:0:CID-0f002fcf-1b19-4004-a76e-a736b0b98df1 2014-10-30 16:50:33,876 INFO org.apache.hadoop.hdfs.server.namenode.TransferFsImage: Transfer took 0.63s at 0.00 KB/s 2014-10-30 16:50:33,876 INFO org.apache.hadoop.hdfs.server.namenode.TransferFsImage: Downloaded file fsimage.ckpt_0000000000000000002 size 198 bytes. 2014-10-30 16:50:33,888 INFO org.apache.hadoop.hdfs.server.namenode.NNStorageRetentionManager: Going to retain 2 images with txid >= 0 2014-10-30 16:53:22,379 WARN org.apache.hadoop.hdfs.server.namenode.FSNamesystem: trying to get DT with no secret manager running 2014-10-30 16:53:23,180 WARN org.apache.hadoop.security.UserGroupInformation: No groups available for user dr.who 2014-10-30 16:53:23,253 WARN org.apache.hadoop.security.UserGroupInformation: No groups available for user dr.who
注意上述代码的最后几行发出的警告信息,意思是说对于dr.who这个用户,没有有效的组归属,在hadoop的权限认证中,如果默认没有用户组声明,就会把当前的这个hadoop用户,归属于dr.who用户,当然这个用户在我们的用户组里面是不存在的,所以log里面就记录了这个warn信息。
解决方法如下:
方法(1),在core-site.xml里面添加如下配置:
<property> <name>hadoop.http.staticuser.user</name> <value>hadoop</value> </property>
hadoop是散仙的用户名
方法(2),在当前的用户组里面添加一个dr.who的用户
gpasswd -a dr.who hadoop
将dr.who用户添加到hadoop用户组里面
如此就能通过linux的权限验证,改完之后,重启hadoop集群之后,就不会出现这样的警告了
发表评论
-
Apache Flink在阿里的使用(译)
2019-02-21 21:18 1171Flink是未来大数据实时 ... -
计算机图形处理的一些知识
2018-04-25 17:46 1227最近在搞opencv来做一些 ... -
如何在kylin中构建一个cube
2017-07-11 19:06 1264前面的文章介绍了Apache Kylin的安装及数据仓 ... -
Apache Kylin的入门安装
2017-06-27 21:27 2142Apache Kylin™是一个开源的分布式分析引擎,提供 ... -
ES-Hadoop插件介绍
2017-04-27 18:07 1990上篇文章,写了使用spark集成es框架,并向es写入数据,虽 ... -
如何在Scala中读取Hadoop集群上的gz压缩文件
2017-04-05 18:51 2128存在Hadoop集群上的文件,大部分都会经过压缩,如果是压缩 ... -
如何收集项目日志统一发送到kafka中?
2017-02-07 19:07 2790上一篇(http://qindongliang.iteye. ... -
Hue+Hive临时目录权限不够解决方案
2016-06-14 10:40 4701安装Hue后,可能会分配多个账户给一些业务部门操作hive,虽 ... -
Hadoop的8088页面失效问题
2016-03-31 11:21 4447前两天重启了测试的hadoop集群,今天访问集群的8088任 ... -
Hadoop+Hbase集群数据迁移问题
2016-03-23 21:00 2522数据迁移或备份是任何 ... -
如何监控你的Hadoop+Hbase集群?
2016-03-21 16:10 4917前言 监控hadoop的框架 ... -
Logstash与Kafka集成
2016-02-24 18:44 11620在ELKK的架构中,各个框架的角色分工如下: Elastic ... -
Kakfa集群搭建
2016-02-23 15:36 2644先来整体熟悉下Kafka的一些概念和架构 (一)什么是Ka ... -
大数据日志收集框架之Flume入门
2016-02-02 14:25 4185Flume是Cloudrea公司开源的一款优秀的日志收集框架 ... -
Apache Tez0.7编译笔记
2016-01-15 16:33 2520目前最新的Tez版本是0.8,但还不是稳定版,所以大家还 ... -
Bug死磕之hue集成的oozie+pig出现资源任务死锁问题
2016-01-14 15:52 3830这两天,打算给现有的 ... -
Hadoop2.7.1和Hbase0.98添加LZO压缩
2016-01-04 17:46 26021,执行命令安装一些依赖组件 yum install -y ... -
Hadoop2.7.1配置NameNode+ResourceManager高可用原理分析
2015-11-11 19:51 3176关于NameNode高可靠需要配置的文件有core-site ... -
设置Hadoop+Hbase集群pid文件存储位置
2015-10-20 13:40 2847有时候,我们对运行几 ... -
Hadoop+Maven项目打包异常
2015-08-11 19:36 1561先简单说下业务:有一个单独的模块,可以在远程下载Hadoop上 ...
相关推荐
Hadoop 集群配置详解 Hadoop_Hadoop集群(第1期)_CentOS安装配置 Hadoop_Hadoop集群(第2期)_机器信息分布表 Hadoop_Hadoop集群(第4期)_SecureCRT使用 Hadoop_Hadoop集群(第5期)_Hadoop安装配置 Hadoop_Hadoop...
《Dr.Elephant与Hadoop 2.4.1 Spark 1.6.0的集成应用》 在大数据处理领域,Dr.Elephant作为一个开源的分析工具,被广泛用于优化Hadoop和Spark作业的性能。它能通过收集、分析日志,为用户提供深入的作业执行信息,...
Hadoop 集群部署操作 Hadoop 集群部署操作是指规划、安装和配置 Hadoop 集群的整个过程,以便在生产环境中运行 Hadoop 应用程序。下面是 Hadoop 集群部署操作的详细知识点: 规划 Hadoop 集群 * 规划主机名:...
### Hadoop集群构建实训知识点详解 #### 一、运行平台构建 在构建Hadoop集群之前,需要对各台服务器进行必要的配置,确保集群能够稳定运行。主要包括修改主机名称、配置域名解析规则、关闭防火墙以及配置免密登录...
"Hadoop集群安装笔记" Hadoop集群安装笔记是一篇详细的安装指南,旨在帮助新手快速搭建Hadoop学习环境。以下是该笔记中的重要知识点: Hadoop集群安装目录 在安装Hadoop集群之前,需要准备好安装环境。安装环境...
自动化安装hadoop集群 脚本搭建hadoop集群 可以自定义主机名和IP地址 可以自定义安装jdk和hadoop(格式为*tar.gz) 注意事项 1、安装完jdk和hadoop请手动source /etc/profile 刷新环境变量 2测试脚本环境为centOS6,...
Unable to load native-hadoop library for your platform... using builtin-java classes where applicable 1. 下载文件native.rar 并解压 2. 用SecureFX 上传, 替换native目录下文件,选择二进制文件上传。 3. ...
标题中的“大数据教程之搭建Hadoop集群.zip_大数据环境搭建hadoop”暗示了这是一个关于如何在大数据环境中构建Hadoop集群的教程。Hadoop是Apache软件基金会的一个开源项目,主要用于处理和存储海量数据,其分布式...
部署全分布模式Hadoop集群 实验报告一、实验目的 1. 熟练掌握 Linux 基本命令。 2. 掌握静态 IP 地址的配置、主机名和域名映射的修改。 3. 掌握 Linux 环境下 Java 的安装、环境变量的配置、Java 基本命令的使用。 ...
Hadoop作为大数据处理的核心组件,包括HDFS(Hadoop Distributed File System)和MapReduce等模块,构建一个Hadoop集群通常涉及多台服务器的配置、软件安装、服务启动和集群配置。通过Ansible,我们可以简化这个过程...
<name>hadoop.tmp.dir <value>/app/hadoop/tmp ``` - 修改`$HADOOP_HOME/etc/hadoop/hdfs-site.xml`,配置副本数量和NameNode地址: ```xml <name>dfs.replication <value>3 <name>dfs.namenode....
为了在Eclipse中调试和运行Hadoop程序,你需要安装Hadoop插件(如Hadoop插件for Eclipse或Eclipse for Big Data Developers),同时确保`HADOOP_HOME`已经正确配置,这样Eclipse才能正确地构建和连接到Hadoop集群。...
Hadoop集群搭建详解 Hadoop是一个开源的分布式计算平台,由 Apache 软件基金会开发,核心组件包括HDFS(Hadoop Distributed Filesystem)和MapReduce。HDFS是一个分布式文件系统,提供了对文件系统的命名空间和...
"基于Docker搭建Hadoop集群" 在本文中,我们将介绍如何基于Docker搭建Hadoop集群。Hadoop是大数据处理的常用工具,而Docker则是当前最流行的容器化技术。通过将Hadoop部署到Docker容器中,我们可以更方便地管理和...
【标题】"Hadoop集群搭建共10页.pdf.zip" 提供的是关于Hadoop集群建设的详细教程,可能涵盖了从规划、配置到实际操作的全过程。Hadoop是Apache基金会的一个开源分布式计算框架,广泛应用于大数据处理领域。它通过...
《Hadoop集群程序设计与开发教材最终代码》这个压缩包文件是针对学习和理解Hadoop分布式计算框架的重要教学资源。Hadoop是Apache软件基金会开发的一个开源项目,它为大规模数据处理提供了一种分布式、容错性强的解决...
《Hadoop集群程序设计与开发》是一份详细的教学资料,主要涵盖了大数据处理领域中的核心工具——Hadoop的集群程序设计与开发技术。这份PPT旨在帮助开发者深入理解Hadoop生态系统,掌握分布式计算的基本原理和实践...
最近要在公司里搭建一个hadoop测试集群,于是采用docker来快速部署hadoop集群。 0. 写在前面 网上也已经有很多教程了,但是其中都有不少坑,在此记录一下自己安装的过程。 目标:使用docker搭建一个一主两从三台机器...