本文针对redhat或者centos
对于测试集群,如果通过ambari安装Hadoop集群后,想重新再来一次的话,需要清理集群。
对于安装了很多hadoop组件的话,这个工作很繁琐。接下来是我整理的清理过程。
1,通过ambari将集群中的所用组件都关闭,如果关闭不了,直接kill -9 XXX
2,关闭ambari-server,ambari-agent
- ambari-server stop
- ambari-agent stop
3,卸载安装的软件
- yum remove hadoop_2* hdp-select* ranger_2* zookeeper_* bigtop* atlas-metadata* ambari* postgresql spark* slider* storm* snappy*
以上命令可能不全,执行完一下命令后,再执行
- yum list | grep @HDP
查看是否还有没有卸载的,如果有,继续通过#yum remove XXX卸载
4,删除postgresql的数据
postgresql软件卸载后,其数据还保留在硬盘中,需要把这部分数据删除掉,如果不删除掉,重新安装ambari-server后,有可能还应用以前的安装数据,而这些数据时错误数据,所以需要删除掉。
- rm -rf /var/lib/pgsql
5,删除用户
ambari安装hadoop集群会创建一些用户,清除集群时有必要清除这些用户,并删除对应的文件夹。这样做可以避免集群运行时出现的文件访问权限错误的问题。
- userdel oozie
- userdel hive
- userdel ambari-qa
- userdel flume
- userdel hdfs
- userdel knox
- userdel storm
- userdel mapred
- userdel hbase
- userdel tez
- userdel zookeeper
- userdel kafka
- userdel falcon
- userdel sqoop
- userdel yarn
- userdel hcat
- userdel atlas
- userdel spark
- userdel ams
- rm -rf /home/atlas
- rm -rf /home/accumulo
- rm -rf /home/hbase
- rm -rf /home/hive
- rm -rf /home/oozie
- rm -rf /home/storm
- rm -rf /home/yarn
- rm -rf /home/ambari-qa
- rm -rf /home/falcon
- rm -rf /home/hcat
- rm -rf /home/kafka
- rm -rf /home/mahout
- rm -rf /home/spark
- rm -rf /home/tez
- rm -rf /home/zookeeper
- rm -rf /home/flume
- rm -rf /home/hdfs
- rm -rf /home/knox
- rm -rf /home/mapred
- rm -rf /home/sqoop
6,删除ambari遗留数据
- rm -rf /var/lib/ambari*
- rm -rf /usr/lib/python2.6/site-packages/ambari_*
- rm -rf /usr/lib/python2.6/site-packages/resource_management
- rm -rf /usr/lib/ambri-*
7,删除其他hadoop组件遗留数据
-
rm -rf /etc/falcon
rm -rf /etc/knox
rm -rf /etc/hive-webhcat
rm -rf /etc/kafka
rm -rf /etc/slider
rm -rf /etc/storm-slider-client
rm -rf /etc/spark
rm -rf /var/run/spark
rm -rf /var/run/hadoop
rm -rf /var/run/hbase
rm -rf /var/run/zookeeper
rm -rf /var/run/flume
rm -rf /var/run/storm
rm -rf /var/run/webhcat
rm -rf /var/run/hadoop-yarn
rm -rf /var/run/hadoop-mapreduce
rm -rf /var/run/kafka
rm -rf /var/log/hadoop
rm -rf /var/log/hbase
rm -rf /var/log/flume
rm -rf /var/log/storm
rm -rf /var/log/hadoop-yarn
rm -rf /var/log/hadoop-mapreduce
rm -rf /var/log/knox
rm -rf /usr/lib/flume
rm -rf /usr/lib/storm
rm -rf /var/lib/hive
rm -rf /var/lib/oozie
rm -rf /var/lib/flume
rm -rf /var/lib/hadoop-hdfs
rm -rf /var/lib/knox
rm -rf /var/log/hive
rm -rf /var/log/oozie
rm -rf /var/log/zookeeper
rm -rf /var/log/falcon
rm -rf /var/log/webhcat
rm -rf /var/log/spark
rm -rf /var/tmp/oozie
rm -rf /tmp/ambari-qa
rm -rf /var/hadoop
rm -rf /hadoop/falcon
rm -rf /tmp/hadoop
rm -rf /tmp/hadoop-hdfs
rm -rf /usr/hdp
rm -rf /usr/hadoop
rm -rf /opt/hadoop
rm -rf /opt/hadoop2
rm -rf /tmp/hadoop
rm -rf /var/hadoop
rm -rf /hadoop
rm -rf /etc/ambari-metrics-collector
rm -rf /etc/ambari-metrics-monitor
rm -rf /var/run/ambari-metrics-collector
rm -rf /var/run/ambari-metrics-monitor
rm -rf /var/log/ambari-metrics-collector
rm -rf /var/log/ambari-metrics-monitor
rm -rf /var/lib/hadoop-yarn
rm -rf /var/lib/hadoop-mapreduce
8,清理yum数据源
相关推荐
通过Ambari可以实现ELK的安装和管理,以及与Hadoop集群的集成,从而更方便地实现集群的监控。 在构建性能监控系统时,ELK能提供分布式的数据存储、索引和查询引擎,具备强大的日志数据收集、清洗、装载能力。不仅...
配置完成后,Ambari Server就可以启动,并开始管理连接到它的Ambari Agent节点,从而实现对整个Hadoop集群的全面管理和监控。 总之,Apache Ambari是Hadoop生态系统中一个强大的工具,通过提供可视化界面和自动化...
Ambari是一款开源的Hadoop管理工具,它简化了在Hadoop集群上部署、管理和监控服务的过程。要编译Ambari源码,你需要搭建一个特定的开发环境。以下是搭建Ambari编译环境的详细步骤及可能遇到的问题及其解决方案: 1....
- **Ambari**:是Apache的一个项目,用于简化Hadoop集群的部署、管理和监控。通过Ambari提供的Web UI,管理员可以轻松地进行集群管理。 #### 二、集成Presto到Ambari的步骤 ##### 2.1 下载并准备集成包 根据文档...
1. **集群规划与搭建**:Hadoop集群的规模和配置取决于业务需求。规划时需考虑硬件资源、网络拓扑以及扩展性。正确选择硬件(如磁盘类型、内存大小和CPU核心数)对性能至关重要。同时,网络设计应确保低延迟和高带宽...
- **HMaster**: 管理全局的HBase集群,负责HRegion的分配、RegionServer监控、负载均衡和清理垃圾文件。 - **HRegionServer**: 实际处理数据读写请求的节点,可以包含多个HRegion,共享HLog。 - **HRegion**: ...
Apache Ambari是一款开源工具,专门用于Hadoop集群的管理和监控。它提供了用户友好的Web界面,使得安装、配置、管理以及监控Hadoop生态系统中的组件变得更加简单。在Ambari中,可以添加自定义服务来扩展其功能,比如...
Ambari是一款由Apache软件基金会开发的开源管理工具,主要用于Hadoop和其他大数据集群的部署、管理和监控。在本文中,我们将深入探讨如何使用提供的“delete_hdp_ambri.zip”压缩包来卸载Ambari,包括理解卸载过程、...
6. **自动化部署工具**:如Ambari,是HDP常用的管理工具,可以用于集群的安装、配置、监控和管理。在一键卸载重装脚本中,可能利用Ambari的API来实现自动化操作。 7. **权限和安全性**:在执行卸载和安装过程中,...
1. 使用HBase自带的JMX监控工具或第三方监控工具(如Ambari、Grafana)监控HBase集群的性能指标。 2. 定期进行健康检查,排查可能存在的问题,如Region不均、内存溢出等。 3. 对HBase进行定期备份,以防数据丢失。...
6. **Ambari**: 提供Hadoop集群的安装、配置、管理和监控服务,简化Hadoop运维。 7. **Drill**: 面向列的低延迟查询引擎,适用于多种数据源,支持SQL查询。 8. **Spark**: 支持批处理、交互式查询、流处理和机器...
sshpass -b bigdata-hadoop-$i "rm -rf /etc/yum.repos.d/ambari-hdp-1.repo"; done ``` 2. **更新YUM源地址:** 重复之前更新YUM仓库地址的步骤,以确保所有节点上的YUM源都是最新的且一致的。 #### 三、...