写了一下脚本,实现了以下功能:
1、保证同一时间只有一个该脚本的实例在运行,避免造成操作冲突
2、移动本地文件目录到hdfs下,目录路径相同
uploadtoHadoop.sh
#!/bin/bash #pid=`ps -ef | grep -v grep | grep uploadtoHadoop | awk '{print $2}'` pid=`ps -ef | grep -v grep | grep uploadtoHadoop | wc -l` usage() { echo "usage: `basename $0` /data/192.168.0.1/20110313/***/" } URL=$1 if [ $# -ne 1 ] then usage exit 1 fi if [ "$pid" = "2" ] then echo start hadoop fs -mkdir $1/ hadoop fs -moveFromLocal $1/* $1/ echo complete else echo program exist! fi |
使用如下 sh uploadHadoop.sh /待移动的目录名称
start
complete
如果该脚本同时执行2个实例,第二个实例会报错,退出。
分享到:
相关推荐
在Hadoop分布式文件系统(HDFS)中,进行操作通常通过命令行界面(CLI)进行,这包括管理文件、目录以及与本地文件系统的交互。本文将详细介绍HDFS的Shell操作,主要涵盖基本语法、常用命令以及其用法。 首先,HDFS...
2. 命令行语法:学习基本的Shell命令,如ls(列出目录内容)、cd(切换目录)、cp(复制文件)、mv(移动或重命名文件)、rm(删除文件)等。 3. 输入/输出重定向:了解如何通过>`>`、`>>`、`改变命令的输入和输出流...
- **用途**:将本地文件或目录上传到HDFS中。 - **格式**:`hadoop fs -put <localsrc> <dst>` - **示例**:`hadoop fs -put /local/path/to/file.txt /hdfs/path/to/directory/` 2. **hadoop fs -get** - **...
- `put`命令用于将本地文件系统中的文件上传到HDFS,`get`命令则用于将HDFS中的文件下载回本地。 - `copyFromLocal`和`copyToLocal`是另外两个用于数据迁移的命令,它们与`put`和`get`功能相同,但语义上更明确。 ...
1. **文件上传与下载**:使用`hadoop fs -put`命令将本地文件上传到HDFS,`hadoop fs -get`则用于下载HDFS上的文件到本地。 2. **目录操作**:`hadoop fs -mkdir`创建目录,`hadoop fs -rm`删除文件或目录,`hadoop...
通过以上知识点的学习,可以掌握如何在Linux环境下安装配置Hadoop和Spark,熟悉HDFS的基本操作命令,并能利用Spark对本地文件和HDFS文件进行数据处理。这对于从事大数据处理工作的技术人员来说是非常实用的技能。
在执行recrawl过程中,可能会遇到Hadoop资源管理器(如YARN)的资源限制问题,特别是当作业数量过多或文件描述符不足时。为了解决这些问题,需要修改系统配置文件`/etc/security/limits.conf`,增加Nutch进程的文件...
2. 文件与目录操作:`cd`改变目录,`ls`列出目录内容,`mkdir`创建目录,`rm`删除文件或目录,`mv`移动或重命名文件,`cp`复制文件或目录。 3. 文本编辑器:`vi`或`vim`是常用的文本编辑器,通过模式切换进行文本...
在实验中,学生学习了Linux的基本操作,如Shell命令和快捷键,这包括了文件和目录的导航(如`cd`,`ls`),文件的操作(如`touch`创建文件,`rm`删除,`mv`移动或重命名,`cp`复制),以及文件权限的设置(`chmod`)...
4.1 案例一:Oozie调度shell脚本 目标:使用Oozie调度Shell脚本 分步实现: 1)解压官方案例模板 [atguigu@hadoop102 oozie-4.0.0-cdh5.3.6]$ tar -zxvf oozie-examples.tar.gz 2)创建工作目录 [atguigu@hadoop102...
4. **环境变量设置**:为了方便使用,可以将 Spark 添加到系统的 PATH 变量中。 ```bash echo 'export PATH=$PATH:/opt/spark-2.1.0-bin-hadoop2.6/bin' >> ~/.bashrc source ~/.bashrc ``` 5. **测试 Spark**...
例如,设置`hbase.rootdir`为HDFS的根目录(默认是Hadoop的本地文件系统): ```xml <name>hbase.rootdir <value>file:///usr/local/hbase-1.2.9/data <name>hbase.cluster.distributed <value>false ...
如果Hadoop版本与HBase版本不匹配,需要将Hadoop目录下的jar文件替换掉HBase/lib目录下的相应文件。这通常通过编写自动化脚本来完成,例如: ``` find -name "hadoop*jar" | sed 's/2.5.1/2.5.2/g' | sed 's/\.\///g...
- Shell常用工具:如awk、sed、grep、bash脚本等,这些工具在处理日志、数据转换、自动化任务中极其重要。 1.2 Hadoop相关总结: - Hadoop常用端口号:例如NameNode的9870,DataNode的50010等,了解这些端口有助于...
- **Shell常用工具**:如awk、sed、bash脚本、管道符(|)、重定向(>、<、>>)等,用于数据处理和自动化任务。 2. **Hadoop相关**: - **常用端口号**:例如NameNode的9870,DataNode的50010,ResourceManager的...
了解基本的shell命令,如cd、ls、mv、cp、rm等,以及如何编写shell脚本,对于在这样的环境中工作至关重要。此外,Unix/Linux提供了一套强大的文本处理工具,如grep、sed、awk等,这些工具在处理和分析数据时非常有用...