- 浏览: 490385 次
- 性别:
- 来自: 南阳
-
文章分类
最新评论
-
yuanhongb:
这么说来,感觉CGI和现在的JSP或ASP技术有点像啊
cgi -
draem0507:
放假了还这么勤啊
JXL操作Excel -
chenjun1634:
学习中!!
PHP/Java Bridge -
Jelen_123:
好文章,给了我好大帮助!多谢!
hadoop安装配置 ubuntu9.10 hadoop0.20.2 -
lancezhcj:
一直用job
Oracle存储过程定时执行2种方法(转)
Hadoop是一个易于安装易于使用的系统,他既适用于云计算的新人学习,也适用于对云计算已经有一定研究的人深入学习(包括网格计算,并行计算等等)。Hadoop源于nutch,hadoop的两位创始人想开发一款开源的网络搜索引擎,但是在管理大量计算机时遇到了问题。后来google发表了关于GFS与MapReduce的论文,他们把论文中的思想应用到了Nutch中。最初他们把系统应用与20台机器上,但是很快他们发现为了处理互联网上的数据,他们需要上千台机器,这个问题超出了两个人能解决的程度。这是yahoo对hadoop产生了兴趣并成立开发小组帮助他们将这部分内容从nutch中分离出来,成为一个独立的系统,取名hadoop。
Nutch也是hadoop的顶级项目之一(详见http://nutch.apache.org/) ,hadoop源于nutch,也独立于nutch。虽然两者已经互相独立,但是还有很紧密的联系。与此类似,hadoop也并不是一个单独的项目,hadoop内出了最基本的hadoop common外,还有hdfs,mapreduce,zookeeper。同时也有一些相关项目,比如avro,chukwa,hbase,hive,mahout,pig(这些项目中很多都是从hadoop的子项目升级为apache的顶级项目的,由此可见hadoop的火热)。
对于新手,我们推荐按照默认方式安装hadoop,即同时安装hadoop common,hadoop hdfs,hadoop mapreduce。
目前,Hadoop可以运行在linux,unix,windows系统上。实际上hadoop是为在linux平台上使用而开发出来的。但是hadoop在一些主流的unix版本(甚至包括Mac OS X)也运行良好。对于windows,这个问题有些复杂。如果你想在windows上运行hadoop,那么你必须先安装Cygwin以模拟linux环境,然后再安装hadoop。
安装hadoop前,你需要先安装java6与ssh,java6必须是sun公司的jdk,这是hadoop编译运行的需要,ssh推荐安装openssh(免费的~),安装ssh是因为hadoop需要通过ssh协议来启动各个节点上的守护进程。
安装hadoop
安装hadoop 的过程很简单,hadoop的使用也很简单,同时也很灵活。
Hadoop按三类分别将主机划分为两种角色,最基本的就是master和slave,主人与奴隶;按hdfs的角度,将主机划分为namenode和datanode(在分布式文件系统中,目录的管理很重要,管理目录就相当于主人,可以从这方面理解它们的关系);按mapreduce的角度,将主机划分为jobtracker和tasktracker(一个job经常被划分为多个task,从这个角度不难理解他们之间的关系)。接下来,说一下我们的搭建过程
假设我们有6台主机,同时假设这样一种场景:
某实验室想要研究hadoop,一开始只准备搭建一个有三台机器组成的小集群,搭建成功后使用时发现只有三台机器不能满足需要,因此又需要再添加三台机器。
分配给他们的ip地址为:
10.37.128.2
10.37.128.3
10.37.128.4
10.37.128.5
10.37.128.6
10.37.128.7
同时将不同角色划分给他们,并命名主机(以方便区分):
10.37.128.2—master,namonode,jobtracker—master(主机名)
10.37.128.3—slave,datanode,tasktracker—slave1(主机名)
10.37.128.4—slave,datanode,tasktracker—slave2(主机名)
10.37.128.5—slave,datanode,tasktracker—slave3(主机名)
10.37.128.6—slave,datanode,tasktracker—slave4(主机名)
10.37.128.7—slave,datanode,tasktracker—slave5(主机名)
另外所有机器上必须有一个共同的用户名,这里,这六台机器的用户名均为u。尤其注意区分用户名与主机名。
首先,需要在每台机器上安装jdk1.6和openssh
安装jdk1.6:
安装JDK是一个很简单的过程,以ubuntu为例。
第一步:
确保可以连接到互联网,输入命令:sudo apt-get install sun-java6-jdk,输入密码。
在接下来的三个确认中输入(或点击)Yes(或ok),你就可以安装java了
这里先解释一下sudo这个命令,sudo这个命令能够允许普通用户执行某些或全部root权限命令,sudo命令提供了详尽的日志,可以记录下每个用户使用它做了什么;同时sudo也提供了灵活的管理方式,可以限制用户使用的命令;他的配置文件为/etc/sudoers。
Apt全称为the Advanced Packaging Tool,是ubuntu的软件包管理软件,通过它你可以无需考虑软件依赖关系,直接安装你所需要的软件,而apt会自动下载有依赖关系的包,并按顺序安装,在ubuntu中安装有他的一个图形化界面程序synaptic(中文译名为“新立得”),有兴趣的话也可以使用这个程序来安装你所需要的软件。(如果你想了解更多可以查看一下关于debian计划的资料)
第二步,配置环境变量:
输入命令:sudo gedit /etc/profile,输入密码,打开profile文件
在最下面输入如下内容:
#set Java Environment
export JAVA_HOME= (你的java安装位置,一般为/usr/lib/jvm/java-6-sun)
export CLASSPATH=".:$JAVA_HOME/lib:$CLASSPATH"
export PATH="$JAVA_HOME/:$PATH"
这一步的意义是配置环境变量,使你的系统可以找到java。
第三步:验证java是否安装成功
新建文件Helloworld.java 输入如下内容:
public class Helloworld{
public static void main(String args[]){
System.out.println(“Hello World”);
}
}
输入命令:
javac Helloworld.java;(生成编译文件)
java Helloworld
如果出现“HelloWorld”说明java程序可以运行,也即java已经安装成功。
安装openssh:
同样的,以ubuntu为例,用户名为u:
第一步,确认已经连接上互联网,输入命令:
sudo apt-get install ssh
第二步,配置可以无密码登陆本机:
首先查看在u用户下是否存在.ssh文件夹(注意ssh前面有“.”,这是一个隐藏文件夹),输入命令:ls –a /home/u。一般来说,安装ssh时会自动在当前用户下创建这个隐藏文件夹,如果没有的,可以手动创建一个。接下来,
输入命令:
ssh-keygen -t dsa -P '' –f ~/.ssh/id_dsa
在ubuntu中,~代表当前用户文件夹,这里即/home/u。
这个命令会在.ssh文件夹下创建两个文件id_dsa及id_dsa.pub,这是ssh的一对私钥和公钥,类似于钥匙及锁,把id_da.pub(公钥)追加到授权的key里面去,
输入命令:
cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys
至此无密码登陆本机以安装完成。
第三步,验证ssh已安装成功及无密码登陆本机
输入命令:
ssh localhost
如果可以登录,说明已经安装成功
第四步,将authorized_keys拷贝到其他主机
实际上,在hadoop的安装过程中,是否无密码登陆不是必须的,但是如果不配置无密码登陆的话,每次启动hadoop,都需要输入密码以登陆到每台daotanode,考虑到一般的hadoop集群动辄数十数百台机器,因此一般来说都会配置ssh的无密码登陆。
安装hadoop:
在安装hadoop前,我们需要先修改主机的几个配置文件:
在下面这个文件,添加你的主机需要识别的主机名及其对应的ip地址
/etc/hosts:
127.0.0.1 localhost
10.37.128.2 master
10.37.128.3 slave1
10.37.128.4 slave2
在下面这个文件修改你的主机名
/etc/hostname:
你的主机名(如master,slave1等)
同时根据需要,我们要在 /home/你的用户名 这个文件夹下创立tmp文件夹作为hdfs的存储文件夹。
安装hadoop官方发行版,你可以在以下地址获得hadoop的官方发行版
http://www.apache.org/dyn/closer.cgi/hadoop/core/
下载stable版本,目前是0.20.2。如下:
在master上,下载hadoop-0.20.2.tar.gz并将其解压,这里将其解压到用户目录下,一般为/home/[你的用户名]/,这里假设用户名为u,进入conf文件夹,修改配置文件:
conf/Hadoop-env.sh:
export JAVA_HOME=“你的java安装地址”
指定java位置
conf/core-site.xml:
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<!-- Put site-specific property overrides in this file. -->
<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://master:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/home/u/tmp</value>
</property>
</configuration>
这是hadoop核心的配置文件,这里配置的是hdfs(hadoop的分布式文件系统)的地址及端口号,后一项配置为hdfs的存储文件夹,这个文件夹需要你自己创建。
conf/hdfs-site.xml:
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<!-- Put site-specific property overrides in this file. -->
<configuration>
<property>
<name>dfs.replication</name>
<value>2</value>
</property>
<property>
<name>dfs.name.dir</name>
<value>/home/u/hdfs/name</value>
</property>
<property>
<name>dfs.data.dir</name>
<value>/home/u/hdfs/data</value>
</property>
</configuration>
这是hadoop中hdfs的配置,配置的备份方式,默认为3。
conf/mapred-site.xml:
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<!-- Put site-specific property overrides in this file. -->
<configuration>
<property>
<name>mapred.job.tracker</name>
<value>master:9001</value>
</property>
</configuration>
这是hadoop中mapreduce的配置文件,配置的是jobtracker的地址及端口
conf/masters:
master
这个文件指明了谁是master,也可以填写ip地址,填写主机名是为了便于区分。
conf/slaves:
slave1
slave2
这个文件指明了谁是slave,同样也可以填写ip地址。
需要注意的是,如果安装的是0.20之前的版本,那么只有一个配置文件,即为hadoop-site.xml。
另一个需要注意的是hadoop的配置不仅仅这几项,hadoop在启动时,会用这几项的配置去修改默认配置,也就是说,hadoop有完整的默认配置,你在这里进行配置只是相当于修改hadoop的默认配置,这种做法既可以保证程序的安全性,不易出错,对于用户来说,这种做法也很方便。如果你想查看hadoop的默认配置,可以到docs中查看core-default.html, hdfs-default.html,和mapred-default.html这三个文件(0.20版本).
修改完这几个文件之后,通过scp命令将hadoop文件夹发送到其他节点上(slave1,slave2),用户名为u
scp –r /home/u/hadoop slave1:/home/u/
scp –r /home/u/hadoop slave2:/home/u/
至此,hadoop就可以说是安装完成了
启动hadoop前,需格式化hadoop的文件系统hdfs(这点与windows是一样的,重新分区后的卷总是需要格式化的),在master上,进入hadoop文件夹
输入命令:bin/hadoop namenode –format
格式化文件系统,接下来,启动hadoop
输入命令:
bin/start-all.sh(全部启动)
最后,验证hadoop是否安装成功
打开浏览器,分别输入网址
http://localhost:50030 (mapreduce的web页面)
http://localhost:50070 (hdfs的web页面)
如果都能查看,说明hadoop已经安装成功。
对于hadoop来说,mapreduce及hdfs都是必须的,但是如果有必要的话,你依然可以只启动hdfs(start-dfs.sh)或mapreduce(start-mapred.sh)
如果你的hadoop并没有正常工作,那你可查看log文件加下的日志内容一查看哪里出现问题。
向hadoop集群添加新的节点
Hadoop的管理机制很灵活,你可以动态的添加节点,配置新添加的三个节点,我们先给他们分配ip地址
10.37.128.5—slave,datanode,tasktracker—slave3(主机名)
10.37.128.6—slave,datanode,tasktracker—slave4(主机名)
10.37.128.7—slave,datanode,tasktracker—slave5(主机名)
同样的,在新添加的节点上安装jdk1.6及openssh。
同样进行hadoop的配置,当然你也可以直接从master拷贝,修改masters及slaves文件(经测试,如果不修改,也可以连接上,但是你下次启动时需要再次手动连入集群)。
输入以下命令:
bin/hadoop-daemon.sh --config ./conf start datanode
bin/hadoop-daemon.sh --config ./conf start tasktracker
这样就可以把新的节点联入集群中。
从上面这个你可以很明显的看出,第一步是启动datanode,第二步是启动tasktracker。
这里在介绍两个命令,就是重启坏死的节点,排除问题后,在坏死的节点上输入命令:
bin/hadoop-daemon.sh start datanode
bin/hadoop-daemon.sh start jobtracker
其实,参照上例,你可以看出,这个命令就是重启节点,也就是说,在重启的节点上输入启动命令,就可以把节点重新联入hadoop集群。
以上就是我们配置hadoop及日常使用时遇到的一些小问题。
同时我们搭建了一个用于mapreduce编程的网站,你可以在上面练习编写mapreduce程序,网站的地址是cloudcomputing.ruc.edu.cn。现在开放注册。想要学习mapreduce编程的朋友可以先到这个网站上练习一下。
Nutch也是hadoop的顶级项目之一(详见http://nutch.apache.org/) ,hadoop源于nutch,也独立于nutch。虽然两者已经互相独立,但是还有很紧密的联系。与此类似,hadoop也并不是一个单独的项目,hadoop内出了最基本的hadoop common外,还有hdfs,mapreduce,zookeeper。同时也有一些相关项目,比如avro,chukwa,hbase,hive,mahout,pig(这些项目中很多都是从hadoop的子项目升级为apache的顶级项目的,由此可见hadoop的火热)。
对于新手,我们推荐按照默认方式安装hadoop,即同时安装hadoop common,hadoop hdfs,hadoop mapreduce。
目前,Hadoop可以运行在linux,unix,windows系统上。实际上hadoop是为在linux平台上使用而开发出来的。但是hadoop在一些主流的unix版本(甚至包括Mac OS X)也运行良好。对于windows,这个问题有些复杂。如果你想在windows上运行hadoop,那么你必须先安装Cygwin以模拟linux环境,然后再安装hadoop。
安装hadoop前,你需要先安装java6与ssh,java6必须是sun公司的jdk,这是hadoop编译运行的需要,ssh推荐安装openssh(免费的~),安装ssh是因为hadoop需要通过ssh协议来启动各个节点上的守护进程。
安装hadoop
安装hadoop 的过程很简单,hadoop的使用也很简单,同时也很灵活。
Hadoop按三类分别将主机划分为两种角色,最基本的就是master和slave,主人与奴隶;按hdfs的角度,将主机划分为namenode和datanode(在分布式文件系统中,目录的管理很重要,管理目录就相当于主人,可以从这方面理解它们的关系);按mapreduce的角度,将主机划分为jobtracker和tasktracker(一个job经常被划分为多个task,从这个角度不难理解他们之间的关系)。接下来,说一下我们的搭建过程
假设我们有6台主机,同时假设这样一种场景:
某实验室想要研究hadoop,一开始只准备搭建一个有三台机器组成的小集群,搭建成功后使用时发现只有三台机器不能满足需要,因此又需要再添加三台机器。
分配给他们的ip地址为:
10.37.128.2
10.37.128.3
10.37.128.4
10.37.128.5
10.37.128.6
10.37.128.7
同时将不同角色划分给他们,并命名主机(以方便区分):
10.37.128.2—master,namonode,jobtracker—master(主机名)
10.37.128.3—slave,datanode,tasktracker—slave1(主机名)
10.37.128.4—slave,datanode,tasktracker—slave2(主机名)
10.37.128.5—slave,datanode,tasktracker—slave3(主机名)
10.37.128.6—slave,datanode,tasktracker—slave4(主机名)
10.37.128.7—slave,datanode,tasktracker—slave5(主机名)
另外所有机器上必须有一个共同的用户名,这里,这六台机器的用户名均为u。尤其注意区分用户名与主机名。
首先,需要在每台机器上安装jdk1.6和openssh
安装jdk1.6:
安装JDK是一个很简单的过程,以ubuntu为例。
第一步:
确保可以连接到互联网,输入命令:sudo apt-get install sun-java6-jdk,输入密码。
在接下来的三个确认中输入(或点击)Yes(或ok),你就可以安装java了
这里先解释一下sudo这个命令,sudo这个命令能够允许普通用户执行某些或全部root权限命令,sudo命令提供了详尽的日志,可以记录下每个用户使用它做了什么;同时sudo也提供了灵活的管理方式,可以限制用户使用的命令;他的配置文件为/etc/sudoers。
Apt全称为the Advanced Packaging Tool,是ubuntu的软件包管理软件,通过它你可以无需考虑软件依赖关系,直接安装你所需要的软件,而apt会自动下载有依赖关系的包,并按顺序安装,在ubuntu中安装有他的一个图形化界面程序synaptic(中文译名为“新立得”),有兴趣的话也可以使用这个程序来安装你所需要的软件。(如果你想了解更多可以查看一下关于debian计划的资料)
第二步,配置环境变量:
输入命令:sudo gedit /etc/profile,输入密码,打开profile文件
在最下面输入如下内容:
#set Java Environment
export JAVA_HOME= (你的java安装位置,一般为/usr/lib/jvm/java-6-sun)
export CLASSPATH=".:$JAVA_HOME/lib:$CLASSPATH"
export PATH="$JAVA_HOME/:$PATH"
这一步的意义是配置环境变量,使你的系统可以找到java。
第三步:验证java是否安装成功
新建文件Helloworld.java 输入如下内容:
public class Helloworld{
public static void main(String args[]){
System.out.println(“Hello World”);
}
}
输入命令:
javac Helloworld.java;(生成编译文件)
java Helloworld
如果出现“HelloWorld”说明java程序可以运行,也即java已经安装成功。
安装openssh:
同样的,以ubuntu为例,用户名为u:
第一步,确认已经连接上互联网,输入命令:
sudo apt-get install ssh
第二步,配置可以无密码登陆本机:
首先查看在u用户下是否存在.ssh文件夹(注意ssh前面有“.”,这是一个隐藏文件夹),输入命令:ls –a /home/u。一般来说,安装ssh时会自动在当前用户下创建这个隐藏文件夹,如果没有的,可以手动创建一个。接下来,
输入命令:
ssh-keygen -t dsa -P '' –f ~/.ssh/id_dsa
在ubuntu中,~代表当前用户文件夹,这里即/home/u。
这个命令会在.ssh文件夹下创建两个文件id_dsa及id_dsa.pub,这是ssh的一对私钥和公钥,类似于钥匙及锁,把id_da.pub(公钥)追加到授权的key里面去,
输入命令:
cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys
至此无密码登陆本机以安装完成。
第三步,验证ssh已安装成功及无密码登陆本机
输入命令:
ssh localhost
如果可以登录,说明已经安装成功
第四步,将authorized_keys拷贝到其他主机
实际上,在hadoop的安装过程中,是否无密码登陆不是必须的,但是如果不配置无密码登陆的话,每次启动hadoop,都需要输入密码以登陆到每台daotanode,考虑到一般的hadoop集群动辄数十数百台机器,因此一般来说都会配置ssh的无密码登陆。
安装hadoop:
在安装hadoop前,我们需要先修改主机的几个配置文件:
在下面这个文件,添加你的主机需要识别的主机名及其对应的ip地址
/etc/hosts:
127.0.0.1 localhost
10.37.128.2 master
10.37.128.3 slave1
10.37.128.4 slave2
在下面这个文件修改你的主机名
/etc/hostname:
你的主机名(如master,slave1等)
同时根据需要,我们要在 /home/你的用户名 这个文件夹下创立tmp文件夹作为hdfs的存储文件夹。
安装hadoop官方发行版,你可以在以下地址获得hadoop的官方发行版
http://www.apache.org/dyn/closer.cgi/hadoop/core/
下载stable版本,目前是0.20.2。如下:
在master上,下载hadoop-0.20.2.tar.gz并将其解压,这里将其解压到用户目录下,一般为/home/[你的用户名]/,这里假设用户名为u,进入conf文件夹,修改配置文件:
conf/Hadoop-env.sh:
export JAVA_HOME=“你的java安装地址”
指定java位置
conf/core-site.xml:
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<!-- Put site-specific property overrides in this file. -->
<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://master:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/home/u/tmp</value>
</property>
</configuration>
这是hadoop核心的配置文件,这里配置的是hdfs(hadoop的分布式文件系统)的地址及端口号,后一项配置为hdfs的存储文件夹,这个文件夹需要你自己创建。
conf/hdfs-site.xml:
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<!-- Put site-specific property overrides in this file. -->
<configuration>
<property>
<name>dfs.replication</name>
<value>2</value>
</property>
<property>
<name>dfs.name.dir</name>
<value>/home/u/hdfs/name</value>
</property>
<property>
<name>dfs.data.dir</name>
<value>/home/u/hdfs/data</value>
</property>
</configuration>
这是hadoop中hdfs的配置,配置的备份方式,默认为3。
conf/mapred-site.xml:
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<!-- Put site-specific property overrides in this file. -->
<configuration>
<property>
<name>mapred.job.tracker</name>
<value>master:9001</value>
</property>
</configuration>
这是hadoop中mapreduce的配置文件,配置的是jobtracker的地址及端口
conf/masters:
master
这个文件指明了谁是master,也可以填写ip地址,填写主机名是为了便于区分。
conf/slaves:
slave1
slave2
这个文件指明了谁是slave,同样也可以填写ip地址。
需要注意的是,如果安装的是0.20之前的版本,那么只有一个配置文件,即为hadoop-site.xml。
另一个需要注意的是hadoop的配置不仅仅这几项,hadoop在启动时,会用这几项的配置去修改默认配置,也就是说,hadoop有完整的默认配置,你在这里进行配置只是相当于修改hadoop的默认配置,这种做法既可以保证程序的安全性,不易出错,对于用户来说,这种做法也很方便。如果你想查看hadoop的默认配置,可以到docs中查看core-default.html, hdfs-default.html,和mapred-default.html这三个文件(0.20版本).
修改完这几个文件之后,通过scp命令将hadoop文件夹发送到其他节点上(slave1,slave2),用户名为u
scp –r /home/u/hadoop slave1:/home/u/
scp –r /home/u/hadoop slave2:/home/u/
至此,hadoop就可以说是安装完成了
启动hadoop前,需格式化hadoop的文件系统hdfs(这点与windows是一样的,重新分区后的卷总是需要格式化的),在master上,进入hadoop文件夹
输入命令:bin/hadoop namenode –format
格式化文件系统,接下来,启动hadoop
输入命令:
bin/start-all.sh(全部启动)
最后,验证hadoop是否安装成功
打开浏览器,分别输入网址
http://localhost:50030 (mapreduce的web页面)
http://localhost:50070 (hdfs的web页面)
如果都能查看,说明hadoop已经安装成功。
对于hadoop来说,mapreduce及hdfs都是必须的,但是如果有必要的话,你依然可以只启动hdfs(start-dfs.sh)或mapreduce(start-mapred.sh)
如果你的hadoop并没有正常工作,那你可查看log文件加下的日志内容一查看哪里出现问题。
向hadoop集群添加新的节点
Hadoop的管理机制很灵活,你可以动态的添加节点,配置新添加的三个节点,我们先给他们分配ip地址
10.37.128.5—slave,datanode,tasktracker—slave3(主机名)
10.37.128.6—slave,datanode,tasktracker—slave4(主机名)
10.37.128.7—slave,datanode,tasktracker—slave5(主机名)
同样的,在新添加的节点上安装jdk1.6及openssh。
同样进行hadoop的配置,当然你也可以直接从master拷贝,修改masters及slaves文件(经测试,如果不修改,也可以连接上,但是你下次启动时需要再次手动连入集群)。
输入以下命令:
bin/hadoop-daemon.sh --config ./conf start datanode
bin/hadoop-daemon.sh --config ./conf start tasktracker
这样就可以把新的节点联入集群中。
从上面这个你可以很明显的看出,第一步是启动datanode,第二步是启动tasktracker。
这里在介绍两个命令,就是重启坏死的节点,排除问题后,在坏死的节点上输入命令:
bin/hadoop-daemon.sh start datanode
bin/hadoop-daemon.sh start jobtracker
其实,参照上例,你可以看出,这个命令就是重启节点,也就是说,在重启的节点上输入启动命令,就可以把节点重新联入hadoop集群。
以上就是我们配置hadoop及日常使用时遇到的一些小问题。
同时我们搭建了一个用于mapreduce编程的网站,你可以在上面练习编写mapreduce程序,网站的地址是cloudcomputing.ruc.edu.cn。现在开放注册。想要学习mapreduce编程的朋友可以先到这个网站上练习一下。
- Hadoop_Ubuntu学习笔记.pdf (785 KB)
- 下载次数: 7
发表评论
-
mysql 定时任务
2015-11-03 09:57 817定时任务 查看event是否开启: show variabl ... -
tomcat服务器大数量数据提交Post too large解决办法
2015-10-29 11:05 756tomcat默认设置能接收HTTP POST请求的大小最大 ... -
Tomcat启动内存设置
2015-10-20 15:40 730Tomcat的启动分为startupo.bat启动和注册为w ... -
Java串口包Javax.comm的安装
2015-10-12 16:32 719安装个java的串口包安装了半天,一直找不到串口,现在终于搞 ... -
在 Java 应用程序中访问 USB 设备
2015-10-10 17:49 984介绍 USB、jUSB 和 JSR- ... -
mysql定时器
2015-08-04 14:01 6255.1以后可以使用 ALTER EVENT `tes ... -
oracle安装成功后,更改字符集
2015-07-23 11:53 659看了网上的文章,乱码有以下几种可能 1. 操作系统的字符集 ... -
利用html5调用本地摄像头拍照上传图片
2015-05-18 09:36 2633测试只有PC上可以,手机上不行 <!DOCTYPE ... -
必须Mark!最佳HTML5应用开发工具推荐
2015-05-15 22:50 994摘要:HTML5自诞生以来,作为新一代的Web标准,越来 ... -
Mobl试用二
2015-05-13 14:28 669最近有空又看了一下Mobl的一些说语法,备忘一下: 1 ... -
Nginx配置文件详细说明
2015-05-08 19:58 635在此记录下Nginx服务器nginx.conf的配置文件说明 ... -
axis调用cxf
2015-04-23 13:51 5781、写address时不用加?wsdl Service s ... -
mysql 获取第一个汉字首字母
2015-03-18 17:48 676select dmlb, dmz, dmsm1, CHAR ... -
failed to install Tomcat6 service解决办法
2015-02-12 09:20 563最近我重装了一下tomcat 6.0,可不知为什么,总是安装 ... -
tomcat 分配java内存
2015-02-11 10:37 624//首先检查程序有没有限入死循环 这个问题主要还是由这个问 ... -
[Android算法] Android蓝牙开发浅谈
2014-12-15 15:27 694对于一般的软件开发人 ... -
Android 内存溢出解决方案(OOM) 整理总结
2014-11-21 10:12 775原创作品,允许转载,转载时请务必以超链接形式标明文章 原始出 ... -
《HTML5从入门到精通》中文学习教程 PDF
2014-11-19 21:26 1153HTML5 草案的前身名为Web Applications ... -
mysql字符串函数(转载)
2014-11-13 12:05 591对于针对字符串位置的操作,第一个位置被标记为1。 AS ... -
MySQL中tinytext、text、mediumtext和longtext详解
2014-11-07 11:37 900、数字类型 类型 范围 说明 ...
相关推荐
该应用在Ubuntu 9.10操作系统上运行,使用Hadoop 0.20.2版本的HDFS文件系统,开发环境为Eclipse,测试环境为本机的伪分布模式。在测试过程中,使用了一千万行随机生成的数据,大小约为260MB。 **注意事项与优化** ...
内容概要:本文详细介绍了永磁同步电机(PMSM)三闭环控制系统的仿真建模方法及其参数优化技巧。首先阐述了三闭环控制的整体架构,即位置环、速度环和电流环的层级关系,并解释了每个环节的作用。接着展示了各环的具体实现代码,如电流环的PI控制器、速度环的前馈控制以及位置环的限幅处理。文中强调了调参的重要性和注意事项,提供了具体的参数选择依据和调试建议。最后分享了一些实用的仿真技巧,如死区补偿、故障注入等,确保模型能够应对实际工况。 适合人群:从事电机控制研究的技术人员、研究生及以上水平的学生,特别是对永磁同步电机三闭环控制感兴趣的读者。 使用场景及目标:适用于需要深入了解PMSM三闭环控制原理并进行仿真实验的研究人员和技术开发者。目标是帮助读者掌握如何构建高效的三闭环控制系统,提高电机性能,降低能耗,增强系统的鲁棒性和可靠性。 其他说明:文中提供的代码片段和参数配置均基于MATLAB/Simulink平台,建议读者在实践中结合实际情况调整参数,以获得最佳效果。同时,附带的参考资料也为进一步学习提供了指导。
光电材料仿真,电子仿真等;从入门到精通教程;含代码案例解析。
内容概要:本文详细介绍了利用PFC3D5.0进行滑坡致灾与建筑物易损性分析的完整代码实现。首先,通过Python和Fish语言构建了滑坡体和建筑物的模型,设置了关键参数如密度、刚度、摩擦系数等,确保滑坡体能够真实模拟滑坡行为。其次,针对建筑物的不同部位(楼板、墙体、支柱),采用不同的材料特性进行建模,并加入了实时监测系统,用于记录滑坡过程中各部件的应力、应变以及冲击力的变化情况。此外,还实现了冲击力监测、损伤评估等功能,能够自动触发应急分析并在模拟结束后生成详细的损伤报告。最后,通过对多次模拟结果的数据处理,生成了建筑物的易损性曲线,验证了模型的有效性和准确性。 适合人群:从事地质灾害研究、土木工程、结构安全评估的研究人员和技术人员。 使用场景及目标:适用于滑坡灾害预测、建筑设计优化、抗震防灾等领域。通过模拟不同条件下滑坡对建筑物的影响,帮助研究人员更好地理解滑坡致灾机理,为制定有效的防护措施提供科学依据。 其他说明:文中提供了大量实用的小技巧,如调整参数以获得更好的模拟效果、优化计算效率等。同时强调了模型验证的重要性,确保研究成果具有较高的可信度。
编译httpserver 通过后记录的
光电材料仿真,电子仿真等;从入门到精通教程;含代码案例解析。
内容概要:本文详细探讨了在Android平台上进行图像模板匹配的技术挑战和解决方案,特别是在处理不同尺寸和旋转角度的目标物时的方法。文中介绍了使用OpenCV构建图像金字塔、处理旋转模板以及利用NEON指令集优化性能的具体实现。此外,文章还讨论了在armeabi-v7a和arm64-v8a这两种主要ARM架构下的优化技巧,如内存对齐、SIMD指令优化、RenderScript并行处理等。作者分享了许多实践经验,包括如何避免常见的性能瓶颈和兼容性问题。 适合人群:有一定Android开发经验,尤其是熟悉OpenCV和NDK编程的中级及以上开发者。 使用场景及目标:适用于需要在移动设备上进行高效图像识别的应用开发,如实时视频流中的物体检测、游戏内的道具识别等。目标是提高模板匹配的速度和准确性,同时确保在不同硬件配置下的稳定性和兼容性。 其他说明:文章提供了丰富的代码片段和实际案例,帮助读者更好地理解和应用所介绍的技术。特别强调了在不同ARM架构下的优化策略,为开发者提供了宝贵的参考资料。
光电材料仿真,电子仿真等;从入门到精通教程;含代码案例解析。
内容概要:本文详细介绍了利用COMSOL软件模拟电晕放电离子风的过程。首先解释了电晕放电的基本概念,即在高压电场下电极周围空气被电离形成离子风。接着阐述了如何在COMSOL中建立针-板电极结构的三维模型,涉及静电、层流和稀物质传递三个物理场的设置。文中提供了具体的MATLAB代码片段用于初始化模型、定义几何体、设置边界条件、配置物理参数、进行网格划分以及求解模型。此外,还讨论了求解过程中可能出现的问题及解决方法,如收敛技巧、网格划分策略等。最后强调了通过模拟获得的电场分布、气流速度和离子浓度等结果对于理解和优化电晕放电离子风设备的重要性。 适用人群:对电晕放电现象感兴趣的科研人员和技术开发者,尤其是那些希望深入了解多物理场耦合仿真技术的人群。 使用场景及目标:适用于需要研究电晕放电离子风特性的场合,如空气净化装置、散热设备等领域的产品设计与性能评估。目标是帮助用户掌握如何使用COMSOL软件构建并求解电晕放电离子风模型,从而更好地理解相关物理机制。 其他说明:文中提到的实际操作细节和遇到的技术挑战有助于新手避免常见错误,提高建模效率。同时,提供的具体参数设置和代码示例也为进一步深入研究奠定了基础。
内容概要:本文详细介绍了多模态属性级情感分析的技术原理及其应用场景。首先解释了多模态属性级情感分析的意义,即通过结合文本和图像信息来更全面地理解用户情感。接着阐述了数据预处理方法,如使用BERT进行文本编码和ResNet处理图像。然后深入探讨了模型架构,包括双流网络结构和特征融合策略,以及如何通过跨模态注意力机制实现更好的特征对齐。此外,文中还分享了多个实战案例,如电商广告投放系统中如何利用该技术提高转化率,以及在处理用户评价时遇到的问题和解决办法。最后讨论了一些常见的技术挑战,如模态间权重调整、背景干扰物处理等。 适合人群:从事自然语言处理、计算机视觉研究的专业人士,尤其是希望将这两种技术结合起来进行情感分析的研究者和技术开发者。 使用场景及目标:适用于电商平台、社交媒体平台等需要分析用户反馈的场景,旨在帮助企业更好地理解消费者的真实想法,从而优化产品和服务。通过这种方式,企业可以发现潜在的市场机会并改进营销策略。 其他说明:文章不仅提供了理论指导,还包括具体的代码实现示例,有助于读者快速上手实践。同时强调了实际应用中的注意事项,如数据清洗、模型调优等方面的经验教训。
内容概要:本文详细介绍了5MW海上永磁风电直驱系统的Simulink仿真过程,涵盖矢量控制、混合储能系统以及并网逆变器的设计与调试。首先,文章解释了系统架构,包括永磁电机、两电平并网变流器和混合储能模块。接着,深入探讨了矢量控制中的坐标变换、PI参数设置及其对电网波动的影响。对于混合储能系统,文章讨论了滑动平均滤波用于功率分配的方法,确保超级电容和锂电池的有效协同工作。此外,文章还涉及并网逆变器的控制策略,特别是变参数PI控制和死区时间补偿,以应对复杂的电网环境。最后,通过仿真结果展示了系统的高效性和稳定性。 适合人群:从事电力电子工程、风电系统设计与仿真的工程师和技术研究人员。 使用场景及目标:适用于希望深入了解海上风电系统仿真技术的专业人士,旨在提高对矢量控制、混合储能和并网逆变器的理解,从而优化实际应用中的系统性能。 其他说明:文中提供了多个MATLAB代码片段,帮助读者更好地理解和复现相关控制算法。同时,强调了仿真过程中遇到的实际问题及解决方案,如风速突变、电网电压跌落等情况下的系统响应。
光电材料仿真,电子仿真等;从入门到精通教程;含代码案例解析。
该资源为natsort-5.4.0-py2.py3-none-any.whl,欢迎下载使用哦!
内容概要:本文详细介绍了双馈风力发电机(DFIG)的矢量控制仿真模型,特别是定子侧和转子侧的控制策略。定子侧采用电压定向矢量控制,通过双闭环结构(外环控制直流侧电压,内环控制电流),确保功率因数为1。转子侧采用磁链定向矢量控制,同样基于双闭环结构(外环控制功率,内环控制电流),并引入前馈电压补偿提高响应速度。文中提供了具体的PI控制器代码实现,并讨论了仿真模型的搭建方法,如使用Python的scipy库进行动态响应模拟。此外,文章还提到了一些常见的仿真问题及解决方案,如crowbar保护电路、最大功率跟踪算法和低电压穿越模块等。 适合人群:从事风电系统设计、控制算法开发的研究人员和技术人员,以及对电力电子控制系统感兴趣的工程师。 使用场景及目标:适用于希望深入了解DFIG矢量控制原理和实现细节的专业人士,帮助他们掌握定子侧和转子侧的具体控制策略,优化仿真模型,解决实际工程中的问题。 其他说明:文章不仅提供了理论分析,还包括了大量的代码片段和实践经验,有助于读者更好地理解和应用相关技术。
内容概要:本文详细介绍了利用Python进行煤矿瓦斯气驱过程中二氧化碳和氮气的应用方法和技术细节。首先展示了如何通过Python脚本处理气驱压力监测数据并绘制对比图,接着讲解了注气速率控制的PID算法实现及其注意事项。文中还涉及裂隙气体扩散模拟、湿度对氮气驱替的影响以及基于状态机的注气控制系统设计。此外,提供了实时气体浓度监控、数据滤波、阈值报警等功能的具体实现方式,并强调了数据可视化的应用价值。最后讨论了注气孔布置优化和注气压力控制的实际操作要点。 适合人群:从事煤矿开采及相关领域的技术人员、工程师,尤其是具有一定编程基础并对自动化控制感兴趣的从业者。 使用场景及目标:适用于煤矿瓦斯气驱项目的规划、实施与维护阶段,旨在提高瓦斯抽采效率,确保安全生产,同时减少人为因素导致的操作失误。通过学习本文提供的代码示例和技术方案,读者能够掌握如何运用Python解决实际工程问题的方法。 其他说明:文中提到的所有代码均为简化版本,用于解释相关概念和技术原理,在实际项目中可能需要进一步完善和优化。对于希望深入了解该领域的读者而言,本文不仅提供了实用的技术指导,也为后续研究奠定了良好的基础。
光电材料仿真,电子仿真等;从入门到精通教程;含代码案例解析。
街道级行政区划边界,wgs84坐标系,shp数据,直接分析使用。
字节码.md
Maven.md
内容概要:本文详细介绍了如何使用带有外源输入的非线性自回归网络(NARX)进行多变量时间序列预测,并提供了完整的Matlab代码实现。文章首先解释了NARX的基本概念,强调其能够同时考虑时间序列自身的历史值和其他相关变量(如政策变量)。接着逐步展示了从数据准备、创建NARX网络、训练网络到最后的预测与评估的具体步骤。文中还讨论了一些常见的挑战,如数据预处理、参数选择和模型优化技巧。此外,通过具体的例子演示了NARX在网络结构配置、训练方法选择等方面的应用细节。 适合人群:对时间序列预测感兴趣的研究人员和技术开发者,尤其是有一定Matlab基础并希望通过实例加深对NARX网络理解的人群。 使用场景及目标:适用于需要处理多变量时间序列预测任务的实际工程项目,如经济预测、电力系统负荷预测、空气质量预测等领域。目的是帮助读者掌握NARX网络的工作原理及其在不同应用场景下的具体实现方法。 其他说明:文章不仅提供理论指导,还包括大量实用的操作指南和代码片段,有助于读者快速上手实践。同时指出NARX虽然有效但对于长期依赖问题不如LSTM,但在特定条件下仍然是工业界的优选方案。