- 浏览: 1476486 次
- 性别:
- 来自: 北京
文章分类
- 全部博客 (691)
- linux (207)
- shell (33)
- java (42)
- 其他 (22)
- javascript (33)
- cloud (16)
- python (33)
- c (48)
- sql (12)
- 工具 (6)
- 缓存 (16)
- ubuntu (7)
- perl (3)
- lua (2)
- 超级有用 (2)
- 服务器 (2)
- mac (22)
- nginx (34)
- php (2)
- 内核 (2)
- gdb (13)
- ICTCLAS (2)
- mac android (0)
- unix (1)
- android (1)
- vim (1)
- epoll (1)
- ios (21)
- mysql (3)
- systemtap (1)
- 算法 (2)
- 汇编 (2)
- arm (3)
- 我的数据结构 (8)
- websocket (12)
- hadoop (5)
- thrift (2)
- hbase (1)
- graphviz (1)
- redis (1)
- raspberry (2)
- qemu (31)
- opencv (4)
- socket (1)
- opengl (1)
- ibeacons (1)
- emacs (6)
- openstack (24)
- docker (1)
- webrtc (11)
- angularjs (2)
- neutron (23)
- jslinux (18)
- 网络 (13)
- tap (9)
- tensorflow (8)
- nlu (4)
- asm.js (5)
- sip (3)
- xl2tp (5)
- conda (1)
- emscripten (6)
- ffmpeg (10)
- srt (1)
- wasm (5)
- bert (3)
- kaldi (4)
- 知识图谱 (1)
最新评论
-
wahahachuang8:
我喜欢代码简洁易读,服务稳定的推送服务,前段时间研究了一下go ...
websocket的helloworld -
q114687576:
http://www.blue-zero.com/WebSoc ...
websocket的helloworld -
zhaoyanzimm:
感谢您的分享,给我提供了很大的帮助,在使用过程中发现了一个问题 ...
nginx的helloworld模块的helloworld -
haoningabc:
leebyte 写道太NB了,期待早日用上Killinux!么 ...
qemu+emacs+gdb调试内核 -
leebyte:
太NB了,期待早日用上Killinux!
qemu+emacs+gdb调试内核
参考http://hadoop.apache.org/docs/r1.0.4/cn/quickstart.html
环境变量
修改两个配置文件
[root@centos54 conf]# cat hdfs-site.xml
[root@centos54 conf]# cat mapred-site.xml
ssh本机互信,略
为了ssh
初始化hdfs
bin/hadoop namenode -format
bin/start-all.sh
启动后几个进程
运行wordcount的例子
mkdir haoning
cd haoning
验证结果
NameNode - http://localhost:50070/
JobTracker - http://localhost:50030/
~
环境变量
hadoop-env.sh export JAVA_HOME=/usr/local/java/jdk1.6.0_45/
修改两个配置文件
[root@centos54 conf]# cat hdfs-site.xml
<?xml version="1.0"?> <?xml-stylesheet type="text/xsl" href="configuration.xsl"?> <configuration> <property> <name>fs.default.name</name> <value>localhost:9000</value> </property> <property> <name>dfs.replication</name> <value>1</value> </property> </configuration>
[root@centos54 conf]# cat mapred-site.xml
<?xml version="1.0"?> <?xml-stylesheet type="text/xsl" href="configuration.xsl"?> <configuration> <property>$ <name>mapred.job.tracker</name>$ <value>localhost:9001</value>$ </property>$ </configuration>
ssh本机互信,略
为了ssh
vim /etc/hosts ::1^I^Ilocalhost6.localdomain localhost
export HADOOP_HOME=/data/hadoop/hadoop-1.2.1 export HADOOP_CONF_DIR=$HADOOP_HOME/conf
初始化hdfs
bin/hadoop namenode -format
bin/start-all.sh
启动后几个进程
root@centos54 bin]# jps 23275 NameNode 23396 DataNode 23543 SecondaryNameNode 23641 JobTracker 23768 TaskTracker
运行wordcount的例子
mkdir haoning
cd haoning
../bin/hadoop fs -put ../conf input ../bin/hadoop jar ../hadoop-examples-1.2.1.jar grep input output 'dfs[a-z.]+'
[root@centos54 haoning]# tree . |-- input | |-- capacity-scheduler.xml | |-- configuration.xsl | |-- core-site.xml | |-- fair-scheduler.xml | |-- hadoop-env.sh | |-- hadoop-metrics2.properties | |-- hadoop-policy.xml | |-- hdfs-site.xml | |-- log4j.properties | |-- mapred-queue-acls.xml | |-- mapred-site.xml | |-- masters | |-- slaves | |-- ssl-client.xml.example | |-- ssl-server.xml.example | |-- task-log4j.properties | `-- taskcontroller.cfg `-- output |-- _SUCCESS `-- part-00000
得到的结果 [root@centos54 haoning]# cat output/* 1 dfs.replication 1 dfs.server.namenode. 1 dfsadmin
验证结果
cd input [root@centos54 input]# grep dfs * hadoop-env.sh:# The following applies to multiple commands (fs, dfs, fsck, distcp etc) hadoop-policy.xml: dfsadmin and mradmin commands to refresh the security policy in-effect. hdfs-site.xml: <name>dfs.replication</name> log4j.properties:log4j.logger.org.apache.hadoop.hdfs.server.namenode.FSNamesystem.audit=WARN [root@centos54 input]#
NameNode - http://localhost:50070/
JobTracker - http://localhost:50030/
~
发表评论
-
tomcat的https的例子
2016-09-22 17:50 458参考http://jingyan.baidu.com/arti ... -
jpa
2014-11-25 20:14 573可以使用jpa生成数据库表 import javax.pe ... -
jspwebshell
2014-06-20 12:35 6722<%@ page contentType=" ... -
thirft连接hbase的例子
2014-03-18 16:10 18555hbase支持的thrift有两种方式 thrift和 thr ... -
hbase的安装和测试
2014-03-17 16:04 840使用hbase-0.94.17.tar.gz 如果想练机使用必 ... -
thrift的测试
2014-03-13 17:20 1962尝试失败的版本 0.9.1 要求autoconf是2.56以上 ... -
sqoop从mysql到数据到hadoop中
2014-03-11 13:54 2685groupadd hadoop useradd hadoop ... -
jvm总结
2013-03-04 19:02 1735分代 年轻代: 所有新生 ... -
java的upload
2013-01-24 19:31 1961好久没写java的东西了 遇到个服务器,不是标准的httpSe ... -
spring lucene rmi例子
2012-09-18 16:24 1900http://www.blogjava.net/freeman ... -
jna的使用
2012-04-22 21:06 2909遇到java调用共享内存的 ... -
hessian
2012-04-10 10:40 919http://hessian.caucho.com/ 这个好 ... -
jvm调优应该知道的一点东西
2012-02-27 18:13 1259概念 概念 Java 工具 jsta ... -
java socket备份
2012-02-22 10:01 1058package org.hao; import java ... -
java操作内存
2011-12-29 00:57 5181How To Write Directly to a Memo ... -
单例模式7中
2011-12-28 09:56 917package com.sohu.zookeeper; // ... -
jprofiler6远程resin
2011-07-07 23:17 2694网上找的破解码:L-Larry_Lau@163.com#784 ... -
eclipse不装插件配置resin,可以debug
2011-06-27 23:41 1829新建java工程 1.目录如下 G:. ├─.settings ... -
session所有信息
2011-06-07 11:32 787转载http://www.99inf.net/Software ... -
看端口号用netstat -abn
2011-05-14 00:27 1304张孝祥讲过个fport,到哪都依赖他看端口被什么占用, 原来n ...
相关推荐
1. Hadoop的核心组成部分是HDFS(Hadoop Distributed File System),它是一个分布式文件系统,其中datanode是数据的实际存储节点,而namenode则是HDFS的元数据管理器,负责文件系统的命名空间和数据块映射。...
10-hadoop集群搭建的无密登陆配置.avi 第二天 hdfs的原理和使用操作、编程 01-NN元数据管理机制.avi 02-NN工作机制2.avi 03-DN工作原理.avi 04-HDFS的JAVA客户端编写.avi 05-filesystem设计思想总结.av i ...
10-hadoop集群搭建的无密登陆配置.avi 第二天 hdfs的原理和使用操作、编程 01-NN元数据管理机制.avi 02-NN工作机制2.avi 03-DN工作原理.avi 04-HDFS的JAVA客户端编写.avi 05-filesystem设计思想总结.avi ...
【软件工程课程设计报告Hadoop配置】主要涵盖了在软件工程课程中使用Hadoop进行课程设计的相关内容,包括环境搭建、Eclipse中的应用测试、遇到的问题与解决方案以及对Hadoop源码的分析。以下是对这些知识点的详细...
步骤1:创建hadoop用户。在三台节点机上分别创建一个UID为660的用户hadoop,并设置统一密码h123456。此步骤的目的在于建立一个专用的用户来运行Hadoop服务,以保证系统的安全性和稳定性。 步骤2:设置Master节点机...
1. Hadoop环境搭建:Hadoop的搭建涉及到多个步骤,包括创建用户账户、设置IP地址、安装Java环境、配置环境变量等。在搭建Hadoop环境时,需要对Java进行配置,因为Hadoop是用Java编写的,并且需要Java环境来运行。SSH...
很抱歉,但根据您提供的信息,标题和描述中提到的是"hadoop源代码版本归档",而压缩包内的文件名称列表却包含了一系列法律考试复习资料,并没有与Hadoop相关的源代码或文档。这表明可能存在一个误解,因为压缩包里的...
第五章至第七章可能会涉及Hadoop的安装与配置,包括单机模式、伪分布式模式和完全分布式模式的搭建,以及相关的环境变量设置和配置文件详解。 第八章至第十章,可能会讲解Hadoop生态系统中的其他组件,如HBase...
对学习的一点记录,主要记录一些关于hadoop生态的部署流程,以及注意事项,供以后复习使用,内容比较粗糙,有很多地方还需要不断改善,欢迎大佬前来批评指正。
标题中的“大数据导论-第二章-大数据处理架构Hadoop”揭示了这组课件主要集中在大数据的基础理论以及Hadoop这一关键的大数据处理框架上。...对于有经验的从业者,这也可以作为复习和深化Hadoop知识的参考资料。
以上就是大数据处理技术课程期末复习总结的内容,通过对Hadoop的各个核心组件的学习,可以更好地理解其在大数据处理中的应用,以及如何搭建和维护Hadoop集群,解决运行过程中的问题。这些知识点对于大数据工程师来说...
Hadoop生态圈(三驾马车+ZK+Hive+Sqoop+Flume)复习脑图 version-1.0-附件资源
复习Android或iOS开发环境的搭建,理解原生开发(Java/Kotlin for Android, Swift/Objective-C for iOS)和跨平台开发(如React Native、Flutter)的区别。 七、云计算与大数据 云计算技术如AWS、Azure、Google ...
复习时,不仅要理解和记忆知识点,还要通过实际操作加深理解,比如模拟搭建大数据平台,亲手实践MapReduce编程,以确保理论与实践相结合,提高应试能力。同时,对于老师强调的部分,如可能出填空题、选择题的地方,...
67_hadoop的搭建的复习6 h) {. C, f( J( @& F0 G 68_脚本分析的过程" ?' q# U7 B/ ~" W, e- I 69_开启和关闭一个进程 70_hadoop常用的命令和关闭防火墙) Q" A0 B3 M8 s3 ? 71_hadoop存储为何是128M 72_hadoop的存储...
清华大学出品的大数据实战课程PPT学习课件,非常适合大学生和职场人士学习,也适合老鸟复习回顾,完全可用于自学入门,很经典好用的PPT课件哦~
7. **实验指南**:实验指南可能包含了一系列实践操作指导,帮助学生通过实际操作来加深对大数据技术的理解,比如Hadoop集群的搭建、数据处理任务的编写和执行等。 8. **答案版试卷**:提供了解答参考,方便学生自我...
例如,在Hadoop相关总结中,提到了Hadoop的配置文件、集群搭建、HDFS读写流程、MapReduce的Shuffle过程等。在Kafka相关总结中,介绍了Kafka的架构、压测、主题数量、副本数设定等。 从文档内容来看,这份面试宝典...
- **Hadoop相关总结**:讲述Hadoop的端口号、配置文件和集群搭建,HDFS的读写流程,MapReduce的Shuffle过程,Yarn的Job提交流程和调度器,以及Hadoop参数调优和相关项目经验。 - **Zookeeper相关总结**:涵盖...
实验二.ppt:可能是关于部署和运行一个简单的分布式应用,比如搭建一个Hadoop集群并执行MapReduce任务,让学生亲身体验分布式计算的过程。 实验四.ppt:可能涉及到更高级的主题,如分布式数据库的使用,例如通过...