- 浏览: 65177 次
- 性别:
- 来自: 广州
文章分类
最新评论
-
zuo_huai:
赞一个!!!
java多线程编程 -
zuo_huai:
呵呵……,不客气
使用common-fileupload 和common-io实现文件的上传和批量上传 -
lg_asus:
呵呵,不错的东东。多谢
使用common-fileupload 和common-io实现文件的上传和批量上传
环境:redhat9 ,hadoop-1.0.4,hbase-0.94.2,Window7,
安装hadoop:
1.安装ssh
sudo apt-get install ssh 验证 ssh 是否安装 service sshd start
2.安装rsync
sudo apt-get install rsync 验证 rsync 是否安装: rpm -qa|grep rsync
3.配置ssh免登录
ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa
cat ~/.ssh/id_rsa.pub >>~/.ssh/authorized_keys
验证是否成功
ssh localhost
4.安装JDK,解压hadoop-1.0.4 tar -xzvf hadoop-1.0.4-bin.tar.gz
5,修改hadoop配置文件,指定JDk安装路径
vi conf/hadoop-env.sh
export JAVA_HOME=/home/app/jdk1.6.0_30
6.修改redhat的主机名
在/etc/hosts中添加
192.168.150.128 hadoop.hbase
7.修改hadoop配置文件,指定JDk安装路径
在hadoop-env.sh中添加JAVA_HOME,vi conf/hadoop-env.sh
export JAVA_HOME=/usr/java/jdk1.6.0_37/
8,修改Hadoop核心配置文件core-site.xml,配置HDFS的地址和端口号
vi conf/core-site.xml
<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://hadoop.hbase:9000</value>
</property>
</configuration>
9.修改Hadoop中HDFS的配置,修改replication
vi conf/hdfs-site.xml
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
</configuration>
10,修改Hadoop中MapReduce的配置文件,配置的是JobTracker的地址和端口
vi conf/mapred-site.xml
<configuration>
<property>
<name>mapred.job.tracker</name>
<value>hadoop.hbase:9001</value>
</property>
</configuration>
10,格式化Hadoop的文件系统HDFS
bin/hadoop namenode -format
11,启动hadoop
bin/start-all.sh
12.在WINDOW7 在配置IP 和主机名的映射
修改C:\WINDOWS\system32\drivers\etc\hosts 的文件
添加
192.168.150.128 hadoop.hbase
验证hadoop是否安装成功
最后,验证Hadoop是否安装成功。打开在WINDOW7中浏览器,分别输入一下网址:
http://lhadoop.hbase:50030 (MapReduce的Web页面)
http://hadoop.hbase:50070 (HDfS的web页面)
hbase的安装
1.解压hbase-0.94.2 tar -xzvf hbase-0.94.2
2.修改hbase-env.sh
添加JAVA_HOME
export JAVA_HOME=/usr/java/jdk1.6.0_37/
3.修改hbase-site.xml
添加
<configuration>
<property>
<name>hbase.rootdir</name>
<value>hdfs://hadoop.hbase:9000/hbase</value>
</property>
</configuration>
4.验证 ./bin/hbase shell进入shell,创建一个test表,同时http://hadoop.hbase:60010/master-status 可以看到master的相关内容
在eclipse 中创建项目,导入hbase需要的jar包
编写如下代码:
import java.io.IOException; import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.hbase.HBaseConfiguration; import org.apache.hadoop.hbase.HTableDescriptor; import org.apache.hadoop.hbase.MasterNotRunningException; import org.apache.hadoop.hbase.TableNotFoundException; import org.apache.hadoop.hbase.ZooKeeperConnectionException; import org.apache.hadoop.hbase.client.HBaseAdmin; import org.apache.hadoop.hbase.util.Bytes; public class HbaseInterface { //创建Configuration public HbaseInterface(){ } public static void main(String[] args){ try { Configuration conf = HBaseConfiguration.create(); HbaseInterface hi = new HbaseInterface(); conf.set("hbase.zookeeper.quorum", "192.168.150.128"); HBaseAdmin admin = new HBaseAdmin(conf); HTableDescriptor tableDescriptor = admin.getTableDescriptor(Bytes.toBytes("test")); byte[] name = tableDescriptor.getName(); System.out.println(new String(name)); } catch (MasterNotRunningException e) { e.printStackTrace(); } catch (ZooKeeperConnectionException e) { e.printStackTrace(); } catch (TableNotFoundException e) { e.printStackTrace(); } catch (IOException e) { e.printStackTrace(); } } }
验证能够正常输出信息表名称test ,则连接成功,环境搭建成功
发表评论
-
java7-(fork-join) 的使用
2016-06-29 14:17 0public class ForkJoinTest { ... -
tomcat无法启动的问题 -Xss太小
2016-06-23 16:40 2957线上的tomcat 无法启 ... -
codis实现高可用的服务端架构
2016-01-11 11:03 0codis实现高可用的服务端架构 安装codis 用lv ... -
netty入门
2014-03-14 18:14 18711 阻塞IO ,阻塞异步IO,非阻塞异步IO 首先学习n ... -
SVN权限管理
2013-09-14 10:37 01.安装subversion 2.安装TortoiseS ... -
HIVE知识点
2013-08-21 20:35 0安装hive: 1.创建目录 ... -
HQL
2013-08-21 11:07 0select site, fr, count(sid) as ... -
PL/SQL 编程入门
2013-05-25 08:49 981PL/SQL 是基于SQL 语言的一种扩展,是运行在Orac ... -
Hbase微博系统
2013-05-02 11:38 0HBase是一个分布式的、面向列的开源数据库 HB ... -
由Word Count 得到的HDFS、map reducde
2013-05-02 10:57 0HDFS 设计目标: 大文件 一次写入,多次读取 普 ... -
新手在Centos 6 下mysql5.5.30下源码安装
2013-03-30 09:55 13551) 下载CentOS6,mysql5.5.30 源码包, ... -
Protocol Buffers的应用与分析将数据存储在Hbase中
2013-02-04 15:24 0ddd -
hadoop中的问题总结
2012-11-18 22:39 1699在做hadoop例子中,Win7远程连接linux服务器上的h ... -
jconsole在windows和linux版本下的使用
2013-04-02 17:10 4148在WINDWO7 平台下使用jconsole: jcons ... -
JDK自带VM分析工具jps,jstat,jmap,jconsole
2012-10-22 22:03 0一、概述 Sun 的JDK中的几个工具,非 ... -
精通java正则表达式
2012-10-16 22:41 2234精通java正则表达式 1.正则表达式的作用 ... -
java实现文件的按照每次读取固定行数读取一个 文件 ,计算文件总行数和通过LINUX 命令读取固定行数文件内容,计算文件总行数
2012-06-27 22:50 46221 ) java实现文件的按照每次读取固定行数读取一个文件 ... -
[转载]VMWARE 虚拟机连接主机,或被其他网内的机器访问
2012-04-12 12:24 2559原文:http://blog.sina.com.cn/s/bl ... -
JVM内存设置(转)
2012-02-07 09:23 1959对于jvm的设置我一直知道的很少,有时候遇到outOfM ... -
利用Java和Java IDL创建CORBA应用
2012-01-07 22:44 2926CORBA基本介绍 CORBA ...
相关推荐
这个资源包"Hadoop 2.7.2 (Window版本)"是专为在Windows操作系统上进行大数据开发设计的,它包含了Hadoop在Windows环境下的安装、配置和运行所需的所有组件。 Hadoop的核心由两个主要部分组成:HDFS(Hadoop ...
详细的讲述了hadoop的安装,zookeeper的安装,还有hbase的安装,每一步都非常的详细,按照我的粘贴就行
《Hadoop 2.7.5在Window10...总的来说,了解并掌握Hadoop在Window10环境下的部署和使用,对于深入理解大数据处理流程和实时数据分析具有重要意义。通过不断的实践和学习,你将能更好地驾驭这个强大的大数据处理工具。
描述中提到的“window环境开发hadoop和hbase所需要的本地hadoop.dll和winutils.exe文件”是关键点。在Windows上运行Hadoop,开发者通常会遇到两个主要问题:缺少必要的动态链接库(DLL)文件和缺失的`winutils.exe`...
在Linux环境下部署Hadoop 2.7.2,首先需要在Window上解压缩“hadoop-2.7.2.rar”文件,然后将解压后的文件复制到Linux服务器上。配置Hadoop环境涉及以下几个关键步骤: 1. **配置环境变量**:在`~/.bashrc`或`~/....
该资源主要用于在window10的Hadoop的bin文件下所需要的东西,主要用于使用window10中的eclipse访问当前的Linux的HBase,使用MapReduce的Job来实现复制HBase的表操作
1. 安装和配置HBase:掌握在Window10环境下,如何在Hadoop虚拟机上搭建HBase的伪分布式集群。 2. 使用HBase Shell:熟悉并熟练运用HBase提供的Shell命令,如创建表、添加数据、查询等。 3. 学习HBase概念:理解HBase...
HBase,全称为Hierarchical Database,是一款基于Google Bigtable理念设计的开源分布式数据库,属于Apache Hadoop生态系统的一部分。它提供了高可靠性、高性能、可伸缩的分布式存储解决方案。在本文中,我们将深入...
6. **Hadoop安装与配置**:下载Hadoop 2.7.5压缩包后,需要解压并进行适当的配置,包括设置环境变量、修改配置文件(如core-site.xml、hdfs-site.xml、yarn-site.xml等),以及初始化HDFS和启动集群。 7. **数据...
在本教程中,我们将在 VM 环境下配置 Hadoop,选择 Ubuntu 作为 Linux 版本,并使用 VMware Workstation 作为虚拟机软件。 一、配置环境 * 宿主机:Window7 * 虚拟机:Linux(Ubuntu) * 机器名/IP/用途: + xiami/...
HBase是一个分布式的、面向列的开源数据库,它是构建在Hadoop文件系统(HDFS)之上的,特别适合于处理海量结构化数据。HBase的设计目标是提供高可靠性、高性能以及实时的数据访问。本文将详细介绍HBase客户端的启用...
本篇内容主要围绕清华大学的一门精品大数据实战课程展开,聚焦于Hadoop、HBase、Hive和Spark这四大大数据处理框架,并特别关注其中的Spark SQL部分。该课程的PPT课件包含了丰富的教学内容和习题,旨在帮助学习者深入...
可以用于毕业设计(项目源码+项目说明)目前在window10/11测试环境一切正常,用于演示的图片和部署教程说明都在压缩包里
在描述中提到的“在window10环境下进行hadoop开发”,意味着这个压缩包是为Windows 10用户准备的,可能已经包含了针对Windows的配置和适配。在Windows上运行Hadoop通常需要解决一些额外的兼容性问题,比如安装 ...
2、该资源内项目代码都经过mac/window10/11/linux测试运行成功,功能ok的情况下才上传的,请放心下载使用! 3、本项目适合计算机相关专业(如软件工程、计科、人工智能、通信工程、自动化、电子信息等)的在校学生、...
这通常在"Window" -> "Preferences" -> "Hadoop Map/Reduce"菜单下完成。 4. 创建MapReduce项目:利用新安装的插件,可以创建专门的MapReduce项目,并编写Java代码实现业务逻辑。 5. 连接远程Hadoop集群:在...
通过学习,学员将能够独立完成Hadoop的安装、配置与管理,掌握在Hadoop、操作系统以及关系型数据库之间传递数据的技能,制定有效数据集成方案,并熟练向Hadoop提交作业以及监控作业运行状态。 【Hadoop API开发】 ...
总之,Apache Flink作为一款强大的流处理引擎,具备丰富的流处理特性、API和库支持,以及灵活的系统架构,使其成为实时大数据处理领域的热门选择,特别是在与Hadoop生态系统的整合中,它展现了极高的可扩展性和易用...
本文档详细介绍了如何在Windows 10环境下安装配置SQuirrl,并通过SQuirrl连接Apache Hadoop大数据集群的过程。通过上述步骤,用户不仅能够成功安装配置SQuirrl,还能实现对Apache Phoenix和HBase等组件的有效管理。...