本月博客排行
-
第1名
龙儿筝 -
第2名
lerf -
第3名
fantaxy025025 - johnsmith9th
- xiangjie88
- zysnba
年度博客排行
-
第1名
青否云后端云 -
第2名
宏天软件 -
第3名
gashero - wy_19921005
- vipbooks
- benladeng5225
- e_e
- wallimn
- javashop
- ranbuijj
- fantaxy025025
- jickcai
- gengyun12
- zw7534313
- qepwqnp
- 解宜然
- ssydxa219
- zysnba
- sam123456gz
- sichunli_030
- arpenker
- tanling8334
- gaojingsong
- kaizi1992
- xpenxpen
- 龙儿筝
- jh108020
- wiseboyloves
- ganxueyun
- xyuma
- xiangjie88
- wangchen.ily
- Jameslyy
- luxurioust
- lemonhandsome
- mengjichen
- jbosscn
- zxq_2017
- lzyfn123
- nychen2000
- forestqqqq
- wjianwei666
- ajinn
- zhanjia
- siemens800
- Xeden
- hanbaohong
- java-007
- 喧嚣求静
- mwhgJava
最新文章列表
(转)HDFS里Datanode上block大小的设置问题
转载自:http://blog.csdn.net/pear_zi/article/details/8082752
在HDFS里面,data node上的块大小默认是64MB(或者是128MB或256MB)
问题: 为什么64MB(或128MB或256MB)是最优 ...
hadoop源码解析之hdfs内部结构分析
概述
命名空间Namesystem
文件目录管理
i-node介绍
linux i-node介绍
hdfs的 INode介绍
INodeFile
INodeDirectory
块管理
数据块BlockInfoContiguous
集群中所有的块的管理
DatanodeStorageInfo 数据节点存储
总结
http:// ...
hadoop源码解析之hdfs读取数据全流程分析
概述
DataXceiverServer介绍
了解DataXceiverServer
初始化工作
工作原理
DataXceiver介绍
Op类介绍
处理逻辑
BlockSender 读取数据
传统方式实现数据传输
零拷贝实现数据传输
原理
具体操作
客户端读数据流程分析
java api读取数据
构造DFSInputSt ...
E-MapReduce集群中HDFS服务集成Kerberos
前置:
创建E-MapReduce集群,本文以非HA集群的HDFS为例
HDFS服务在hdfs账号下启动
HDFS软件包路径/usr/lib/hadoop-current,配置在/etc/emr/hadoop-conf/
一、 安装 配置Kerberos
1. 安装Kerberos
master节点执行:
sudo yum install krb5-server krb5-devel krb5- ...
E-MapReduce集群启停HDFS/YARN服务
启停HDFS服务
HDFS服务启停,下面脚本需要在master节点运行,切需要在hdfs账号下。su hdfs
启动HDFS
执行下面脚本
#!/bin/bash
worker_cnt=`cat /etc/hosts | grep emr-worker | grep cluster | wc -l`
master_cnt=1
ha_flag=`grep -r high_availability ...
关于Java程序向Hive导入数据的问题解决方法
解决方法:
1、使用Linux命令,如下:
String tmpFile = "/tmp" + File.separator + TableUtil.TABLE_PREFIX_MAILING_MEMBER + "@" + mailListId + ".log";
String scp_command = String.form ...
hadoop格式化HDFS报错java.net.UnknownHostException
报错信息:
host:java.net.UnknownHostException: centos-wang: centos-wang: unknown error
在执行hadoop namenode -format命令时,出现未知的主机名。
问题原因:
出现这种问题的原因是Hadoop在格式化HDFS的时候,通过hostname命令获取到的主机名与/etc/h ...
hive java 实例
下载 jdo2-api-2.3-ec hive hdfs 所需jar
http://download.csdn.net/download/knight_black_bob/9725194
常见命令
hive 常见命令
create table test(uid string,name string)row format delimited fields ter ...
storm kafka hdfs 详细
package com.curiousby.baoyou.cn.storm;
import java.util.UUID;
import org.apache.storm.hdfs.bolt.HdfsBolt;
import org.apache.storm.hdfs.bolt.format.DefaultFileNameFormat;
import org. ...
spark (4)spark-shell 读写hdfs 读写redis 读写hbase
(1)初学者对于spark的几个疑问
http://aperise.iteye.com/blog/2302481
(2)spark开发环境搭建
http://aperise.iteye.com/blog/2302535
(3)Spark Standalone集群安装介绍
http ...
Hadoop HDFS Shell命令
HDFS介绍:http://blog.sina.com.cn/s/blog_67331d610102v3wl.html
Hadoop Shell命令
参考教程:http://hadoop.apache.org/docs/r1.0.4/cn/hdfs_shell.html
FS Shell
调用文件系统(FS)Shell命令应使用 bin/hadoop fs <args>的 ...
使用MapReduce对数据文件进行切分
有一个格式化的数据文件,用\t分割列,第2列为产品名称。现在需求把数据文件根据产品名切分为多个文件,使用MapReduce程序要如何实现?
原始文件:
[root@localhost opt]# cat aprData
1 a1 a111
2 a2 a211
3 a1 a112
4 a1 a1 ...
elasticsearch 备份数据到 hdfs
1.介绍
大多数公司在使用 Elasticsearch 之前,都已经维护有一套 Hadoop 系统。因此,在实时数据慢慢变得冷却,不再被经常使用的时候,一个需求自然而然的就出现了:怎么把 Elasticsearch 索引数据快速转移到 HDFS 上,以解决 Elasticsearch 上的磁盘空间;而在我们需要的时候,又可以较快的从 HDFS 上把索引恢复回来继续使用呢? Elas ...