- 浏览: 176285 次
- 性别:
- 来自: 北京
-
最新评论
文章列表
MapReduce源码分析之架构分析1
- 博客分类:
- hadoop
原博客http://blog.csdn.net/chlaws/article/details/23709571
前言
MapReduce的源码分析是基于Hadoop1.2.1基础上进行的代码分析。
本篇,将不会涉及代码部分的分析,只是简单分析map的整体架构,并介绍map与reduce的运行过程,主要 ...
linux性能分析命令
- 博客分类:
- linux
性能监控
性能监控2
1、top
显示当前系统正在执行的进程的相关信息,包括进程ID、内存占用率、CPU占用率等
top
Js代码
命令参数:
-b 批处理
-c 显示完整的命令
-I 忽略失效过程
-s 保密模式
-S 累积模式
-i<时间> 设置间隔时间
-u<用户名> 指定用户名
-p<进程号> 指定进程
-
java线程join理解
- 博客分类:
- j2se基础
thread.Join把指定的线程加入到当前线程,可以将两个交替执行的线程合并为顺序执行的线程。比如在线程B中调用了线程A的Join()方法,直到线程A执行完毕后,才会继续执行线程B。 t.join(); //使调用线程 t 在此之前执行完毕。 t.join(1000); //等待 t 线程,等待时间是1000毫秒
先上一段JDK中代码:
Java代码
/**
* Waits at most <code>millis</code> milliseconds for this thread to
...
系统吞吐量、TPS(QPS)、用户并发量、性能测试概念和公式
分类: 软件工程 2013-02-21 19:47 1865人阅读 评论(0) 收藏 举报
PS:下面是性能测试的主要概念和计算公式,记录下:
一.系统吞度量要素:
一 ...
mapreduce二次排序原理讲解
- 博客分类:
- hadoop
一.概述
关于二次排序的文章,网上很多,比喻http://www.cnblogs.com/xuxm2007/archive/2011/09/03/2165805.html就写的不错。在此文基础上补充几点。
二.job.setPartitionerClass在什么地方被用到
mapper里每一次write,都会调用到
Java代码
collector.collect(key, value,partitioner.getPartition(key, value, partitions));注partitions = jobContext.g ...
hadoop shell 命令详
- 博客分类:
- hadoop
Hadoop Shell命令
FS Shell
cat
chgrp
chmod
chown
copyFromLocal
copyToLocal
cp
du
dus
expunge
get
getmerge
ls
lsr
mkdir
movefromLocal
mv
storm netty配置
- 博客分类:
- storm
Twitter Storm更新0.9.0.1之后,安装部署变得容易得多了,比起Storm0.8.x的版本,Storm少了zeromq和jzmq的安装,也省去了很多编译这些插件时出现的bug。
Storm-0.9.0.1 版本的亮点:
1.1、Netty Transport
Storm 0.9.0.1版本的第一亮点是引入 ...
shell字符串截取
- 博客分类:
- linux
一、构造字符串直接构造STR_ZERO=helloSTR_FIRST="i am a string"STR_SECOND='success'重复多次#repeat the first parm($1) by $2 timesstrRepeat(){local x=$2if [ "$x" == "" ]; thenx=0filocal STR_TEMP=""while [ $x -ge 1 ];doSTR_TEMP=`printf "%s%s" "$STR_TEMP" &quo ...
1. 关于档案与目录的侦测逻辑卷标!-f 常用!侦测『档案』是否存在 eg: if [ -f filename ]-d 常用!侦测『目录』是否存在-b 侦测是否为一个『 block 档案』-c 侦测是否为一个『 character 档案』-S 侦测是否为一个『 socket 标签档案』-L 侦测是否为一个『 symbolic link 的档案』-e 侦测『某个东西』是否存在!
2. 关于程序的逻辑卷标!-G 侦测是否由 GID 所执行的程序所拥有-O 侦测是否由 UID 所执行的程序所拥有-p 侦测是否为程序间传送信息的 name pipe 或是 FIFO (老实说 ...
storm 可靠性机制保证
- 博客分类:
- storm
本文属原创系列,转载请注明。
转自:http://blog.csdn.net/xeseo/article/details/17754825
对于Storm,它有一个很重要的特性:“Guarantee no data loss” ——可靠性
很显然,要做到这个特性,必须要track每个data的去向和结果。Storm是如何做到的呢——acker机制。
先概括下acker所参与的工作流程:
1. Spout创建一个新的Tuple时,会发一个消息通知acker去跟踪;
2. Bolt在处理Tuple成功或失败后,也会发一个消息通知acker;
3. acker会找到发射该Tupl ...
注:转帖请注明,原帖地址:
http://blog.csdn.net/xeseo/article/details/17750379
Component
Storm中,Spout和Bolt都是其Component。所以,Storm定义了一个名叫IComponent的总接口
全家普如下:
绿色部分是我们最常用、比较简单 ...
本文系统CentOS6.0
1.方法1:简便方法
upload ()
{
/usr/bin/expect << EOD
spawn bash -c "scp -r /tmp/log1/* root@127.0.0.1:/tmp/log2"
for {} {1} {} {
"*(yes/no)?" { send "yes/n"; continue }
"*assword:" { send "password/n"; continue }
-re . { ...
MapReduce任务参数调优
- 博客分类:
- hadoop
MapReduce任务参数调优
本文主要记录Hadoop 2.x版本中MapReduce参数调优,不涉及Yarn的调优。
Hadoop的默认配置文件(以cdh5.0.1为例):
core-default.xml
hdfs-default.xml
mapred-default.xml
说明:
在hadoop2中有些参数名称过时了,例如 ...
dfs.block.size=268435456hive.merge.mapredfiles=truehive.merge.mapfiles=truehive.merge.size.per.task=256000000mapred.map.tasks=2
因为合并小文件默认为true,而dfs.block.size与hive.merge.size.per.task的搭配使得合并后的绝大部分文件都在300MB左右。
CASE 1
转载请注明出处:http://www.codelast.com/
现象:和这个帖子描述的一样,简单说来就是,在Hadoop 2.x上,用新的DistributedCache的API,在mapper中会获取不到这个cache文件。下面就详细地描述一下新旧API的用法区别以及解决办法。『1』旧API将HDFS文件添加到distributed cache中: