`
sharp-fcc
  • 浏览: 112394 次
  • 性别: Icon_minigender_1
  • 来自: 北京
社区版块
存档分类
最新评论

awk and hadoop之mapper

阅读更多

1.  在awk 中mapper的时候我们经常会合并不同的文件,取我们想要的不同的字段。

 

awk -F "\t" '
{
  filename = ENVIRON["mapreduce_map_input_file"];
  if (index(filename, "xxxx") > 0) {
    // xxx
  }
  else {
    //xxxx
  }
}

  这样来取文件的名字,来判断当前处理的行属于哪个文件,以此进行相应的处理。

 

2.  在hadoop 中我们经常需要对两个文件做一个join操作,即取两个文件的交集,或者在一个集合中过滤掉特定的集合,如果这个一个集合很小, 我们可以把这个集合加入到一个字典中,然后过滤, 在mapper 中这么写。

awk -F "\t" -v file=${smail_set} '
BEGIN{
  while (getline < file > 0) {
    dict[$1] = 1; 
  }  
}
{
   if($1 in dict)
     //xxxx
   else 
     print xxxx
}
'

 reducer 直接 uniq 即可

 

3.  如果两个集合做 join 或者补集的操作,那么只能对集合打标签,在mapper中我们这么写:

awk -F "\t" '
{
  filename = ENVIRON["mapreduce_map_input_file"];
  if (index(filename, "xxxx") > 0) {
     print  $1"\t0\t"$0
  }
  else {
     print $1"\t1\t"$0
  }
}

 第二列 一个0 一个1  用$1 让他们combine的时候到一起去,结合shuffle时候的二次排序,可以搞定

分享到:
评论

相关推荐

    Hadoop Streaming 编程

    - **Shell 脚本实现**:Shell 脚本是一种非常实用的方式,可以通过简单的命令行工具(如 `awk`、`grep` 等)快速实现 Mapper 和 Reducer 功能。 - **Python 实现**:Python 由于其强大的库支持和简洁的语法,也是...

    hadoop权威指南第二版 英文版

    - **使用Unix工具进行数据分析**:对比了使用传统的Unix工具(如awk、grep等)和使用Hadoop进行数据分析的不同之处。 - **使用Hadoop进行数据分析**: - **MapReduce的概念**:解释了MapReduce的基本原理,包括...

    Hadoop 权威指南(中文前三章)

    - **分布式计算**: MapReduce的核心优势之一在于能够将数据处理任务分布到多台机器上执行,从而提高处理速度。 **2.5 Hadoop流** - **流式处理**: Hadoop流允许使用脚本语言(如Perl、Python等)来编写Map和Reduce...

    MapReduce分布式计算平台编程示例

    - **3.2.2 Mapper算法设计**:mapper算法需要解析输入的文档,将每个单词映射到键值对(word, 1)。 - **3.2.3 Reducer算法设计**:reducer算法将对每个单词出现的次数进行汇总。 - **3.2.4 作业提交命令**:为了...

    秒针系统:面试问题

    - `awk '{if ($1 &gt; 100*1024) print $2}'`: 使用`awk`筛选出大小超过100K的文件。 #### 2. Awk的使用 Awk是一种强大的文本处理工具,主要用于处理结构化的数据。基本语法如下: ```bash awk 'pattern {action}' ...

Global site tag (gtag.js) - Google Analytics