`
sunasheng
  • 浏览: 122820 次
  • 性别: Icon_minigender_1
  • 来自: 北京
文章分类
社区版块
存档分类
最新评论

mapreduce写数据至mysql

阅读更多
package com.sun.mysql;


import java.io.DataInput;
import java.io.DataOutput;
import java.io.IOException;
import java.sql.PreparedStatement;
import java.sql.ResultSet;
import java.sql.SQLException;
import java.util.Iterator;


import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.io.Writable;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.Mapper;
import org.apache.hadoop.mapreduce.Reducer;
import org.apache.hadoop.mapreduce.lib.db.DBConfiguration;
import org.apache.hadoop.mapreduce.lib.db.DBOutputFormat;
import org.apache.hadoop.mapreduce.lib.db.DBWritable;
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
import org.apache.hadoop.mapreduce.lib.input.TextInputFormat;


/**
 * 将mapreduce的结果数据写入mysql中
 * @author asheng
 */
public class WriteDataToMysql {
/**
     * 重写DBWritable
     * @author asheng
     * TblsWritable需要向mysql中写入数据
     */
    public static class TblsWritable implements Writable, DBWritable 
    {  
            String tbl_name;  
            String tbl_type;  
            public TblsWritable() 
            {  
            
            }  
            public TblsWritable(String tbl_name,String tab_type) 
            {  
            this.tbl_name = tbl_name;
            this.tbl_type = tab_type;
            }  
            @Override  
            public void write(PreparedStatement statement) throws SQLException 
            {
                    statement.setString(1, this.tbl_name);  
                    statement.setString(2, this.tbl_type);  
            }  
            @Override  
            public void readFields(ResultSet resultSet) throws SQLException 
            {  
                    this.tbl_name = resultSet.getString(1);  
                    this.tbl_type = resultSet.getString(2);  
            }  
            @Override  
            public void write(DataOutput out) throws IOException 
            {  
                    out.writeUTF(this.tbl_name);
                    out.writeUTF(this.tbl_type);
            }  
            @Override  
            public void readFields(DataInput in) throws IOException 
            {  
                    this.tbl_name = in.readUTF();  
                    this.tbl_type = in.readUTF();  
            }  
            public String toString() 
            {  
                return new String(this.tbl_name + " " + this.tbl_type);  
            }  
    } 
    public static class ConnMysqlMapper extends Mapper<LongWritable,Text,Text,Text>
    //TblsRecord是自定义的类型,也就是上面重写的DBWritable类
   {  
        public void map(LongWritable key,Text value,Context context)throws IOException,InterruptedException 
        {  
        //<首字母偏移量,该行内容>接收进来,然后处理value,将abc和x作为map的输出
        //key对于本程序没有太大的意义,没有使用
        String name = value.toString().split(" ")[0];
        String type = value.toString().split(" ")[1];
                context.write(new Text(name),new Text(type));  
        }  
   }  
    public static class ConnMysqlReducer extends Reducer<Text,Text,TblsWritable,TblsWritable> 
    {  
        public void reduce(Text key,Iterable<Text> values,Context context)throws IOException,
                                                                                                                InterruptedException 
        {  
        //接收到的key value对即为要输入数据库的字段,所以在reduce中:
        //wirte的第一个参数,类型是自定义类型TblsWritable,利用key和value将其组合成TblsWritable,
                                                                                                                    然后等待写入数据库
        //wirte的第二个参数,wirte的第一个参数已经涵盖了要输出的类型,所以第二个类型没有用,设为null
        for(Iterator<Text> itr = values.iterator();itr.hasNext();) 
                 {  
                     context.write(new TblsWritable(key.toString(),itr.next().toString()),null); 
                 }  
        }  
    }  
    public static void main(String args[]) throws IOException, InterruptedException, ClassNotFoundException
    {
        Configuration conf = new Configuration(); 

        DBConfiguration.configureDB(conf, "com.mysql.jdbc.Driver","jdbc:mysql://127.0.0.1:3306/mapreduce_test",                                                                                                                                               "root", "root");    
        Job job = new Job(conf,"test mysql connection");  
        job.setJarByClass(ReadDataFromMysql.class);  
          
        job.setMapperClass(ConnMysqlMapper.class);  
        job.setReducerClass(ConnMysqlReducer.class);  
          
        job.setOutputKeyClass(Text.class);  
        job.setOutputValueClass(Text.class); 
        
        job.setInputFormatClass(TextInputFormat.class);  
        job.setOutputFormatClass(DBOutputFormat.class);
        FileInputFormat.addInputPath(job, new Path(args[0]));
        
        DBOutputFormat.setOutput(job, "lxw_tabls", "TBL_NAME","TBL_TYPE");
        System.exit(job.waitForCompletion(true) ? 0 : 1);
    }
}
//执行输入参数为/home/asheng/hadoop/in/test3.txt
//test3.txt中的内容为
/*
abc x
def y
chd z
*/
//即将abc x分别做为TBL_NAME,和TBL_TYPE插入数据库中


//输出结果在mysql数据库中查看
//select * from lxw_tabls;
//发现新增三行
/*
abc x
def y
chd z
*/
 

 

分享到:
评论

相关推荐

    mapreduce解析网络日志文件(或从mysql数据库获取记录)并计算相邻日志记录间隔时长

    然而,如果日志数据存储在MySQL数据库中,我们需要先通过MapReduce的InputFormat接口从数据库中读取数据。这可能涉及到使用Hadoop的JDBC InputFormat,允许MapReduce直接查询数据库。在Map阶段,我们可以直接处理...

    18、MapReduce的计数器与通过MapReduce读取-写入数据库示例

    MapReduce是一种分布式计算模型,由Google开发,广泛应用于大数据处理。在MapReduce中,计数器(Counter...在实际应用中,确保Hadoop环境和数据库的稳定运行是至关重要的,同时也要注意处理数据的安全性和一致性问题。

    基于mapreduce的小型电影推荐系统

    MapReduce是大数据处理的一种核心工具,常与Hadoop生态系统一起使用,能高效地处理大规模数据。MySQL作为关系型数据库,用于存储用户信息、电影数据以及用户行为记录。JSP(JavaServer Pages)则用于生成动态网页,...

    MapReduce实例

    在这个实例中,我们看到MapReduce被用来从Hbase数据库中提取海量数据,对其进行处理,然后将统计结果存储到MySQL数据库中。这个过程涉及到大数据处理的核心技术,下面我们将深入探讨这些知识点。 首先,**Hbase** ...

    mapreduce-db-operat:mapreduce实现数据从hdfs到mysql之间的相互传递

    本项目"mapreduce-db-operat"便是为了解决这一问题,通过MapReduce实现在HDFS和MySQL之间的数据传输。 首先,我们来看标题和描述中提到的关键知识点: 1. **MapReduce**:MapReduce由两个主要阶段组成——Map阶段...

    mysql数据抽取,自动生成hive建表语句

    在大数据处理领域,MySQL作为一款常用的在线事务处理(OLTP)数据库系统,常常用于存储实时、高并发的数据。...在实际应用中,还需要结合Hadoop的其他组件,如MapReduce或Spark,进行复杂的数据处理和分析任务。

    Hive、MySQL、HBase数据互导

    【Hive、MySQL、HBase数据互导】是大数据领域常见的数据处理操作,涉及三个不同的数据存储系统。Hive是一个基于Hadoop的数据仓库工具,它允许使用类SQL的查询语言HiveQL对大规模数据进行批处理和分析。MySQL是一种...

    基于javaweb + mapreduce的小型电影推荐系统

    在这个系统中,Java Web技术用于构建前端用户界面和后端服务器逻辑,而MapReduce则被用作大数据处理框架,以实现推荐算法的计算部分。 【描述】"基于mapreduce的小型电影推荐系统,使用javaweb的方式实现,包含数据...

    java代码将mysql表数据导入HBase表

    在IT行业中,数据库之间的数据迁移是一项常见的任务,特别是在大数据领域,如从传统的...此外,为了实现大规模数据迁移,可以考虑使用批处理或MapReduce等技术。记住,始终确保在迁移过程中保持数据的一致性和完整性。

    面向海量天文数据的分布式MySQL锥形检索研究.pdf

    MapReduce编程模型是这些系统中用于处理大数据的关键技术之一,通过映射(map)和归约(reduce)的操作,MapReduce能够将大数据集分解成小部分并行处理,然后合并处理结果,从而有效地处理大规模数据集。 文章在...

    数据同步Sqoop用法之mysql与Hive导入导出.docx

    该命令将启用一个 MapReduce 任务,将 MySQL 数据库中的数据导入到 Hive 表中,并且指定了 Hive 表的分隔符为\t。 Hive 到 MySQL 的数据导入 Sqoop 也可以将 Hive 表中的数据导入到 MySQL 数据库中。例如,以下...

    mysql-connector-java-8.0.28.tar.gz

    总结来说,"mysql-connector-java-8.0.28.tar.gz"提供了Java连接MySQL数据库的JDBC驱动,对于构建Hive与MySQL之间的数据通道至关重要,它在大数据处理场景中起到了数据传输和整合的关键作用。使用时,开发者需注意...

    hadoop连接mysql数据库访问数据和导入数据

    从hdfs进行mapreduce数据导入到数据库 hadoop连接数据库查询数据,并添加到hdfs;从hdfs进行mapreduce数据导入到数据库 hadoop连接数据库查询数据,并添加到hdfs;从hdfs进行mapreduce数据导入到数据库

    云应用系统开发第二次项目(mapreduce)

    13. 使用 MapReduce 实现 Join 操作:使用 MapReduce 来实现数据的 Join 操作,以便将多个数据源合并成一个结果。 14. 使用 MapReduce 实现排序:使用 MapReduce 来实现数据的排序,以便对数据进行排序处理。 15. ...

    Hadoop课程设计MapReduce实现、Hive SQL语句和其提供的数据集

    Hive建表失败请使用一下命令初始化MySQLschematool -dbType mysql -initSchema相关文件课设MapReduce实现代码、Hive SQL语句、数据集仓库:https://gitee.com/A7NGHUAN/xjau-hadoop-course-design.git完整Ubuntu16...

    mysql与数据仓库的数据交互

    文件式交互是最简单的方式之一,它通常涉及使用mysqldump、export等MySQL自带的工具导出数据到txt或csv文件中,再使用命令将文件上传至HDFS,然后在Hive中创建外部表来导入这些数据。这种方法虽然操作简单,但在面对...

    hive3.1.2+mysql驱动.zip

    使用MySQL驱动,Hive可以连接到MySQL服务器来获取和存储元数据。这提供了更强大的元数据管理功能,比如高可用性、数据备份和恢复,同时也便于多用户环境下的权限管理和访问控制。在Hive 3.1.2中,正确配置MySQL驱动...

    hadoop的mapreduce把oracle/mysq导入到hbase和hdfs中的程序

    标题中的“hadoop的mapreduce把oracle/mysq导入到hbase和hdfs中的程序”指的是一项数据处理任务,利用Hadoop的MapReduce框架,将关系型数据库(如Oracle和MySQL)中的数据高效地迁移至分布式存储系统HDFS(Hadoop ...

    synchronous 数据同步系统,可用于同步 Postgresql Hadoop Mysql 文件等数据

    Hadoop 是一个用于大规模数据处理的开源框架,其核心包括 HDFS(Hadoop 分布式文件系统)和 MapReduce 计算模型。`synchronous` 系统能将数据从 PostgreSQL 或 MySQL 同步到 Hadoop 集群,这对于数据湖建设和数据...

Global site tag (gtag.js) - Google Analytics