package com.sun.mysql; import java.io.DataInput; import java.io.DataOutput; import java.io.IOException; import java.sql.PreparedStatement; import java.sql.ResultSet; import java.sql.SQLException; import java.util.Iterator; import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.Path; import org.apache.hadoop.io.LongWritable; import org.apache.hadoop.io.Text; import org.apache.hadoop.io.Writable; import org.apache.hadoop.mapreduce.Job; import org.apache.hadoop.mapreduce.Mapper; import org.apache.hadoop.mapreduce.Reducer; import org.apache.hadoop.mapreduce.lib.db.DBConfiguration; import org.apache.hadoop.mapreduce.lib.db.DBOutputFormat; import org.apache.hadoop.mapreduce.lib.db.DBWritable; import org.apache.hadoop.mapreduce.lib.input.FileInputFormat; import org.apache.hadoop.mapreduce.lib.input.TextInputFormat; /** * 将mapreduce的结果数据写入mysql中 * @author asheng */ public class WriteDataToMysql { /** * 重写DBWritable * @author asheng * TblsWritable需要向mysql中写入数据 */ public static class TblsWritable implements Writable, DBWritable { String tbl_name; String tbl_type; public TblsWritable() { } public TblsWritable(String tbl_name,String tab_type) { this.tbl_name = tbl_name; this.tbl_type = tab_type; } @Override public void write(PreparedStatement statement) throws SQLException { statement.setString(1, this.tbl_name); statement.setString(2, this.tbl_type); } @Override public void readFields(ResultSet resultSet) throws SQLException { this.tbl_name = resultSet.getString(1); this.tbl_type = resultSet.getString(2); } @Override public void write(DataOutput out) throws IOException { out.writeUTF(this.tbl_name); out.writeUTF(this.tbl_type); } @Override public void readFields(DataInput in) throws IOException { this.tbl_name = in.readUTF(); this.tbl_type = in.readUTF(); } public String toString() { return new String(this.tbl_name + " " + this.tbl_type); } } public static class ConnMysqlMapper extends Mapper<LongWritable,Text,Text,Text> //TblsRecord是自定义的类型,也就是上面重写的DBWritable类 { public void map(LongWritable key,Text value,Context context)throws IOException,InterruptedException { //<首字母偏移量,该行内容>接收进来,然后处理value,将abc和x作为map的输出 //key对于本程序没有太大的意义,没有使用 String name = value.toString().split(" ")[0]; String type = value.toString().split(" ")[1]; context.write(new Text(name),new Text(type)); } } public static class ConnMysqlReducer extends Reducer<Text,Text,TblsWritable,TblsWritable> { public void reduce(Text key,Iterable<Text> values,Context context)throws IOException, InterruptedException { //接收到的key value对即为要输入数据库的字段,所以在reduce中: //wirte的第一个参数,类型是自定义类型TblsWritable,利用key和value将其组合成TblsWritable, 然后等待写入数据库 //wirte的第二个参数,wirte的第一个参数已经涵盖了要输出的类型,所以第二个类型没有用,设为null for(Iterator<Text> itr = values.iterator();itr.hasNext();) { context.write(new TblsWritable(key.toString(),itr.next().toString()),null); } } } public static void main(String args[]) throws IOException, InterruptedException, ClassNotFoundException { Configuration conf = new Configuration(); DBConfiguration.configureDB(conf, "com.mysql.jdbc.Driver","jdbc:mysql://127.0.0.1:3306/mapreduce_test", "root", "root"); Job job = new Job(conf,"test mysql connection"); job.setJarByClass(ReadDataFromMysql.class); job.setMapperClass(ConnMysqlMapper.class); job.setReducerClass(ConnMysqlReducer.class); job.setOutputKeyClass(Text.class); job.setOutputValueClass(Text.class); job.setInputFormatClass(TextInputFormat.class); job.setOutputFormatClass(DBOutputFormat.class); FileInputFormat.addInputPath(job, new Path(args[0])); DBOutputFormat.setOutput(job, "lxw_tabls", "TBL_NAME","TBL_TYPE"); System.exit(job.waitForCompletion(true) ? 0 : 1); } } //执行输入参数为/home/asheng/hadoop/in/test3.txt //test3.txt中的内容为 /* abc x def y chd z */ //即将abc x分别做为TBL_NAME,和TBL_TYPE插入数据库中 //输出结果在mysql数据库中查看 //select * from lxw_tabls; //发现新增三行 /* abc x def y chd z */
相关推荐
然而,如果日志数据存储在MySQL数据库中,我们需要先通过MapReduce的InputFormat接口从数据库中读取数据。这可能涉及到使用Hadoop的JDBC InputFormat,允许MapReduce直接查询数据库。在Map阶段,我们可以直接处理...
MapReduce是一种分布式计算模型,由Google开发,广泛应用于大数据处理。在MapReduce中,计数器(Counter...在实际应用中,确保Hadoop环境和数据库的稳定运行是至关重要的,同时也要注意处理数据的安全性和一致性问题。
MapReduce是大数据处理的一种核心工具,常与Hadoop生态系统一起使用,能高效地处理大规模数据。MySQL作为关系型数据库,用于存储用户信息、电影数据以及用户行为记录。JSP(JavaServer Pages)则用于生成动态网页,...
在这个实例中,我们看到MapReduce被用来从Hbase数据库中提取海量数据,对其进行处理,然后将统计结果存储到MySQL数据库中。这个过程涉及到大数据处理的核心技术,下面我们将深入探讨这些知识点。 首先,**Hbase** ...
本项目"mapreduce-db-operat"便是为了解决这一问题,通过MapReduce实现在HDFS和MySQL之间的数据传输。 首先,我们来看标题和描述中提到的关键知识点: 1. **MapReduce**:MapReduce由两个主要阶段组成——Map阶段...
在大数据处理领域,MySQL作为一款常用的在线事务处理(OLTP)数据库系统,常常用于存储实时、高并发的数据。...在实际应用中,还需要结合Hadoop的其他组件,如MapReduce或Spark,进行复杂的数据处理和分析任务。
【Hive、MySQL、HBase数据互导】是大数据领域常见的数据处理操作,涉及三个不同的数据存储系统。Hive是一个基于Hadoop的数据仓库工具,它允许使用类SQL的查询语言HiveQL对大规模数据进行批处理和分析。MySQL是一种...
在这个系统中,Java Web技术用于构建前端用户界面和后端服务器逻辑,而MapReduce则被用作大数据处理框架,以实现推荐算法的计算部分。 【描述】"基于mapreduce的小型电影推荐系统,使用javaweb的方式实现,包含数据...
在IT行业中,数据库之间的数据迁移是一项常见的任务,特别是在大数据领域,如从传统的...此外,为了实现大规模数据迁移,可以考虑使用批处理或MapReduce等技术。记住,始终确保在迁移过程中保持数据的一致性和完整性。
MapReduce编程模型是这些系统中用于处理大数据的关键技术之一,通过映射(map)和归约(reduce)的操作,MapReduce能够将大数据集分解成小部分并行处理,然后合并处理结果,从而有效地处理大规模数据集。 文章在...
该命令将启用一个 MapReduce 任务,将 MySQL 数据库中的数据导入到 Hive 表中,并且指定了 Hive 表的分隔符为\t。 Hive 到 MySQL 的数据导入 Sqoop 也可以将 Hive 表中的数据导入到 MySQL 数据库中。例如,以下...
总结来说,"mysql-connector-java-8.0.28.tar.gz"提供了Java连接MySQL数据库的JDBC驱动,对于构建Hive与MySQL之间的数据通道至关重要,它在大数据处理场景中起到了数据传输和整合的关键作用。使用时,开发者需注意...
从hdfs进行mapreduce数据导入到数据库 hadoop连接数据库查询数据,并添加到hdfs;从hdfs进行mapreduce数据导入到数据库 hadoop连接数据库查询数据,并添加到hdfs;从hdfs进行mapreduce数据导入到数据库
13. 使用 MapReduce 实现 Join 操作:使用 MapReduce 来实现数据的 Join 操作,以便将多个数据源合并成一个结果。 14. 使用 MapReduce 实现排序:使用 MapReduce 来实现数据的排序,以便对数据进行排序处理。 15. ...
Hive建表失败请使用一下命令初始化MySQLschematool -dbType mysql -initSchema相关文件课设MapReduce实现代码、Hive SQL语句、数据集仓库:https://gitee.com/A7NGHUAN/xjau-hadoop-course-design.git完整Ubuntu16...
文件式交互是最简单的方式之一,它通常涉及使用mysqldump、export等MySQL自带的工具导出数据到txt或csv文件中,再使用命令将文件上传至HDFS,然后在Hive中创建外部表来导入这些数据。这种方法虽然操作简单,但在面对...
使用MySQL驱动,Hive可以连接到MySQL服务器来获取和存储元数据。这提供了更强大的元数据管理功能,比如高可用性、数据备份和恢复,同时也便于多用户环境下的权限管理和访问控制。在Hive 3.1.2中,正确配置MySQL驱动...
标题中的“hadoop的mapreduce把oracle/mysq导入到hbase和hdfs中的程序”指的是一项数据处理任务,利用Hadoop的MapReduce框架,将关系型数据库(如Oracle和MySQL)中的数据高效地迁移至分布式存储系统HDFS(Hadoop ...
Hadoop 是一个用于大规模数据处理的开源框架,其核心包括 HDFS(Hadoop 分布式文件系统)和 MapReduce 计算模型。`synchronous` 系统能将数据从 PostgreSQL 或 MySQL 同步到 Hadoop 集群,这对于数据湖建设和数据...