`
qindongliang1922
  • 浏览: 2188497 次
  • 性别: Icon_minigender_1
  • 来自: 北京
博客专栏
7265517b-f87e-3137-b62c-5c6e30e26109
证道Lucene4
浏览量:117660
097be4a0-491e-39c0-89ff-3456fadf8262
证道Hadoop
浏览量:126069
41c37529-f6d8-32e4-8563-3b42b2712a50
证道shell编程
浏览量:60014
43832365-bc15-3f5d-b3cd-c9161722a70c
ELK修真
浏览量:71398
社区版块
存档分类
最新评论

Spark读取Hbase数据

阅读更多



直接上代码:可以上传jar包,给远程的spark集群,这样能在idea中windows环境上运行代码:


package com.tools.hbase

import org.apache.hadoop.hbase.HBaseConfiguration
import org.apache.hadoop.hbase.client.Result
import org.apache.hadoop.hbase.io.ImmutableBytesWritable
import org.apache.hadoop.hbase.mapreduce.TableInputFormat
import org.apache.spark.{SparkContext, SparkConf}

/**
  * Created by qindongliang on 2016/1/12.
  */
object HbaseTest {


  def main(args: Array[String]) {
    System.setProperty("user.name", "webmaster");
        System.setProperty("HADOOP_USER_NAME", "webmaster");
    val jarPath="target\\scala-2.11\\scala-spark_2.11-1.0.jar";
    val  sparkConf=new SparkConf().setMaster("spark://192.168.1.187:7077").setAppName("read hbase");
     val seq=Seq(jarPath) :+ "D:\\bigdata\\hbaselib\\hbase-protocol-0.98.12-hadoop2.jar" :+ "D:\\bigdata\\hbaselib\\hbase-common-0.98.12-hadoop2.jar" :+ "D:\\bigdata\\hbaselib\\htrace-core-2.04.jar" :+ "D:\\bigdata\\hbaselib\\hbase-client-0.98.12-hadoop2.jar" :+ "D:\\bigdata\\hbaselib\\hbase-server-0.98.12-hadoop2.jar"  :+ "D:\\bigdata\\hbaselib\\guava-12.0.1.jar"
//     val seq=Seq(jarPath)
//    println("jar包路径:"+seq)

    sparkConf.setJars(seq)
    val sc=new SparkContext(sparkConf);
    val conf=HBaseConfiguration.create();
    conf.set("hbase.zookeeper.quorum", "192.168.1.187");
    conf.set(TableInputFormat.INPUT_TABLE,"xxxx")
    //得到Hbase的Result转成RDD
    val rdd=sc.newAPIHadoopRDD(conf,classOf[TableInputFormat]
    ,classOf[ImmutableBytesWritable],classOf[Result]);

    val count=rdd.count();
    println("数量:"+count)
    sc.stop();


  }


}



分享到:
评论

相关推荐

    spark读取hbase数据,并使用spark sql保存到mysql

    本示例将详细介绍如何使用 Spark 从 HBase 中读取数据,并通过 Spark SQL 将其存储到 MySQL 数据库中。 首先,让我们了解 Spark 与 HBase 的交互。Spark 提供了 `spark-hbase-connector` 库,允许我们方便地连接到 ...

    spark使用java读取hbase数据做分布式计算.pdf

    总的来说,这个Java程序展示了如何使用Spark读取HBase数据并进行分布式计算。通过Spark的并行处理能力,可以高效地处理大规模的HBase数据,进行复杂的分析任务。要注意的是,实际应用中还需要考虑错误处理、资源管理...

    hbase-rdd:Spark RDD从HBase读取,写入和删除

    本篇文章将详细探讨如何使用 Scala 和 Spark 的 Resilient Distributed Datasets (RDDs) 与 HBase 进行交互,包括读取、写入以及删除数据。 首先,我们需要理解 Spark RDD。RDD 是 Spark 的基本数据抽象,它是不可...

    基于Spark SQL可通过输入SQL语句操作HBase表,目前提供对HBase表的查询、创建、删除以及数据插入+源代码+说明

    - 不懂运行,下载完可以私聊问,可远程教学 该资源内项目源码是个人的毕设,代码都测试ok,都是运行成功后才上传资源,答辩评审平均分达到96分,放心下载使用! <项目介绍> 1、该资源内项目代码都经过测试运行成功,...

    Spark以及hbase学习资料

    此外,Spark Streaming可以从HBase中读取数据,或者将处理后的结果写入HBase,构建实时数据处理管道。 在实际项目中,Spark可以用来做数据预处理、特征工程和模型训练,而HBase则作为数据仓库,存储大量的历史数据...

    scala API 操作hbase表

    4. 获取HBase表: 获取要操作的HBase表: ```scala val tableName = TableName.valueOf("your_table_name") val table = connection.getTable(tableName) ``` 5. 插入数据: 创建一个`Put`对象来插入一行数据...

    spark-hbase:用于将 Spark 与 Apache HBase 数据结合使用的集成实用程序

    用于将 Spark 与 Apache HBase 数据结合使用的集成实用程序。 支持 基于 HBase 读取的扫描 基于 HBase 写入的 batchPut 基于 HBase 读取的分析 HFile 基于 HBase 写入的批量加载 要求 这个库需要 Spark 1.2+

    读写HBase数据.pdf

    3. 使用`DataFrameReader`的`format("org.apache.spark.sql.execution.datasources.hbase")`方法读取HBase数据。 4. 使用`DataFrameWriter`的`format("org.apache.spark.sql.execution.datasources.hbase")`方法写入...

    基于hadoop,spark,Hbase,Kafka新闻统计java大数据demo.zip

    【标题】中的“基于Hadoop,Spark,HBase,Kafka新闻统计java大数据demo”揭示了这个项目是关于使用Java编程语言实现的大数据处理示例,它整合了四个关键的大数据技术:Hadoop、Spark、HBase和Kafka。这些技术都是在大...

    Kafka集成Spark Streaming并写入数据到HBase

    Spark Streaming支持多种数据源,如Kafka、Flume、Twitter等,并且可以将处理结果写入HDFS、HBase等存储系统。 **HBase概述** HBase是构建在Hadoop文件系统(HDFS)之上,面向列的NoSQL数据库,适合处理大规模数据...

    spark_hbase:Scala中的示例通过Spark读取保存在hbase中的数据,以及python的转换器示例

    在这里,我们提供了Scala中的一个新示例,该示例涉及通过Spark将hbase中保存的数据传输到String ,以及python转换器的新示例。 scala 的示例将保存在hbase中的数据传输到RDD[String] ,该数据包含columnFamily,...

    spark streamming消费kafka数据存入hbase示例代码

    Spark Streaming 提供了 `KafkaUtils.createDirectStream` 函数,它能直接从 Kafka 的分区读取数据,无需额外的 Receiver 子进程。 然后,数据需要经过处理,例如解析、过滤或转换,以便于存储到 HBase。HBase 2.1 ...

    javaApi_sparkhiveAPI_hbaseAPI.zip

    在IT行业中,Java、Hive、HBase以及Spark是大数据处理和分析领域的重要工具。本压缩包"javaApi_sparkhiveAPI_hbaseAPI.zip"包含了2019年8月至10月期间针对这些技术的Java版API实现,以及与Spark相关的Hive和HBase ...

    大数据实习hdfs+flume+kafka+spark+hbase+hive项目.zip

    在大数据领域,HDFS、Flume、Kafka、Spark、HBase和Hive是关键的组件,它们共同构建了一个高效、可靠的数据处理和分析体系。下面将分别介绍这些技术及其在实际项目中的应用。 1. HDFS(Hadoop Distributed File ...

    项目实战——Spark将Hive表的数据写入ElasticSearch(Java版本)

    Hive提供了丰富的接口供外部应用访问,包括Hive JDBC和Hive SerDe(Serializer/Deserializer),Java程序可以利用这些接口读取Hive表中的数据。 2. **Spark计算框架**: Spark是大数据处理的开源框架,以其高效、...

    spark-2.4.0-hive-hbase-Api.7z

    3. 从HBase中读取数据,转换成Spark DataFrame,方便进一步的数据处理和分析。 4. 利用Spark的MLlib库进行机器学习模型训练,预测和分类等任务。 在实际项目中,这些组件的集成可以帮助企业构建大规模数据处理平台...

    藏经阁-Apache Spark -Apache HBase Con.pdf

    通过充分利用Spark的Catalyst Engine,SHC显著提升了对HBase数据的访问效率,进而加快了数据处理的速度。 SHC的架构设计分为两个主要部分:Spark和HBase。其中,Spark主要负责数据处理与查询,而HBase则专注于数据...

    SparkHadoopHbase案例

    在大数据处理领域,Spark、Hadoop和HBase是三个至关重要的组件。Spark以其高效的数据处理速度和丰富的计算模型,Hadoop作为分布式存储和计算的基础框架,而HBase则是一个高可扩展的列式数据库,特别适合大规模数据的...

    java基于spark streaming和kafka,hbase的日志统计分析系统.rar

    生产者将应用程序生成的日志数据发布到Kafka的特定主题,而消费者(如Spark Streaming)则订阅这些主题,实时获取并处理这些日志。 Spark Streaming是Apache Spark的一部分,提供了对实时数据流处理的支持。它能够...

Global site tag (gtag.js) - Google Analytics