`
qindongliang1922
  • 浏览: 2171078 次
  • 性别: Icon_minigender_1
  • 来自: 北京
博客专栏
7265517b-f87e-3137-b62c-5c6e30e26109
证道Lucene4
浏览量:117075
097be4a0-491e-39c0-89ff-3456fadf8262
证道Hadoop
浏览量:125421
41c37529-f6d8-32e4-8563-3b42b2712a50
证道shell编程
浏览量:59491
43832365-bc15-3f5d-b3cd-c9161722a70c
ELK修真
浏览量:71017
社区版块
存档分类
最新评论

如何使用Spark的local模式远程读取Hadoop集群数据

阅读更多

我们在windows开发机上使用spark的local模式读取远程hadoop集群中的hdfs上的数据,这样的目的是方便快速调试,而不用每写一行代码或者一个方法,一个类文件都需要打包成jar上传到linux上,再扔到正式的集群上进行测试,像功能性验证直接使用local模式来快速调测是非常方便的,当然功能测试之后,我们还需要打包成jar仍到集群上进行其他的验证比如jar包的依赖问题,这个在local模式是没法测的,还有集群运行的调优参数,这些都可以在正式仍到集群时验证。


一个样例代码如下:

  def main(args: Array[String]): Unit = {

    //指定local模式
    val conf = new SparkConf().setMaster("local[2]").setAppName("read kp data to kafka")
    val sc= new SparkContext(conf)
    //支持通配符路径,支持压缩文件读取
    val rrd=sc.textFile("hdfs://192.168.10.4:8020/data/log/{20170227,20170228}/tomcat-log*")
    //提到到集群模式时,去掉uri地址,如果有双namenode,可以自动容灾
     //val rrd=sc.textFile("/data/log/{20170227,20170228}/tomcat-log*")
    //统计数量
    println(rrd.count())
    //停止spark
    sc.stop()

  }




如何在spark中遍历数据时获取文件路径:
    val path:String="hdfs://192.168.10.4:8020/data/userlog/{20170226}/kp*"
    
    val text= sc.newAPIHadoopFile[LongWritable,Text,TextInputFormat](path)

    val linesWithFileNames = text.asInstanceOf[NewHadoopRDD[LongWritable, Text]]
      .mapPartitionsWithInputSplit((inputSplit, iterator) => {
        val file = inputSplit.asInstanceOf[FileSplit]
        iterator.map(tup => (file.getPath, tup._2)) // 返回的K=全路径 V=每一行的值
      }
      )

    linesWithFileNames.foreach(println)






如果遍历压缩文件时想要获取文件名,就使用newAPIHadoopFile,此外在本地调试下通过之后,提交到集群运行的时候,一定要把uri去掉,本地加上是想让它远程读取方便调试使用,如果正式运行去掉uri在双namenode的时候可以自动兼容,不去反而成一个隐患了。

最后我们可以通过spark on yarn模式提交任务,一个例子如下:


jars=`echo /home/search/x_spark_job/libs/*jar | sed 's/ /,/g'`

bin/spark-submit  --class  KSearch   --master yarn  --jars  $jars    /home/search/x_spark_job/kp-1.0.0.jar 





这里用spark提交有另外一个优势,就是假如我开发的不是YARN应用,就是代码里没有使用SparkContext,而是一个普通的应用,就是读取mysql一个表的数据,写入另外一个mysql,这里跟MR没有关系,但是我依然可以用spark-sumbit提交,这时候是不会提交到YARN上的,但是程序会按普通程序运行,程序依赖的jar包,直接使用--jars传入就行,这一点非常方便,尤其是应用有多个依赖时,比如依赖es,hadoop,hbase,redis,fastjson,我打完包后的程序是瘦身的只有主体jar非常小,依赖的jar我可以不打到主体jar里面,在外部用的时候传入,方便共用并灵活性大大提高。


最后,spark的wholeTextFiles对gz压缩的支持不太友好,不能直接访问,相关问题,请参考:

http://stackoverflow.com/questions/24402737/how-to-read-gz-files-in-spark-using-wholetextfiles


http://stackoverflow.com/questions/36604145/read-whole-text-files-from-a-compression-in-spark

http://stackoverflow.com/questions/24402737/how-to-read-gz-files-in-spark-using-wholetextfiles?rq=1



有什么问题可以扫码关注微信公众号:我是攻城师(woshigcs),在后台留言咨询。
技术债不能欠,健康债更不能欠, 求道之路,与君同行。

0
0
分享到:
评论

相关推荐

    spark-3.2.4-bin-hadoop3.2-scala2.13 安装包

    为了与Hadoop集群对接,还需要配置Spark的`spark-env.sh`文件,设置Hadoop的相关路径。 5. **运行Spark**: Spark可以通过命令行工具启动,例如`spark-shell`(交互式Spark会话)或`pyspark`(Python版本的交互式...

    spark-2.3.4-bin-hadoop2.7.tgz

    总的来说,"spark-2.3.4-bin-hadoop2.7.tgz"是一个包含完整Spark环境的压缩包,适合本地或集群环境中的数据分析和处理。通过pyspark,Python开发者可以充分利用Spark的性能和功能,进行高效的大数据处理任务。

    Spark Local + Maven + IDEA项目

    Spark Local模式是Spark的一种运行模式,它允许开发者在单机环境中快速进行开发和测试,而无需搭建复杂的分布式集群。在本项目中,我们将使用IntelliJ IDEA(IDEA)作为集成开发环境,通过Maven来管理依赖,以实现对...

    Hadoop实时数据处理框架Spark技术教程

    - **Hadoop的联系:**尽管Spark是为了改善Hadoop的不足而设计的,但它仍然依赖于Hadoop的HDFS进行存储,并且可以在Hadoop集群上运行。Hadoop的HDFS为Spark提供了存储基础,而MapReduce则为Spark提供了计算框架。 *...

    Hadoop实时数据处理框架spark技术

    例如,Spark可以通过YARN(Yet Another Resource Negotiator)调度器来管理资源,从而实现与Hadoop集群的整合。 #### 二、Spark如何改进Hadoop - **减少磁盘I/O**: - **内存计算**:Spark通过将中间计算结果存储...

    spark local下 WordCount运行示例

    在"Spark local下 WordCount运行示例"中,我们将探讨如何在本地模式(local mode)下使用Spark执行一个简单的WordCount程序。WordCount是大数据处理领域的一个经典例子,用于统计文本中各个单词出现的次数。 首先,...

    spark 分布式集群搭建

    Spark Standalone 是 Apache Spark 提供的一种自带的集群管理模式,主要用于管理 Spark 应用程序的执行环境。这种模式简单易用,适合于开发测试以及中小型生产环境。 #### Spark Standalone 部署配置 ##### ...

    大数据分析与内存计算-Spark安装以及Hadoop操作-实验报告

    - **提交至Spark运行**:使用`spark-submit`命令提交JAR文件到Spark集群。 通过以上知识点的学习,可以掌握如何在Linux环境下安装配置Hadoop和Spark,熟悉HDFS的基本操作命令,并能利用Spark对本地文件和HDFS文件...

    hadoop common.zip

    此外,还需要启动Hadoop的相关服务,如namenode、datanode等,然后使用Spark的Local模式或者Hadoop的Mini Cluster模式运行Spark作业。 总之,Hadoop Common是Spark开发中必不可少的依赖,它提供与HDFS交互的接口和...

    hadoop2.7.6插件.zip

    在Windows环境下,Hadoop通常用于模拟集群环境,为Spark提供数据存储和计算支持。 二、Hadoop 2.7.6在Windows上的安装 1. 下载:首先从官方网站或第三方源获取Hadoop 2.7.6的zip压缩包,解压至指定目录。 2. 配置...

    hadoop&spark使用教程详细介绍文档

    ### Hadoop & Spark 使用教程详解 #### 一、Hadoop 和 Spark 概览 Hadoop 和 Spark 是目前大数据处理领域中最流行的两个框架。Hadoop 主要由 HDFS(Hadoop Distributed File System)和 MapReduce 组成,前者用于...

    Spark笔记1.docx

    2. 读取 HDFS 集群数据计算 WordCount:使用 spark-shell 读取 HDFS 文件,计算 WordCount。 standalone 集群模式: 1. 软件上传并解压。 2. 修改配置文件。 3. 软件包的分发。 4. 启动集群。 5. 验证:使用 spark-...

    spark基础,关于spark的安装和几种模式的部署

    而在Linux环境中,可以使用命令行工具提交Spark作业到HDFS,或者通过Scala编程接口直接读取HDFS上的数据进行处理。 总之,Spark的安装和部署是一个综合性的过程,涉及到多个组件的配置和协调。理解和掌握这些知识点...

    Hive_Hadoop_Spark优化.pdf

    Spark可以与Hadoop集群配合使用,但是它可以通过RDD(弹性分布式数据集)在内存中处理数据,比Hadoop MapReduce的磁盘I/O操作更快,因此在处理迭代算法和交互式数据分析方面具有优势。 Hadoop和Spark的优化方法有很...

    spark开发压缩包

    2. 使用数据分区策略优化数据读取和计算效率。 3. 开启压缩,减少网络传输和存储开销。 4. 使用广播变量和积累器优化通信。 5. 根据任务类型选择合适的调度策略,如FIFO、FAIR或自定义策略。 通过上述步骤和注意...

    Spark大数据分析核心概念技术及实践OCR

    - **数据加载与转换**:通过`SparkContext`读取各种数据源,如HDFS、Cassandra、HBase等,并使用DataFrame/Dataset API进行数据转换。 - **并行操作**:使用map、filter、reduceByKey等操作对数据进行并行处理。 ...

    Java操作Spark入门程序

    1. **读取数据**: 可以使用`spark.read()`方法从多种数据源读取数据,如CSV、JSON、Parquet等。例如,从CSV文件读取数据: ```java DataFrame df = spark.read().format("csv").option("header", "true").load(...

    hadoop配置文件夹

    1. **spark.master**:指定Spark运行的模式,如`local`(本地模式),`spark://master:7077`(集群模式)或`yarn`(YARN模式)。 2. **spark.executor.instances**:设置Spark应用的执行器(Executor)数量。 3. **...

    Spark安装使用教程PDF

    使用 Spark Submit,可以将 Python 脚本提交到 Spark 集群中执行。 8. Log4j Log4j 是一个日志记录工具,用于记录 Spark 的执行日志。使用 Log4j,可以配置日志的记录级别、输出格式和其他参数。 9. SparkContext...

    spark在虚拟机的安装

    ### Spark在虚拟机中的安装与配置详解 ...通过以上步骤,可以在虚拟机中完成Scala和Spark的安装配置,并且能够进行基本的操作和集群模式下的使用。这些步骤不仅适用于学习Spark的基础知识,也适用于实际项目中的部署。

Global site tag (gtag.js) - Google Analytics