`
bit1129
  • 浏览: 1068033 次
  • 性别: Icon_minigender_1
  • 来自: 北京
社区版块
存档分类
最新评论

【Spark七十三】Spark Streaming遇到的一个烂坑

 
阅读更多

在实验Spark Streaming的时候,提交如下脚本到Spark,总是看不到Spark Streaming的处理结果

 

./spark-submit --deploy-mode client --name LogAnalyzerStreaming  --master spark://hadoop.master:7077  --executor-memory 512M --total-executor-cores 3  --class spark.examples.databricks.reference.apps.loganalysis.LogAnalyzerStreamingSQL  spark.streaming.sql.jar

 

原因是,Spark是在虚拟机里运行的,这个虚拟机只分配了1个processor,这个processor只有1个core,在application提交后,在http://hadoop.master:8080上也可以看到这个application只分配了1个core, 在spark-submit脚本中指定了--total-executor-cores 3,这个参数在UI显示的效果

Core: 3 Total, 1 Used, 2 left。

 

重新配置下虚拟机,给它分配2个processor,那么重新启动spark,设置--total-executor-cores 2再提交application,结果正常



 



 

  • 大小: 50 KB
  • 大小: 33.1 KB
分享到:
评论

相关推荐

    spark Streaming和structed streaming分析

    Apache Spark Streaming是Apache Spark用于处理实时流数据的一个组件。它允许用户使用Spark的高度抽象概念处理实时数据流,并且可以轻松地与存储解决方案、批处理数据和机器学习算法集成。Spark Streaming提供了一种...

    Spark零基础思维导图(内含spark-core ,spark-streaming,spark-sql),总结的很全面.zip

    Spark零基础思维导图(内含spark-core ,spark-streaming,spark-sql),总结的很全面。 Spark零基础思维导图(内含spark-core ,spark-streaming,spark-sql)。 Spark零基础思维导图(内含spark-core ,spark-streaming,...

    SparkStreaming入门案例

    Spark Streaming 入门案例 ...本文通过三个例子来演示了 Spark Streaming 的使用,并介绍了 Spark Streaming 的特点。Spark Streaming 的应用场景非常广泛,可以应用于实时数据处理、机器学习、数据挖掘等领域。

    SparkStreaming预研报告

    Spark Streaming是Spark生态中用于实时数据处理的一个组件。它通过微批处理模型来实现流式数据的处理。作为一种新兴的流处理框架,它能够让用户利用Spark的高效性和可靠性进行流数据的处理任务。对于熟悉Spark基础...

    sparkStreaming消费数据不丢失

    sparkStreaming消费数据不丢失,sparkStreaming消费数据不丢失

    基于Spark Streaming的大数据实时流计算平台和框架,并且是基于运行在yarn模式运行的spark streaming

    一个完善的Spark Streaming二次封装开源框架,包含:实时流任务调度、kafka偏移量管理,web后台管理,web api启动、停止spark streaming,宕机告警、自动重启等等功能支持,用户只需要关心业务代码,无需关注繁琐的...

    Spark Streaming

    Spark Streaming是Apache Spark的一个扩展,用于处理实时数据流。它允许用户以分布式方式处理实时数据流,并将其与批处理和交互式查询相结合。Spark Streaming支持从多种数据源接收数据流,如Kafka、Flume、Kinesis...

    spark之sparkStreaming 理解

    Spark Streaming内部处理机制的核心在于将实时数据流拆分为一系列微小的批次(通常是几秒至几十秒的间隔),然后利用Spark Engine对这些微批次数据进行处理,最终产生处理后的结果数据。这种机制使得Spark Streaming...

    spark streaming

    Spark Streaming 是Apache Spark中的一个重要组件,专门设计用来处理实时数据流的计算框架。作为Spark核心API的一个扩展,它延续了Spark的易用性和高效性,能够将实时数据流处理与批量数据处理无缝集成在一起。利用...

    Spark Streaming 示例

    `SparkStreaming.zip` 文件可能包含了一个示例项目,演示了如何创建一个 Spark Streaming 应用来从 Kafka 消费数据。代码通常会包含以下步骤: 1. 创建 SparkConf 对象,配置 Spark 应用的属性,如应用程序名称、...

    kafka+spark streaming开发文档

    三、Kafka和Spark Streaming集成 在将Kafka和Spark Streaming集成时,需要将Kafka的主题创建在Spark Streaming中,并且需要配置Spark Streaming的输入流,以便从Kafka中消费数据。 四、主题创建和消息发送 在...

    【SparkStreaming篇01】SparkStreaming之Dstream入门1

    SparkStreaming之Dstream入门 Spark Streaming是Apache Spark中的一个组件,用于处理流式数据。它可以从多种数据源中接收数据,如Kafka、Flume、Twitter、ZeroMQ和简单的TCP套接字等,并使用Spark的高度抽象原语如...

    Flume对接Spark Streaming的相关jar包

    在大数据处理领域,Flume 和 Spark Streaming 是两个重要的工具,它们分别用于数据收集与实时流处理。本压缩包中的 jar 包是为了解决 Flume 与 Spark Streaming 的集成问题,确保数据能够从 Flume 无缝流转到 Spark ...

    learning-spark-streaming

    Structured Streaming 是一个可拓展,容错的,基于Spark SQL执行引擎的流处理引擎。使用小量的静态数据模拟流处理。伴随流数据的到来,Spark SQL引擎会逐渐连续处理数据并且更新结果到最终的Table中。你可以在Spark ...

    2-3-Spark+Streaming.pdf

    在探讨Spark Streaming的相关知识点之前,首先要对Apache Spark有一个基本的理解。Apache Spark是一个用于大数据处理和分析的开源框架。它提供了一个快速的分布式计算系统,能够对大规模数据集进行批处理、交互式...

    SparkStreaming流式日志过滤与分析

    (1)利用SparkStreaming从文件目录读入日志信息,日志内容包含: ”日志级别、函数名、日志内容“ 三个字段,字段之间以空格拆分。请看数据源的文件。 (2)对读入都日志信息流进行指定筛选出日志级别为error或warn...

    深入理解SparkStreaming执行模型

    Spark Streaming的核心是一个执行模型,这个执行模型基于微批处理(micro-batch processing)的概念,允许将实时数据流切分成小批次进行处理。下面将详细介绍Spark Streaming执行模型的知识点。 首先,Spark ...

    spark Streaming和storm的对比

    Spark Streaming的核心概念是DStream(Discretized Stream),它代表了一个连续的数据流,可以由输入数据源创建,也可以通过其他DStream的转换得到。DStream由一系列RDD(Resilient Distributed Dataset,弹性分布式...

    spark core、spark sql以及spark streaming 的Scala、java项目混合框架搭建以及大数据案例

    在大数据处理领域,Spark作为一款高效、通用的计算框架,被广泛应用在数据分析、机器学习等多个场景。本项目涉及的核心知识点包括Spark Core、Spark SQL和Spark Streaming,同时结合了Scala和Java编程语言,以及...

Global site tag (gtag.js) - Google Analytics