`
m635674608
  • 浏览: 5027813 次
  • 性别: Icon_minigender_1
  • 来自: 南京
社区版块
存档分类
最新评论

Spark Streaming的窗口操作

 
阅读更多

Spark Streaming的Window Operation可以理解为定时的进行一定时间段内的数据的处理。

不要怪我语文不太好。。下面上原理图吧,一图胜千言:

滑动窗口在监控和统计应用的场景比较广泛,比如每隔一段时间(2s)统计最近3s的请求量或者异常次数,根据请求或者异常次数采取相应措施

如图:

1. 红色的矩形就是一个窗口,窗口hold的是一段时间内的数据流。

2.这里面每一个time都是时间单元,在官方的例子中,每个窗口大小(window size)是3时间单元 (time unit), 而且每隔2个单位时间,窗口会slide(滑动)一次。

所以基于窗口的操作,需要指定2个参数:

 

  • window length - The duration of the window (3 in the figure)
  • slide interval - The interval at which the window-based operation is performed (2 in the figure).  
1.窗口大小,个人感觉是一段时间内数据的容器。
2.滑动间隔,就是我们可以理解的cron表达式吧。 - -!
 
举个例子吧:
还是以最著名的wordcount举例,每隔10秒,统计一下过去30秒过来的数据。
[java] view plaincopy
 
  1. // Reduce last 30 seconds of data, every 10 seconds  
  2. val windowedWordCounts = pairs.reduceByKeyAndWindow(_ + _, Seconds(30), Seconds(10))  

这里的paris就是一个MapedRDD, 类似(word,1)
[java] view plaincopy
 
  1. reduceByKeyAndWindow // 这个类似RDD里面的reduceByKey,就是对RDD应用function  
在这里是根据key,对至进行聚合,然后累加。
 
下面粘贴一下它的API,仅供参考:
Transformation Meaning
window(windowLengthslideInterval) Return a new DStream which is computed based on windowed batches of the source DStream.
countByWindow(windowLength,slideInterval) Return a sliding window count of elements in the stream.
reduceByWindow(funcwindowLength,slideInterval) Return a new single-element stream, created by aggregating elements in the stream over a sliding interval using func. The function should be associative so that it can be computed correctly in parallel.
reduceByKeyAndWindow(func,windowLengthslideInterval, [numTasks]) When called on a DStream of (K, V) pairs, returns a new DStream of (K, V) pairs where the values for each key are aggregated using the given reduce function func over batches in a sliding window. Note: By default, this uses Spark's default number of parallel tasks (2 for local machine, 8 for a cluster) to do the grouping. You can pass an optional numTasks argument to set a different number of tasks.
reduceByKeyAndWindow(funcinvFunc,windowLengthslideInterval, [numTasks]) A more efficient version of the above reduceByKeyAndWindow() where the reduce value of each window is calculated incrementally using the reduce values of the previous window. This is done by reducing the new data that enter the sliding window, and "inverse reducing" the old data that leave the window. An example would be that of "adding" and "subtracting" counts of keys as the window slides. However, it is applicable to only "invertible reduce functions", that is, those reduce functions which have a corresponding "inverse reduce" function (taken as parameterinvFunc. Like in reduceByKeyAndWindow, the number of reduce tasks is configurable through an optional argument.
countByValueAndWindow(windowLength,slideInterval, [numTasks]) When called on a DStream of (K, V) pairs, returns a new DStream of (K, Long) pairs where the value of each key is its frequency within a sliding window. Like in reduceByKeyAndWindow, the number of reduce tasks is configurable through an optional argument.
   

Output Operations

When an output operator is called, it triggers the computation of a stream. Currently the following output operators are defined:

Output Operation Meaning
print() Prints first ten elements of every batch of data in a DStream on the driver.
foreachRDD(func) The fundamental output operator. Applies a function, func, to each RDD generated from the stream. This function should have side effects, such as printing output, saving the RDD to external files, or writing it over the network to an external system.
saveAsObjectFiles(prefix, [suffix]) Save this DStream's contents as a SequenceFile of serialized objects. The file name at each batch interval is generated based on prefix and suffix"prefix-TIME_IN_MS[.suffix]".
saveAsTextFiles(prefix, [suffix]) Save this DStream's contents as a text files. The file name at each batch interval is generated based on prefix and suffix"prefix-TIME_IN_MS[.suffix]".
saveAsHadoopFiles(prefix, [suffix]) Save this DStream's contents as a Hadoop file. The file name at each batch interval is generated based on prefix and suffix"prefix-TIME_IN_MS[.suffix]".
原创,转载请注明出处http://blog.csdn.net/oopsoom/article/details/23776477
分享到:
评论

相关推荐

    spark Streaming和structed streaming分析

    时间管理允许用户指定如何处理事件时间戳,这对于窗口操作至关重要。Watermark是一个时间阈值,用于处理延迟到达的数据,允许用户定义一条数据可以延迟到达的最大时间。 Structured Streaming中同样包含了Receiver...

    SparkStreaming预研报告

    Spark Streaming的编程模型允许用户通过一系列转换操作来处理流数据。例如,可以利用滑动窗口进行叠加处理和增量处理,实现复杂的实时计算需求。编程模型相对简单,能够适用于不同级别的数据处理任务。 4. Spark ...

    SparkStreaming之滑动窗口的实现.zip_Spark!_spark stream 窗口_spark streamin

    本资料主要关注的是Spark Streaming中的滑动窗口(Sliding Window)机制,这是实现时间窗口操作的关键概念,对于理解和应用Spark Streaming至关重要。 滑动窗口是实时数据处理中一种常见的抽象概念,用于定义一段...

    spark streaming

    数据一旦被接收,Spark Streaming就可以利用Spark的强大功能进行转换和处理,包括映射、归约、联结以及窗口操作等。 Spark Streaming 处理实时数据流的能力得到了容错性的加强。得益于底层的RDD(弹性分布式数据集...

    SparkStreaming入门案例

    本文将通过三个例子来演示 Spark Streaming 的使用:监控指定目录并处理该目录下的新文件、监控指定目录并处理该目录下的同一格式的新旧文件、窗口机制处理指定目录下的新文件。 在第一个例子中,我们将监控指定...

    spark之sparkStreaming 理解

    - **处理单元**:Storm处理的是单个事件,而Spark Streaming处理的是某一时间窗口内的事件流。因此,Storm能够实现几乎即时的处理延迟(亚秒级),而Spark Streaming则通常有几秒钟的延迟。 - **语言支持**:Storm...

    Spark Streaming Real-time big-data processing

    Spark Streaming的源码展示了其内部实现机制,包括如何接收数据、如何创建和操作DStream、以及如何调度和执行微批处理任务。深入理解源码可以帮助开发者优化性能,解决故障,并实现更复杂的实时流处理逻辑。 **工具...

    Spark Streaming实时流处理项目实战.rar.rar

    本项目实战旨在帮助读者深入理解和应用Spark Streaming,通过实际操作来掌握其核心概念、架构以及编程模型。 在Spark Streaming中,数据流被划分为一系列的小批量(称为DStreams,即Discretized Streams),这些小...

    Spark Streaming Programming Guide 笔记

    - 对于基于窗口的操作(如 `reduceByWindow` 和 `reduceByKeyAndWindow`)以及基于状态的操作(如 `updateStateByKey`),这种持久化是隐式发生的,无需开发者显式调用 `persist()` 方法。 ##### 需要进行 ...

    Spark Streaming 流式日志过滤的实验资源

    - **窗口操作**:Spark Streaming 提供了时间窗口的概念,用于处理特定时间间隔内的数据,如滑动窗口和滚动窗口。 - **微批处理**:Spark Streaming 实现流处理的一种方式是将数据流分成小批量,然后使用 Spark ...

    一个手动管理spark streaming集成kafka时的偏移量到zookeeper中的小项目

    可能包含创建连接Zookeeper的客户端,定义如何读写偏移量,以及如何在Spark Streaming的DStream操作中插入偏移量更新的代码。 综上所述,这个项目涉及到的核心技术包括Spark Streaming的实时数据处理,Kafka的消息...

    06Spark Streaming原理和实践

    ### Spark Streaming原理与实践 #### 一、为什么需要流处理? 传统的批处理框架如MapReduce在处理实时数据流时存在一些局限性,主要是因为每次处理一批数据就需要启动一个新任务,而任务的启动过程(包括输入切分...

    spark sparkStreaming sparkMaven

    开发者可以对DStream进行转换和窗口操作,实现如滑动窗口、 tumbling窗口等复杂的实时处理逻辑。 Spark与Hadoop等其他大数据框架相比,具有以下优势: 1. 快速:Spark使用内存计算,大大减少了磁盘I/O,从而提高了...

    spark Streaming原理和实战

    - **窗口操作**: 包括`window`, `countByWindow`, `reduceByWindow`, `countByValueAndWindow`, `reduceByKeyAndWindow`等,用于处理滑动窗口内的数据。 #### 五、DStream输出 - **打印**: 使用`print`方法可以将...

    java基于spark streaming和kafka,hbase的日志统计分析系统.rar

    Spark Streaming通过微批处理的方式模拟实时流处理,将数据流分割成时间窗口内的小批量数据(DStreams),然后应用Spark的批处理操作进行计算,确保低延迟和高吞吐量。 2. **Kafka**:一个分布式流处理平台,常用于...

    扶剑-Spark Streaming Spark流数据

    Spark Streaming提供了窗口化的transformation操作,比如`window`、`countByWindow`、`reduceByWindow`等,可以让用户定义窗口的长度和滑动间隔来进行窗口化计算。 通过这些详细内容可以了解到,Spark Streaming是...

    spark-streaming课堂讲义.docx

    SparkStreaming 的基本工作原理是将实时数据流分割成多个时间窗口(micro-batches),然后使用 Spark Core 的并行和分布式处理能力对每个批次进行计算。这种方式既保留了 Spark 的内存计算优势,也实现了对实时数据...

    spark core、spark sql以及spark streaming 的Scala、java项目混合框架搭建以及大数据案例

    项目中可能包含创建DStream(Discretized Stream),设置窗口操作,以及实现复杂的流处理逻辑,如状态保持、复杂事件检测等。 4. **Scala**:Scala是一种多范式的编程语言,它是Spark的主要开发语言,提供了函数式...

    Python3实战Spark大数据分析及调度-第9章 Spark Streaming.zip

    3. **窗口操作**:Spark Streaming提供了滑动窗口和滚动窗口的概念。滑动窗口用于连续的数据流,而滚动窗口则以固定的时间间隔划分数据。这些窗口可以用于聚合操作,例如计算一段时间内的平均值或总数。 4. **数据...

    【SparkStreaming篇02】SparkStreaming之Dstream创建1

    SparkStreaming的工作机制是微批处理,它将实时数据流分割成多个小的时间窗口(即批次),每个批次内部使用Spark的RDD转换和操作进行处理。在本例中,批次间隔是4秒,这意味着每隔4秒,SparkStreaming会处理一批新的...

Global site tag (gtag.js) - Google Analytics