`

两款高性能并行计算引擎Storm和Spark比较 (转)

阅读更多

Spark基于这样的理念,当数据庞大时,把计算过程传递给数据要比把数据传递给计算过程要更富效率。每个节点存储(或缓存)它的数据集,然后任务被提交给节点。

所以这是把过程传递给数据。这和Hadoop map/reduce非常相似,除了积极使用内存来避免I/O操作,以使得迭代算法(前一步计算输出是下一步计算的输入)性能更高。

Shark只是一个基于Spark的查询引擎(支持ad-hoc临时性的分析查询)

而Storm的架构和Spark截然相反。Storm是一个分布式流计算引擎。每个节点实现一个基本的计算过程,而数据项在互相连接的网络节点中流进流出。和Spark相反,这个是把数据传递给过程。

两个框架都用于处理大量数据的并行计算。

Storm在动态处理大量生成的“小数据块”上要更好(比如在Twitter数据流上实时计算一些汇聚功能或分析)。

Spark工作于现有的数据全集(如Hadoop数据)已经被导入Spark集群,Spark基于in-memory管理可以进行快讯扫描,并最小化迭代算法的全局I/O操作。

不过Spark流模块(Streaming Module)倒是和Storm相类似(都是流计算引擎),尽管并非完全一样。

Spark流模块先汇聚批量数据然后进行数据块分发(视作不可变数据进行处理),而Storm是只要接收到数据就实时处理并分发。

不确定哪种方式在数据吞吐量上要具优势,不过Storm计算时间延迟要小。

总结下,SparkStorm设计相反,而Spark Steaming才和Storm类似,前者有数据平滑窗口(sliding window),而后者需要自己去维护这个窗口。

 

出处:http://blog.csdn.net/iefreer/article/details/32715153

分享到:
评论

相关推荐

    storm与spark简介

    ### Storm与Spark简介 ...综上所述,**Storm** 和 **Spark** 分别针对实时数据处理和大数据分析提供了强大的解决方案。二者虽然在应用场景和技术实现上有较大差异,但都是当前大数据领域不可或缺的重要工具。

    分布式并行计算开发技术-2024年技术课题.pptx

    - **定义**:MPI是一种用于并行计算的消息传递标准,支持多点通信和并行计算。 - **实现方式**:通过定义一组接口函数实现进程间的通信和同步。 - **设计原则**:明确性、简洁性、一致性、高性能、可移植性、易用...

    spark技术原理(精华版)~亚当.pdf

    Spark是一个基于内存计算的大数据并行计算框架,最初由美国加州伯克利大学的AMP实验室在2009年开发。它能够用于构建大型的、低延迟的数据分析应用程序。Spark之所以与众不同,是因为它的许多核心理念源自学术研究...

    基于Spark的分布式大数据分析算法研究.pdf

    在大数据处理中,分布式系统具有高度的容错性、良好的可扩展性和高性能的特点。分布式开发强调在多节点环境中编程和管理任务的能力,使得开发人员可以在分布式系统上构建、部署和管理应用。 2. Apache Spark框架 ...

    大数据开发-大数据自动化部署-包括hadoop+hive+hbase+spark+storm等组件.zip

    Spark支持多种计算模型,包括批处理、流处理、机器学习和图计算,其核心特性是内存计算,可以显著提升数据处理性能。 Storm是实时数据处理系统,擅长处理连续不断的数据流。与Hadoop和Spark不同,Storm保证每个消息...

    亿矿云大数据处理框架:借助Hadoop、Spark、Storm等分布式处理架构,满足海量数据的批处理和流处理计算需求.zip

    Hadoop允许数据在集群中的多台服务器上进行分布式存储,通过MapReduce编程模型进行并行计算,极大地提高了处理效率。MapReduce将大任务分解为小任务分发到各个节点执行,然后将结果汇总,实现了高效的大规模数据处理...

    5_Spark系统1

    Spark是一个高性能的分布式计算框架,最初由美国加州伯克利大学AMP实验室在2009年开发,旨在提升大数据处理的效率。2013年,Spark成为Apache软件基金会的重要项目,与Hadoop、Storm并列。Spark以其内存计算特性,...

    spark-介绍(1).docx

    Apache Spark 是一个强大的分布式计算框架,它以内存为中心,提供了快速、...总之,Spark凭借其内存计算、灵活性和高性能,成为了现代大数据处理中的首选工具,广泛应用于各种场景,为企业提供了快速、高效的计算平台。

    高性能高流量大数据互联网应用实战

    首先,高性能的互联网应用往往基于分布式架构,通过将任务分解到多个节点进行并行处理,以提高系统的处理速度和可扩展性。例如,Hadoop和Spark是大数据处理领域的两个关键框架,它们能有效地进行大规模数据的存储和...

    Spark Streaming解析

    总结而言,Spark Streaming 提供了一套全面的工具和功能,使得开发人员能够构建高性能的实时数据分析应用程序。通过深入理解其架构、API 和优化技巧,可以充分发挥 Spark Streaming 的潜力,解决各种复杂的数据流...

    Learning Spark 2015版.pdf

    Apache Spark是一个开源的集群计算系统,专为数据处理和数据分析的快速性设计。在信息技术日新月异的今天,数据在各个领域中逐渐增长,如何高效地处理这些数据成为了一个挑战。Spark的设计使得用户能够快速编写并且...

    大数据离线计算.pdf

    Spark作为一种高性能计算引擎,特别适合处理需要快速迭代和高时效性的场景,它可以利用内存和SSD进行迭代计算,提高数据处理速度。Presto则是一款分布式SQL查询引擎,支持大规模并行处理,能够在多个节点间进行管道...

    hadoop、spark和NoSQL实战-part1

    Spark是一个快速、通用的计算引擎,它提供了比MapReduce更高的性能和更广泛的API支持。Spark支持多种数据处理模式,包括批处理、交互式查询、流处理等。Spark的关键特性包括内存计算、容错机制以及丰富的库支持(如...

    Apache Spark - A unified engine for big data processing.pdf

    - **性能提升**:由于内存计算和优化的调度机制,Spark相比传统的Hadoop MapReduce提供了更高的性能。 - **易用性**:Spark提供了丰富的API,支持多种编程语言(如Java、Scala、Python),降低了学习门槛。 - **生态...

    大数据分析的六大工具介绍 (4).pdf

    HPCC 计划由五部分组成:高性能计算机系统、先进软件技术与算法、国家科研与教育网格、基本研究与人类资源、信息基础结构技术和应用。 三、Storm Storm 是自由的开源软件,一个分布式的、容错的实时计算系统。...

    基于storm的实时推荐系统论文

    在分布式环境中,矩阵分解可以通过并行计算来加速。例如,使用Apache Spark中的机器学习库(MLlib)来实现,其中包含的交替最小二乘法(ALS)能够有效地处理大规模的矩阵分解问题。矩阵分解结果通常被用来预测用户对...

    实时数据分析平台1

    - 高性能查询通过构建索引、物化视图和分布式集群并行查询来实现。同时,通过磁盘Raid和减少Merge操作来提升磁盘IO性能。 总结,腾讯看点的实时数据分析平台利用Flink的实时计算能力和ClickHouse的高性能存储,...

    大数据核心技术对比分析.pdf

    这篇《大数据核心技术对比分析》深入探讨了大数据生态系统中的关键技术和面临的挑战,以及如何通过各种解决方案实现高可靠性、高可用性、高扩展性和高性能。下面将详细阐述这些核心知识点。 **大数据生态系统架构**...

    分布式计算——原理、算法和系统

    2. **Spark**:基于内存计算的分布式计算引擎,支持批处理、交互式查询、实时流处理等多种计算模式。 3. **Storm**:实时流处理系统,能够处理无界数据流,并确保每个消息只被处理一次。 4. **Flink**:高性能的流...

Global site tag (gtag.js) - Google Analytics