1、spark是一个基于内存计算的开源的集群计算系统,目的是让数据分析更加快速。因此运行spark的机器应该尽量的大内存,如96G以上。
2、spark所有操作均基于RDD,操作主要分成2大类:transformation与action。
3、spark提供了交互处理接口,类似于shell的使用。
4、spark可以优化迭代工作负载,因为中间数据均保存于内存中。
5、spark 是在 Scala 语言中实现的,它可以使用scala、python进行交互式操作,还可以使用scala、python、java进行编程。
6、spark可以通过mesos运行在hdfs上,但hadoop2.x提供了YARN,这更方便于spark运行在hdfs,YARN还提供了内存、CPU的集群管理功能。
7、Spark提供的数据集操作类型有很多种,不像Hadoop只提供了Map和Reduce两种操作。比如 map,filter, flatMap,sample, groupByKey, reduceByKey, union,join, cogroup,mapValues, sort,partionBy等多种操作类型,他们把这些操作称为Transformations。同时还提供Count,collect, reduce, lookup, save等多种actions。这些多种多样的数据集操作类型,给上层应用者提供了方便。各个处理节点之间的通信模型不再像Hadoop那样就是唯一的 Data Shuffle一种模式。用户可以命名,物化,控制中间结果的分区等。可以说编程模型比Hadoop更灵活.
==========================================================
以下内容摘自:http://www.itpub.net/thread-1864721-3-1.html
1、 Spark VSHadoop有哪些异同点?
Hadoop:分布式批处理计算,强调批处理,常用于数据挖掘、分析
Spark:是一个基于内存计算的开源的集群计算系统,目的是让数据分析更加快速, Spark 是一种与 Hadoop 相似的开源集群计算环境,但是两者之间还存在一些不同之处,这些有用的不同之处使 Spark 在某些工作负载方面表现得更加优越,换句话说,Spark 启用了内存分布数据集,除了能够提供交互式查询外,它还可以优化迭代工作负载。
Spark 是在 Scala 语言中实现的,它将 Scala 用作其应用程序框架。与 Hadoop 不同,Spark 和 Scala 能够紧密集成,其中的 Scala 可以像操作本地集合对象一样轻松地操作分布式数据集。
尽 管创建 Spark 是为了支持分布式数据集上的迭代作业,但是实际上它是对 Hadoop 的补充,可以在 Hadoop 文件系统中并行运行。通过名为Mesos的第三方集群框架可以支持此行为。Spark 由加州大学伯克利分校 AMP 实验室 (Algorithms,Machines,and People Lab) 开发,可用来构建大型的、低延迟的数据分析应用程序。
虽然 Spark 与 Hadoop 有相似之处,但它提供了具有有用差异的一个新的集群计算框架。首先,Spark 是为集群计算中的特定类型的工作负载而设计,即那些在并行操作之间重用工作数据集(比如机器学习算法)的工作负载。为了优化这些类型的工作负 载,Spark 引进了内存集群计算的概念,可在内存集群计算中将数据集缓存在内存中,以缩短访问延迟.
在大数据处理方面相信大家对hadoop已经耳熟能详,基于GoogleMap/Reduce来实现的Hadoop为开发者提供了map、reduce原 语,使并行批处理程序变得非常地简单和优美。Spark提供的数据集操作类型有很多种,不像Hadoop只提供了Map和Reduce两种操作。比如 map,filter, flatMap,sample, groupByKey, reduceByKey, union,join, cogroup,mapValues, sort,partionBy等多种操作类型,他们把这些操作称为Transformations。同时还提供Count,collect, reduce, lookup, save等多种actions。这些多种多样的数据集操作类型,给上层应用者提供了方便。各个处理节点之间的通信模型不再像Hadoop那样就是唯一的 Data Shuffle一种模式。用户可以命名,物化,控制中间结果的分区等。可以说编程模型比Hadoop更灵活.
2、Spark在容错性方面是否比其他工具更有优越性?
从Spark的论文《Resilient Distributed Datasets: AFault-TolerantAbstraction for In-Memory Cluster Computing》中没看出容错性做的有多好。倒是提到了分布式数据集计算,做checkpoint的两种方式,一个是checkpoint data,一个是loggingthe updates。貌似Spark采用了后者。但是文中后来又提到,虽然后者看似节省存储空间。但是由于数据处理模型是类似DAG的操作过程,由于图中的某 个节点出错,由于lineage chains的依赖复杂性,可能会引起全部计算节点的重新计算,这样成本也不低。他们后来说,是存数据,还是存更新日志,做checkpoint还是由用 户说了算吧。相当于什么都没说,又把这个皮球踢给了用户。所以我看就是由用户根据业务类型,衡量是存储数据IO和磁盘空间的代价和重新计算的代价,选择代 价较小的一种策略。取代给中间结果进行持久化或建立检查点,Spark会记住产生某些数据集的操作序列。因此,当一个节点出现故障时,Spark会根据存 储信息重新构造数据集。他们认为这样也不错,因为其他节点将会帮助重建。
3、Spark对于数据处理能力和效率有哪些特色?
Spark提供了高的性能和大数据处理能力,使得用户可以快速得到反馈体验更好。另一类应用是做数据挖掘,因为Spark充分利用内存进行缓存,利用 DAG消除不必要的步骤,所以比较合适做迭代式的运算。而有相当一部分机器学习算法是通过多次迭代收敛的算法,所以适合用Spark来实现。我们把一些常 用的算法并行化用Spark实现,可以从R语言中方便地调用,降低了用户进行数据挖掘的学习成本。
Spark配 有一个流数据处理模型,与Twitter的 Storm框架相比,Spark采用了一种有趣而且独特的办法。Storm基本上是像是放入独立事务的管道,在其中事务会得到分布式的处理。相 反,Spark采用一个模型收集事务,然后在短时间内(我们假设是5秒)以批处理的方式处理事件。所收集的数据成为他们自己的RDD,然后使用Spark 应用程序中常用的一组进行处理。作者声称这种模式是在缓慢节点和故障情况下会更加稳健,而且5秒的时间间隔通常对于大多数应用已经足够快了。这种方法也很 好地统一了流式处理与非流式处理部分。
随着大数据相关技术和产业的逐渐成熟,单个组织内往往需要同时进行多种类型的大数据分析作业:传统Hadoop MapReduce最为擅长的批量计算、各种机器学习算法为代表的迭代型计算、流式计算、社交网络中常用的图计算、SQL关系查询、交互式即席查询等。在 Spark出现前,要在一个组织内同时完成以上数种大数据分析任务,就不得不与多套独立的系统打交道,一方面引入了不容小觑的运维复杂性,另一方面还免不 了要在多个系统间频繁进行代价高昂的数据转储。
Spark是发源于美国加州大学伯克利分校AMPLab的集群计算平台,它立足于内存计算,性能超过Hadoop百倍,从多迭代批量处理出发,兼收并蓄数 据仓库、流处理和图计算等多种计算范式,是罕见的全能选手。Spark当下已成为Apache基金会的顶级开源项目,拥有着庞大的社区支持(活跃开发者人 数已超过Hadoop MapReduce),技术也逐渐走向成熟。
1、spark由于启用了内存分布数据集,充分利用了分布式内存技术使其运算效率在hadoop至少;使用Scala语言编写;另外随着hadoop 2.0的发布,Spark亦可直接运行在YARN上。
2、容错特性:Spark 引进弹性分布式数据集(RDD) 。RDD 是分布在一组节点中的只读对象集合。集合是弹性的,如果数据集一部分丢失,则可以对它们进行重建。重建部分数据集的过程依赖于容错机制,该机制可以维护 "血统"(即允许基于数据衍生过程重建部分数据集的信息)。
3、很明显采用内存计算的效率远高于具有大量磁盘IO操作的Hadoop
4、迷你书,能在最短的时间内掌握尽可能多的内容,看起来不至于太累。
我们公司现在数据的处理主要是在hadoop上 但是也搭建了10台的spark的集群
hadoop 可以使用比较廉价的PC机器 但是spark尽量还是使用内存配置比较高的 我们这用的是64G内存的
网上资料说尽量使用96G内存以上的 但是我们这没那么好的机器做测试
相比较于hadoop 我们使用的spark觉得有几下几个优点
第一 spark基于内存计算,速度很明显 。 10台的SPARK的集群的速度可以和我们这hadoop集群的50台的差不多 但是 hadoop 的集群内存大小不一 有8G的 有16G的
第二 spark是基于Scala 相比较hadoop基于java spark更适合数据挖掘 因为scala就是技术机器挖掘的
第三 hadoop 编程模式处理数据很死 只有map 和reduce 而spark编程模式更灵活
第四 据说 spark的算法比hadoop算法更厉害 这个我们这也不知道怎么看 只知道处理数据速度确实快了很多
1、Spark VS Hadoop有哪些异同点?
Spark是基于map reduce算法实现的分布式计算,拥有Hadoop MapReduce所具有的优点;但不同于MapReduce的是Job中间输出和结果可以保存在内存中,从而不再需要读写HDFS,因此Spark能更 好地适用于数据挖掘与机器学习等需要迭代的map reduce的算法。
2、Spark在容错性方面是否比其他工具更有优越性?
现有的数据流系统对两种应用的处理并不高效:一是迭代式算法,这在图应用和机器学习领域很常见;二是交互式数据挖掘工具。这两种情况下,将数据保存在内存 中能够极大地提高性能。为了有效地实现容错,RDD提供了一种高度受限的共享内存,即RDD是只读的,并且只能通过其他RDD上的批量操作来创建。尽管如 此,RDD仍然足以表示很多类型的计算,包括MapReduce和专用的迭代编程模型(如Pregel)等。Spark实现的RDD在迭代计算方面比 Hadoop快二十多倍,同时还可以在5-7秒的延时内交互式地查询1TB的数据集。
3、Spark对于数据处理能力和效率有哪些特色?
与Hadoop进行对比,结果如下:
(1)对于迭代式机器学习应用,Spark比Hadoop快20多倍。这种加速比是因为:数据存储在内存中,同时Java对象缓存避免了反序列化操作(deserialization)。
(2)用户编写的应用程序执行结果很好。例如,Spark分析报表比Hadoop快40多倍。
(3)如果节点发生失效,通过重建那些丢失的RDD分区,Spark能够实现快速恢复。
(4)Spark能够在5-7s延时范围内,交互式地查询1TB大小的数据集。
1、Spark VS Hadoop有哪些异同点?
作为通用的并行处理框架,Spark具有类似Hadoop的一些优点,而且Spark采用了更好的内存管理,
在迭代计算上具有比Hadoop更高的效率,Spark还提供了更为广泛的数据集操作类型,大大方便了
用户的开发,checkpoint的应用使Spark具有很强容错能力,众多优越的性能和比Hadoop更广泛
的适用面让Spark的进一步发展值得期待。
2、Spark在容错性方面是否比其他工具更有优越性?
在分布式数据集计算时通过checkpoint来实现容错,而checkpoint
有两种方式,一个是checkpoint data,一个是logging the updates。
用户可以控制采用哪种方式来实现容错。
3、Spark对于数据处理能力和效率有哪些特色?
由于Spark处理数据利用内存,因此它的速度是非常快的,
Spark Streaming:大大提高Spark流处理的能力和稳定性,
使用户可以用同一套代码进行大数据流处理和批量处理。
- 浏览: 155444 次
文章分类
- 全部博客 (210)
- 知识点收集 (37)
- 知识点 (28)
- was (2)
- oracle 存储过程 (3)
- tools (13)
- oracle (13)
- 开发中遇见的错误 (17)
- 工作日常 (4)
- 开发工具 (6)
- 代码优化 (3)
- 并发编程 (1)
- 代码优化篇 (1)
- demo (18)
- WEB前端 (9)
- Spark篇 (17)
- Scala (22)
- 北漂集 (6)
- UI (1)
- 大数据 (13)
- 分布式与集群 (5)
- 专业化发展 (1)
- OS (7)
- 木马+病毒 (1)
- 小故事集 (1)
- 散技术收集 (2)
- redis (8)
- 一些巧用方案 (1)
- Akka (2)
- 第三方开源 (1)
- 新玩意 (3)
- A公司汇总 (1)
最新评论
-
zhou9629:
spring redis 整合 -
see_you_again:
回复一楼:我也只是初学
spark使用logback+slf4j 替换log4j+slf4j -
wu_shao_jie:
嗨,我在用spark-submit命令提交作业的时候,应用程序 ...
spark使用logback+slf4j 替换log4j+slf4j -
zhangfc682:
引用
Eclipse代码模板
发表评论
-
大数据学习路线
2016-04-15 19:16 521课程模块 课程主题 主要内容 ... -
Spark RDD:弹性分布式数据集
2016-03-14 14:06 444文/牛肉圆粉不加葱(简书作者)原文链接:http://www. ... -
spark支持的sql 语法
2016-02-25 15:37 854from http://docs.datastax.com/ ... -
spark使用logback+slf4j 替换log4j+slf4j
2016-02-21 12:45 4424背景: spark1.6以前 ... -
Spark官方文档: Spark Configuration(Spark配置)
2016-01-07 15:50 581Spark主要提供三种位置配置系统: 环境变量:用来启动 ... -
hive中的left semi join替换sql中的in操作
2015-12-15 17:10 1931hive中的left semi join替换sql中的in ... -
spark支持的SQL
2015-12-15 16:10 676著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注 ... -
利用Spark进行对账demo
2015-11-27 13:58 2478//利用cogroup 处理分隔符的文件 import ... -
RDD的持久化
2015-11-25 14:49 498Spark最重要的一个功能,就是在不同操作间,持久化(或缓存) ... -
Spark RDD详解
2015-11-25 14:16 4331、RDD是什么 RDD:Spark ... -
Apache Spark 入门
2015-11-23 11:03 606什么是Spark ... -
用Apache Spark进行大数据处理
2015-11-23 09:58 878from:http://www.infoq.com/cn/ ... -
sparkJDBC mysql
2015-11-19 10:49 424import java.sql.DriverManager ... -
spark SQL例子
2015-11-19 10:44 809spark SQL:在大数据查询是,使用SQL让我们方便了 ... -
spark基本概念
2015-11-18 14:06 3521. Spark中的基本概念 在Spark中, ... -
Spark 读取文件中文乱码解决
2015-11-18 14:02 6769当我们获取文本文件数据源是,直接使用如下代码会出现中文乱码 ...
相关推荐
基于RDD的架构,在这个开源系统栈里包括作为公共组件的Apache Spark;处理SQL的Shark;和处理分布式流的Spark Streaming。我们使用了真实的用户应用案例和传统的基准测试来评估这些系统。我们的实现为传统和新的数据...
Spark是大数据处理领域中的一款高性能、通用且可扩展的并行计算框架,它以其高效的内存计算和弹性分布式数据集(Resilient ...通过理解Spark的原理,开发者可以更好地利用其特性,实现大规模数据的高效处理和分析。
### Spark运行原理解析 #### 一、Spark简介与核心价值 Spark是一个开源的大数据处理框架,它提供了统一的数据处理接口,能够支持多种类型的数据处理任务,如批处理、流处理、交互式查询以及机器学习等。Spark的...
**Spark运行原理详解** Spark作为一个高效的大数据处理框架,因其快速、通用且可扩展的特性,在大数据领域备受青睐。本文将深入探讨Spark的核心概念、架构设计以及执行过程,旨在帮助那些已经对Spark有一定基础理解...
7.SparkStreaming(上)--SparkStreaming原理介绍.pdf 7.SparkStreaming(下)--SparkStreaming实战.pdf 8.SparkMLlib(上)--机器学习及SparkMLlib简介.pdf 8.SparkMLlib(下)--SparkMLlib实战.pdf 9.SparkGraphX...
**Spark技术原理** Spark是大数据处理领域中的一个关键框架,以其高效、易用和灵活性而闻名。本教程基于华为的学习资源,旨在从基础到高级,深入解析Spark的技术原理,适合不同水平的学习者进行探讨。 首先,我们...
### Spark Streaming 原理详解 #### 1. Spark Streaming 简介 ##### 1.1 概述 Spark Streaming 是 Apache Spark 生态系统中的一个重要组成部分,它为实时流数据处理提供了一套完整的解决方案。相比于传统的批处理...
Spark是一个基于内存计算的大数据并行计算框架,最初由美国加州伯克利大学的AMP实验室在2009年开发。它能够用于构建大型的、低延迟的数据分析应用程序。Spark之所以与众不同,是因为它的许多核心理念源自学术研究...
spark原理与调优详解 Spark 是一种基于内存的分布式计算框架,旨在高效地处理大规模数据。下面是 Spark 的原理和调优详解。 Spark 背景和安装 Spark 的产生背景是为了解决传统 MapReduce 框架的不足之处,如计算...
spark内部原理和架构 电子书完整版。
Apache Spark是一个大数据处理框架,最初由加州大学伯克利分校的AMPLab在2009年开发,并于2010年成为Apache的一个开源项目。Apache Spark的核心优势在于其围绕速度、易用性和复杂分析构建的能力。相较于其他大数据...
7.SparkStreaming(上)--SparkStreaming原理介绍.pdf 7.SparkStreaming(下)--SparkStreaming实战.pdf 8.SparkMLlib(上)--机器学习及SparkMLlib简介.pdf 8.SparkMLlib(下)--SparkMLlib实战.pdf 9.SparkGraphX...
大数据技术之图解Spark原理及实践,
spark内核结构图。Spark是当今大数据领域最活跃、最热门、最高效的大数据通用计算平台,是Apache软件基金会下所有开源项目中三大顶级开源项目之一。
课时4:SparkRDD原理剖析 课时5:Spark2sql从mysql中导入 课时6:Spark1.6.2sql与mysql数据交互 课时7:SparkSQL java操作mysql数据 课时8:Spark统计用户的收藏转换率 课时9:Spark梳理用户的收藏以及订单转换率 ...
Spark 核心原理详解 Spark 是一种基于内存的分布式计算框架,主要用于大规模数据处理和分析。下面是 Spark 核心原理的详细解释: 一、Spark 应用程序 Spark 应用程序是指用户编写的 Spark 应用程序/代码,包含了 ...
在"大数据技术原理及应用课实验7:Spark初级编程实践"中,我们主要关注Spark的两个核心知识点:数据读取和Spark应用程序的开发流程。 首先,Spark提供了一种简单的方式去访问不同的数据源,包括本地文件系统和...
本文将深入探讨Spark的原理及源码分析,首先从Spark运行时的通用流程入手,然后介绍核心组件的角色与职责,以及Spark支持的不同集群部署模式。 在Spark的运行流程中,用户通过`spark-submit`提交应用程序。这个过程...
《Spark技术内幕深入解析Spark内核架构设计与实现原理》这本书深入探讨了Apache Spark这一分布式计算框架的核心架构和实现机制,旨在帮助读者全面理解Spark的工作原理,并能够有效地利用其进行大数据处理。...