网站首页 > 技术文章 正文
Spark是一个基于MapReduce思想的分布式通用计算框架,相对于MapReduce,它的升华主要体现在处理结果驻留在了内存中(RDD,即分布式内存的概念,也是将数据进行切片,计算的中间结果驻留在内存中,可以设置切片数,也可以采用默认值),可以直接与客户端交互,而不是像mapReduce那样,将结果存于hdfs,然后客户端再与hdfs交互,这样可以大大减少磁盘IO的消耗,更适用与数据挖掘和机器学习任务。
Spark支持检查点,会对任务的执行链进行记录,一旦某个任务执行失败,会对其进行重新执行,而不是对整个链路进行执行,大大提升了任务的执行效率
Spark支持Java,Python等多种语言开发,并提供了很多高级操作符,方便了不同语言之间的交互
Spark主要分为四块:
Spark Sql:类似传统的sql查询,可以直接查询hive中的数据
Spark Streaming:批处理的流式计算框架,map和reduce的各种算子就集中在这里,这是一个具体处理业务逻辑的地方
Spark GraphX:分布式的图处理框架,提供了很多图计算和图挖掘的接口
Spark MLIib:可拓展的机器学习库,包括很多常用算法,例如分类回归,聚类协同,决策树,朴素贝叶斯等
Spark的工作流程:
任务控制节点向集群管理器申请资源,启动执行器,执行器将任务分解并执行,执行结果返回控制节点
在Spark中一个应用由一个任务控制器和多个作业组成,同时作业可以切分成多个阶段,阶段可以再次切分成多个任务,这个任务就是Spark的最小逻辑执行单元了,可以利用多线程进行并行执行
猜你喜欢
- 2024-10-12 大佬用10小时就把Spark讲完了,附6大技术文档
- 2024-10-12 浅析图数据库 Nebula Graph 数据导入工具——Spark Writer
- 2024-10-12 Spark Streaming 和 Flink 谁是数据开发者的最爱?
- 2024-10-12 分享几点 Spark Streaming 调优实践经验
- 2024-10-12 大数据学习之计算天下——SPARK的那些事
- 2024-10-12 第二篇|Spark core编程指南 spark编程软件
- 2024-10-12 Spark Shuffle机制 sparkshuffle原理
- 2024-10-12 一文带你了解SparkStreaming窗口函数
- 2024-10-12 深度预警:Spark运行原理 简述spark的运行架构和原理
- 2024-10-12 Spark大数据系列学习指南 spark在大数据中的应用
你 发表评论:
欢迎- 最近发表
- 标签列表
-
- oraclesql优化 (66)
- 类的加载机制 (75)
- feignclient (62)
- 一致性hash算法 (71)
- dockfile (66)
- 锁机制 (57)
- javaresponse (60)
- 查看hive版本 (59)
- phpworkerman (57)
- spark算子 (58)
- vue双向绑定的原理 (68)
- springbootget请求 (58)
- docker网络三种模式 (67)
- spring控制反转 (71)
- data:image/jpeg (69)
- base64 (69)
- java分页 (64)
- kibanadocker (60)
- qabstracttablemodel (62)
- java生成pdf文件 (69)
- deletelater (62)
- com.aspose.words (58)
- android.mk (62)
- qopengl (73)
- epoch_millis (61)
本文暂时没有评论,来添加一个吧(●'◡'●)