全面掌握Spark性能优化炼成真正的Spark高手 Spark高级视频教程 spark性能优化
课程目标[*]大数据性能调优的本质
[*]Spark 性能调优要点分析
[*]Spark 资源使用原理流程
[*]Spark 资源调优最佳实战
[*]Spark 更高性能的算子
课程简介
我们谈大数据性能调优,到底在谈什么,它的本质是什么,以及 Spark 在性能调优部份的要点,这两点让在进入性能调优之前都是一个至关重要的问题,它的本质限制了我们调优到底要达到一个什么样的目标或者说我们是从什么本源上进行调优。希望我们的课程能为同学们带出以下的启发:
[*]了解大数据性能调优的本质
[*]了解 Spark 性能调优要点分析
[*]了解 Spark 在资源优化上的一些参数调优
[*]了解 Spark 的一些比较高效的 RDD 操作算子
大数据性能调优的本质编程的时候发现一个惊人的规律,软件是不存在的!所有编程高手级别的人无论做什么类型的编程,最终思考的都是硬件方面的问题!最终思考都是在一秒、一毫秒、甚至一纳秒到底是如何运行的,并且基于此进行算法实现和性能调优,最后都是回到了硬件!在大数据性能的调优,它的本质是硬件的调优!即基于 CPU(计算)、Memory(存储)、IO-Disk/ Network(数据交互) 基础上构建算法和性能调优!我们在计算的时候,数据肯定是存储在内存中的。磁盘IO怎么去处理和网络IO怎么去优化。
Spark 性能调优要点分析在大数据性能本质的思路上,我们应该需要在那些方面进行调优呢?比如:
[*]并行度
[*]压缩
[*]序例化
[*]数据倾斜
[*]JVM调优 (例如 JVM 数据结构化优化)
[*]内存调优
[*]Task性能调优 (例如包含 Mapper 和 Reducer 两种类型的 Task)
[*]Shuffle 网络调优 (例如小文件合并)
[*]RDD 算子调优 (例如 RDD 复用、自定义 RDD)
[*]数据本地性
[*]容错调优
[*]参数调优
大数据最怕的就是数据本地性(内存中)和数据倾斜或者叫数据分布不均衡、数据转输,这个是所有分布式系统的问题!数据倾斜其实是跟你的业务紧密相关的。所以调优 Spark 的重点一定是在数据本地性和数据倾斜入手。
[*]资源分配和使用:你能够申请多少资源以及如何最优化的使用计算资源
[*]关发调优:如何基于 Spark 框架内核原理和运行机制最优化的实现代码功能
[*]Shuffle调优:分布式系统必然面临的杀手级别的问题
[*]数据倾斜:分布式系统业务本身有数据倾斜
[*]Spark 资源使用原理流程
这是一张来至于官方的经典资源使用流程图,这里有三大组件,第一部份是 Driver 部份,第二就是具体处理数据的部份,第三就是资源管理部份。这一张图中间有一个过程,这表示在程序运行之前向资源管理器申请资源。在实际生产环境中,Cluster Manager 一般都是 Yarn 的 ResourceManager,Driver 会向 ResourceManager 申请计算资源(一般情况下都是在发生计算之前一次性进行申请请求),分配的计算资源就是 CPU Core 和 Memory,我们具体的 Job 里的 Task 就是基于这些分配的内存和 Cores 构建的线程池来运行 Tasks 的。
**** Hidden Message *****
学习了,谢谢分享、、、 么有分,谁能送我点积分啊::>_<:: 学习了,谢谢分享、、、 小手一抖,钱钱到手! 啥也不说了,感谢楼主分享哇! Thank you man Thank you man Thank you man Thank you man 找到好贴不容易,我顶你了,谢了 正需要,支持楼主大人了! 我是来刷分的,嘿嘿