22、你的SQL语句是怎么被优化的-下你好,我是吴磊。 上一讲我们说了,Catalyst优化器的逻辑优化过程包含两个环节:逻辑计划解析和逻辑计划优化。逻辑优化的最终目的就是要把Unresolved Logical Plan从次优的Analyzed Logical Plan最终变身为执行高...2025-11-01Spark性能调优实战
21、你的SQL语句是怎么被优化的-上你好,我是吴磊。 上一讲我们说,Spark SQL已经取代Spark Core成为了新一代的内核优化引擎,所有Spark子框架都能共享Spark SQL带来的性能红利,所以在Spark历次发布的新版本中,Spark SQL占比最大。因此,Spark ...2025-11-01Spark性能调优实战
20、RDD和DataFrame你好,我是吴磊。 从今天开始,我们进入Spark SQL性能调优篇的学习。在这一篇中,我会先带你学习Spark SQL已有的优化机制,如Catalyst、Tungsten这些核心组件,以及AQE、DPP等新特性。深入理解这些内置的优化机制,会让你在开...2025-11-01Spark性能调优实战
19、如何有效降低网络开销你好,我是吴磊。 在平衡不同硬件资源的时候,相比CPU、内存、磁盘,网络开销无疑是最拖后腿的那一个,这一点在处理延迟上表现得非常明显。 下图就是不同硬件资源的处理延迟对比结果,我们可以看到最小的处理单位是纳秒。你可能对纳秒没什么概念,所以为了方便对比...2025-11-01Spark性能调优实战
18、如果内存无限大,磁盘还有用武之地吗?你好,我是吴磊。 我们都知道,Spark的优势在于内存计算。一提到“内存计算”,我们的第一反应都是:执行效率高!但如果听到“基于磁盘的计算”,就会觉得性能肯定好不到哪儿去。甚至有的人会想,如果Spark的内存无限大就好了,这样我们就可以把磁盘完全抛弃...2025-11-01Spark性能调优实战
17、OOM都是谁的锅?怎么破?你好,我是吴磊。 无论是批处理、流计算,还是数据分析、机器学习,只要是在Spark作业中,我们总能见到OOM(Out Of Memory,内存溢出)的身影。一旦出现OOM,作业就会中断,应用的业务功能也都无法执行。因此,及时处理OOM问题是我们日常开...2025-11-01Spark性能调优实战
15、如何最大化内存的使用效率你好,我是吴磊。 上一讲我们说,想要提升CPU利用率,最重要的就是合理分配执行内存,但是,执行内存只是Spark内存分区的一部分。因此,想要合理分配执行内存,我们必须先从整体上合理划分好Spark所有的内存区域。 可在实际开发应用的时候,身边有不少同...2025-11-01Spark性能调优实战
16、如何有效避免Cache滥用你好,我是吴磊。 在Spark的应用开发中,有效利用Cache往往能大幅提升执行性能。 但某一天,有位同学却和我说,自己加了Cache之后,执行性能反而变差了。仔细看了这位同学的代码之后,我吓了一跳。代码中充斥着大量的.cache,无论是RDD,还是...2025-11-01Spark性能调优实战
14、如何高效地利用CPU?你好,我是吴磊。 在日常的开发与调优工作中,总有同学向我抱怨:“为什么我的应用CPU利用率这么低?偌大的集群,CPU利用率才10%!”确实,较低的CPU利用率不仅对宝贵的硬件资源来说是一种非常大的浪费,也会让应用端到端的执行性能很难达到令人满意的效果...2025-11-01Spark性能调优实战
13、如何让Spark SQL选择Broadcast Joins?你好,我是吴磊。 上一讲我们说到,在数据关联场景中,广播变量是克制Shuffle的杀手锏,用Broadcast Joins取代Shuffle Joins可以大幅提升执行性能。但是,很多同学只会使用默认的广播变量,不会去调优。那么,我们该怎么保证Spa...2025-11-01Spark性能调优实战