Spark 1.6升级2.x防踩坑指南 2018-04-07 21:41:52 > 原创文章,谢绝转载 Spark 2.x自2.0.0发布到目前的2.2.0已经有一年多的时间了,2.x宣称有诸多的性能改进,相信不少使用Spark的同学还停留在1.6.x或者更低的版本上,没有升级到2.x或许是由于1.6相对而言很稳定,或许是升级后处处踩坑被迫放弃。 Spark SQL是Spark中最重要的模块之一,基本上Spark每个版本发布SQL模块都有不少的改动,而且官网还会附带一个[Migration Guide](http://spark.apache.org/docs/latest/sql-programming-guide.html#migration-guide)帮忙大家升级。问题在于Migration Guide并没有详尽的列出所有变动,本文以SQL模块为主,扒一扒Spark升级2.x过程中可能会踩到的坑。 ## 计算准确性 > 那些升级后,让你感到心中有千万只草泥马奔腾而过的问题 - `SELECT '0.1' = 0`返回的是true!Spark 2.2中,0.1会被转换为int,如果你的数据类型全部是文本类型,做数值计算时,结果极有可能不正确。之前的版本中0.1会被转换为double类型绝大多数场景下这样的处理是正确的。目前为止,社区还没有很好的处理这个问题,针对这个问题,我给社区提交过一个PR,想要自己解决这个问题的同学,可以手动合并下:<https://github.com/apache/spark/pull/18986> - 过于复杂的SQL语句执行可能会出现64KB字节码编译限制的问题,这算是个老问题了,Spark自从上了Tungsten基本上一直存在这个问题,也算是受到了JVM的限制,遇到此类问题,建议大家找找PR:<https://github.com/apache/spark/search?utf8=%E2%9C%93&q=64KB&type=Issues> - 数据计算精度有问题,`SELECT 1 > 0.0001`会报错,这个问题已在2.1.2及2.2.0中修复:<https://issues.apache.org/jira/browse/SPARK-20211> - 2.1.0版本中`INNER JOIN`涉及到常量计算结果不正确,后续版本已修复:<https://issues.apache.org/jira/browse/SPARK-19766> - 2.1.0中,执行`GROUPING SET(col)`,如果col列数据为null,会报空指针异常,后续版本已修复:<https://issues.apache.org/jira/browse/SPARK-19509> - 2.1.0中,嵌套的CASE WHEN语句执行有可能出错,后续版本已修复:<https://issues.apache.org/jira/browse/SPARK-19472> ## 行为变化 > 那些不算太致命,改改代码或配置就可以兼容的问题。 - Spark 2.2的UDAF实现有所变动,如果你的Hive UDAF没有严格按照标准实现,有可能会计算报错或数据不正确,建议将逻辑迁移到Spark AF,同时也能获得更好的性能 - Spark 2.x限制了Hive表中`spark.sql.*`相关属性的操作,明明存在的属性,使用`SHOW TBLPROPERTIES tb("spark.sql.sources.schema.numParts")`无法获取到,同理也无法执行`ALTER TABLE tb SET TBLPROPERTIES ('spark.sql.test' = 'test')`进行修改 - 无法修改外部表的属性`ALTER TABLE tb SET TBLPROPERTIES ('test' = 'test')`这里假设tb是EXTERNAL类型的表 - DROP VIEW IF EXISTS tb,如果这里的tb是个TABLE而非VIEW,执行会报错`AnalysisException: Cannot drop a table with DROP VIEW`,在2.x以下不会报错,由于我们指定了IF EXISTS关键字,这里的报错显然不合理,需要做异常处理。 - 如果你访问的表不存在,异常信息在Spark2.x里由之前的`Table not found`变成了`Table or view not found`,如果你的代码里依赖这个异常信息,就需要注意调整了。 - EXPLAIN语句的返回格式变掉了,在1.6里是多行文本,2.x中是一行,而且内容格式也有稍微的变化,相比Spark1.6,少了Tungsten关键字;EXPLAIN中显示的HDFS路径过长的话,在Spark 2.x中会被省略为... - 2.x中默认不支持笛卡尔积操作,需要通过参数`spark.sql.crossJoin.enabled`开启 - OLAP分析中常用的`GROUPING__ID`函数在2.x变成了`GROUPING_ID()` - 如果你有一个基于Hive的UDF名为abc,有3个参数,然后又基于Spark的UDF实现了一个2个参数的abc,在2.x中,2个参数的abc会覆盖掉Hive中3个参数的abc函数,1.6则不会有这个问题 - 执行类似`SELECT 1 FROM tb GROUP BY 1`的语句会报错,需要单独设置`spark.sql.groupByOrdinal false`类似的参数还有`spark.sql.orderByOrdinal false` - CREATE DATABASE默认路径发生了变化,不在从hive-site.xml读取`hive.metastore.warehouse.dir`,需要通过Spark的`spark.sql.warehouse.dir`配置指定数据库的默认存储路径。 - CAST一个不存在的日期返回null,如:year('2015-03-40'),在1.6中返回2015 - Spark 2.x不允许在VIEW中使用临时函数(temp function)<https://issues.apache.org/jira/browse/SPARK-18209> - Spark 2.1以后,窗口函数ROW_NUMBER()必须要在OVER内添加ORDER BY,以前的`ROW_NUMBER() OVER()`执行会报错 - Spark 2.1以后,`SIZE(null)`返回-1,之前的版本返回null - Parquet文件的默认压缩算法由gzip变成了snappy,据官方说法是snappy有更好的查询性能,大家需要自己验证性能的变化 - DESC FORMATTED tb返回的内容有所变化,1.6的格式和Hive比较贴近,2.x中分两列显示 - 异常信息的变化,未定义的函数,Spark 2.x: `org.apache.spark.sql.AnalysisException: Undefined function: 'xxx’.`, Spark 1.6: `AnalysisException: undefined function xxx`,参数格式错误:Spark 2.x:`Invalid number of arguments`, Spark 1.6: `No handler for Hive udf class org.apache.hadoop.hive.ql.udf.generic.GenericUDAFXXX because: Exactly one argument is expected..` - Spark Standalone的WebUI中已经没有这个API了:`/api/v1/applications`:<https://issues.apache.org/jira/browse/SPARK-12299>,<https://issues.apache.org/jira/browse/SPARK-18683> ## 版本回退 > 那些升级到2.x后,发现有问题回退后,让你欲哭无泪的问题。 - Spark 2.0开始,SQL创建的分区表兼容Hive了,Spark会将分区信息保存到HiveMetastore中,也就是我们可以通过SHOW PARTITIONS查询分区,Hive也能正常查询这些分区表了。如果将Spark切换到低版本,在更新分区表,HiveMetastore中的分区信息并不会更新,需要执行`MSCK REPAIR TABLE`进行修复,否则再次升级会出现缺数据的现象。 - Spark 2.0 ~ 2.1创建的VIEW并不会把创建VIEW的原始SQL更新到HiveMetastore,而是解析后的SQL,如果这个SQL包含复杂的子查询,那么切换到1.6后,就有可能无法使用这个VIEW表了(1.6对SQL的支持不如2.x) ## 其他 从2.2.0开始,Spark不在支持Hadoop 2.5及更早的版本,同时也不支持Java 7 了,所以,如果你用的版本比较老,还是尽快升级的比较好。 2.x中对于ThriftServer或JobServer这样的长时间运行的服务,稳定性不如1.6,如果您的计算业务复杂、SQL计算任务繁多、频繁的更新数据、处理数据量较大,稳定性的问题更加凸显。稳定性问题主要集中在内存方面,Executor经常出现堆外内存严重超出、OOM导致进程异常退出等问题。Executor进程OOM异常退出后相关的block-mgr目录(也就是SPARK_LOCAL_DIRS)并不会被清理,这就导致Spark Application长时间运行很容易出现磁盘被写满的情况。 ## 总结 Spark 2.x中为了性能,SQL模块的改动相当大,这也导致Bug变多,稳定性变差。当然,随着Spark的不断改进迭代,这些问题也在逐步缓解。 对于一个计算服务,相比性能,数据计算的正确性及稳定性更加重要。建议尚未升级到2.x的同学,最好使用最新的Spark版本做升级;升级前,务必结合自己的业务场景做好充分的测试,避免踩坑。 ![Spark大数据技术](http://upload-images.jianshu.io/upload_images/38215-7c4f57db84797dd5.jpg?imageMogr2/auto-orient/strip%7CimageView2/2/w/1240) 本文同步更新到微信公众号,欢迎扫码关注。 非特殊说明,均为原创,原创文章,未经允许谢绝转载。 原始链接:Spark 1.6升级2.x防踩坑指南 赏 Prev 使用SBT编译Spark子项目 Next 为Spark Application指定不同的JDK版本