使用 Apache Arrow 加速 PySpark


发布于 2017 年 7 月 26 日
作者 BryanCutler

Bryan Cutler 是 IBM Spark 技术中心 ( STC ) 的一名软件工程师

Apache Spark 2.3 版本开始,Apache Arrow 将成为受支持的依赖项,并开始通过列式数据传输提供更高的性能。如果您是一名倾向于在 Python 和 Pandas 中工作的 Spark 用户,这将是一个令人兴奋的消息!最初的工作仅限于使用 toPandas() 收集 Spark DataFrame,我将在下面讨论,但目前还有许多额外的改进正在进行中

优化 Spark 到 Pandas 的转换

以前在 PySpark 中使用 DataFrame.toPandas() 将 Spark DataFrame 转换为 Pandas 的方式效率低下得令人痛苦。基本上,它的工作原理是首先将所有行收集到 Spark 驱动程序。接下来,每一行都会被序列化为 Python 的 pickle 格式并发送到 Python 工作进程。这个子进程将每一行解封为一个巨大的元组列表。最后,使用 pandas.DataFrame.from_records() 从列表中创建 Pandas DataFrame。

这一切可能看起来像是标准程序,但存在 2 个明显的缺陷:1) 即使使用 CPickle,Python 序列化也是一个缓慢的过程;2) 使用 from_records 创建 pandas.DataFrame 必须缓慢地遍历纯 Python 数据列表并将每个值转换为 Pandas 格式。详细分析请参见此处

这就是 Arrow 真正大放异彩的地方,它有助于优化这些步骤:1) 一旦数据采用 Arrow 内存格式,就不再需要序列化/pickle,因为 Arrow 数据可以直接发送到 Python 进程;2) 当 Arrow 数据在 Python 中接收到时,pyarrow 可以利用零拷贝方法一次性从整个数据块创建 pandas.DataFrame,而不是处理单个标量值。此外,转换为 Arrow 数据可以在 JVM 上完成,并推回由 Spark 执行器并行执行,从而大大减少驱动程序的负载。

截至 SPARK-13534 合并,调用 toPandas() 时使用 Arrow 需要通过将 SQLConf "spark.sql.execution.arrow.enabled" 设置为 "true" 来启用。让我们看一个简单的使用示例。

Welcome to
      ____              __
     / __/__  ___ _____/ /__
    _\ \/ _ \/ _ `/ __/  '_/
   /__ / .__/\_,_/_/ /_/\_\   version 2.3.0-SNAPSHOT
      /_/

Using Python version 2.7.13 (default, Dec 20 2016 23:09:15)
SparkSession available as 'spark'.

In [1]: from pyspark.sql.functions import rand
   ...: df = spark.range(1 << 22).toDF("id").withColumn("x", rand())
   ...: df.printSchema()
   ...: 
root
 |-- id: long (nullable = false)
 |-- x: double (nullable = false)


In [2]: %time pdf = df.toPandas()
CPU times: user 17.4 s, sys: 792 ms, total: 18.1 s
Wall time: 20.7 s

In [3]: spark.conf.set("spark.sql.execution.arrow.enabled", "true")

In [4]: %time pdf = df.toPandas()
CPU times: user 40 ms, sys: 32 ms, total: 72 ms                                 
Wall time: 737 ms

In [5]: pdf.describe()
Out[5]: 
                 id             x
count  4.194304e+06  4.194304e+06
mean   2.097152e+06  4.998996e-01
std    1.210791e+06  2.887247e-01
min    0.000000e+00  8.291929e-07
25%    1.048576e+06  2.498116e-01
50%    2.097152e+06  4.999210e-01
75%    3.145727e+06  7.498380e-01
max    4.194303e+06  9.999996e-01

此示例是在我的笔记本电脑上使用 Spark 默认设置在本地运行的,因此所示时间不应精确看待。尽管如此,显然性能有了巨大的提升,使用 Arrow 将原本极其缓慢的操作加速到几乎察觉不到。

使用注意事项

在使用此新功能之前,请记住以下几点。在撰写本文时,pyarrow 不会随 pyspark 自动安装,需要手动安装,请参阅安装说明。计划将 pyarrow 添加为 pyspark 依赖项,以便 > pip install pyspark 也会安装 pyarrow。

目前,控制 SQLConf 默认禁用。可以通过上述示例中的编程方式启用,或通过将行 "spark.sql.execution.arrow.enabled=true" 添加到 SPARK_HOME/conf/spark-defaults.conf

此外,目前并非所有 Spark 数据类型都受支持,仅限于基本类型。扩展类型支持正在开发中,预计也将包含在 Spark 2.3 版本中。

未来改进

如前所述,这只是使用 Arrow 让 Spark Python 用户生活更轻松的第一步。一些正在进行中的激动人心的举措包括允许矢量化 UDF 评估(SPARK-21190SPARK-21404),以及能够使用 Pandas DataFrame 对分组数据应用函数(SPARK-20396)。就像 Arrow 帮助将 Spark 转换为 Pandas 一样,它也可以在从现有 Pandas DataFrame 创建 Spark DataFrame 时反向工作(SPARK-20791)。敬请期待更多!

合作者

实现这个第一个里程碑是 Apache Arrow 和 Spark 社区共同努力的结果。感谢 Wes McKinneyLi JinHolden Karau、Reynold Xin、Wenchen Fan、Shane Knapp 以及许多其他帮助推动这项工作的人们的辛勤工作。