使用 Apache Arrow 加速 PySpark


已发布 2017年7月26日
作者 BryanCutler

Bryan Cutler 是 IBM Spark 技术中心 STC 的软件工程师

Apache Spark 2.3 版本开始,Apache Arrow 将成为受支持的依赖项,并开始通过列式数据传输提供更高的性能。如果您是喜欢使用 Python 和 Pandas 的 Spark 用户,那么这是一个令人兴奋的消息!最初的工作仅限于使用 toPandas() 收集 Spark DataFrame,我将在下面讨论,但是目前还有许多其他改进正在 进行中

优化 Spark 到 Pandas 的转换

以前在 PySpark 中使用 DataFrame.toPandas() 将 Spark DataFrame 转换为 Pandas 的方法效率极低。基本上,它的工作原理是首先将所有行收集到 Spark 驱动程序。接下来,每一行都会被序列化为 Python 的 pickle 格式并发送到 Python 工作进程。此子进程将每一行反序列化为一个巨大的元组列表。最后,使用 pandas.DataFrame.from_records() 从列表创建 Pandas DataFrame。

这一切似乎都是标准程序,但存在两个明显的问题:1)即使使用 CPickle,Python 序列化也是一个缓慢的过程;2)使用 from_records 创建 pandas.DataFrame 必须缓慢迭代纯 Python 数据列表并将每个值转换为 Pandas 格式。有关详细分析,请参阅 此处

这就是 Arrow 真正发挥作用来帮助优化这些步骤的地方:1) 一旦数据采用 Arrow 内存格式,就不再需要序列化/pickle,因为 Arrow 数据可以直接发送到 Python 进程,2) 当 Python 接收到 Arrow 数据时,pyarrow 可以利用零拷贝方法从整个数据块一次性创建 pandas.DataFrame,而不是处理单个标量值。此外,转换为 Arrow 数据可以在 JVM 上完成,并推回 Spark 执行器并行执行,从而大大减少驱动程序的负载。

SPARK-13534 合并以来,需要通过将 SQLConf“spark.sql.execution.arrow.enabled”设置为“true”来启用调用 toPandas() 时的 Arrow 使用。让我们看一个简单的用法示例。

Welcome to
      ____              __
     / __/__  ___ _____/ /__
    _\ \/ _ \/ _ `/ __/  '_/
   /__ / .__/\_,_/_/ /_/\_\   version 2.3.0-SNAPSHOT
      /_/

Using Python version 2.7.13 (default, Dec 20 2016 23:09:15)
SparkSession available as 'spark'.

In [1]: from pyspark.sql.functions import rand
   ...: df = spark.range(1 << 22).toDF("id").withColumn("x", rand())
   ...: df.printSchema()
   ...: 
root
 |-- id: long (nullable = false)
 |-- x: double (nullable = false)


In [2]: %time pdf = df.toPandas()
CPU times: user 17.4 s, sys: 792 ms, total: 18.1 s
Wall time: 20.7 s

In [3]: spark.conf.set("spark.sql.execution.arrow.enabled", "true")

In [4]: %time pdf = df.toPandas()
CPU times: user 40 ms, sys: 32 ms, total: 72 ms                                 
Wall time: 737 ms

In [5]: pdf.describe()
Out[5]: 
                 id             x
count  4.194304e+06  4.194304e+06
mean   2.097152e+06  4.998996e-01
std    1.210791e+06  2.887247e-01
min    0.000000e+00  8.291929e-07
25%    1.048576e+06  2.498116e-01
50%    2.097152e+06  4.999210e-01
75%    3.145727e+06  7.498380e-01
max    4.194303e+06  9.999996e-01

此示例在我的笔记本电脑上使用 Spark 默认值本地运行,因此显示的时间不应精确计算。即使如此,很明显性能有了巨大的提升,使用 Arrow 将极其缓慢的操作加速到几乎察觉不到。

使用说明

在使用此新功能之前,请记住以下几点。在撰写本文时,pyarrow 不会与 pyspark 自动安装,需要手动安装,请参阅安装 说明。计划将 pyarrow 添加为 pyspark 依赖项,以便 > pip install pyspark 也会安装 pyarrow。

目前,控制 SQLConf 默认情况下处于禁用状态。这可以通过编程方式启用,如上例所示,或者通过将“spark.sql.execution.arrow.enabled=true”添加到 SPARK_HOME/conf/spark-defaults.conf 中。

此外,并非所有 Spark 数据类型都受支持,目前仅限于基本类型。扩展类型支持正在开发中,预计也将在 Spark 2.3 版本中发布。

未来改进

如前所述,这只是使用 Arrow 为 Spark Python 用户提供便利的第一步。一些正在进行的令人兴奋的计划是允许向量化 UDF 评估(SPARK-21190SPARK-21404),以及使用 Pandas DataFrame 对分组数据应用函数的能力(SPARK-20396)。正如 Arrow 帮助将 Spark 转换为 Pandas 一样,它也可以在从现有 Pandas DataFrame 创建 Spark DataFrame 时反向工作(SPARK-20791)。敬请期待!

贡献者

达到第一个里程碑是 Apache Arrow 和 Spark 社区的共同努力。感谢 Wes McKinneyLi JinHolden Karau、Reynold Xin、Wenchen Fan、Shane Knapp 和许多其他人的辛勤工作,他们帮助推动了这项工作的发展。