查看Spark Dataframe列的内容

13 浏览
0 Comments

查看Spark Dataframe列的内容

我正在使用Spark 1.3.1版本。

我试图在Python中查看Spark dataframe列的值。对于一个Spark dataframe,我可以使用df.collect()来查看dataframe的内容,但是我没有找到一个类似的方法来查看Spark dataframe列的内容。

例如,dataframe df 包含一个名为'zip_code'的列。我可以使用df['zip_code'],它返回一个pyspark.sql.dataframe.Column类型,但是我找不到一种方法来查看df['zip_code']中的值。

0