查看Spark Dataframe列的内容
- 论坛
- 查看Spark Dataframe列的内容
13 浏览
查看Spark Dataframe列的内容
我正在使用Spark 1.3.1版本。
我试图在Python中查看Spark dataframe列的值。对于一个Spark dataframe,我可以使用df.collect()
来查看dataframe的内容,但是我没有找到一个类似的方法来查看Spark dataframe列的内容。
例如,dataframe df
包含一个名为'zip_code'
的列。我可以使用df['zip_code']
,它返回一个pyspark.sql.dataframe.Column
类型,但是我找不到一种方法来查看df['zip_code']
中的值。