编程语言
首页 > 编程语言> > Spark RDD到DataFrame python

Spark RDD到DataFrame python

作者:互联网

我试图将Spark RDD转换为DataFrame.我已经看到了传递方案的文档和示例
sqlContext.CreateDataFrame(rdd,schema)函数.

但我有38列或字段,这将进一步增加.如果我手动给出指定每个字段信息的模式,那将会是如此繁琐的工作.

有没有其他方法可以在不知道先前列的信息的情况下指定模式.

解决方法:

看到,

在Spark中有两种方法可以将RDD转换为DF.

toDF()和createDataFrame(rdd,schema)

我会告诉你如何动态地做到这一点.

toDF()

toDF()命令为您提供了将RDD [Row]转换为Dataframe的方法.关键是,对象Row()可以接收** kwargs参数.所以,有一种简单的方法可以做到这一点.

from pyspark.sql.types import Row

#here you are going to create a function
def f(x):
    d = {}
    for i in range(len(x)):
        d[str(i)] = x[i]
    return d

#Now populate that
df = rdd.map(lambda x: Row(**f(x))).toDF()

这样您就可以动态创建数据框.

createDataFrame(rdd,schema)

其他方法是创建动态模式.怎么样?

这条路:

from pyspark.sql.types import StructType
from pyspark.sql.types import StructField
from pyspark.sql.types import StringType

schema = StructType([StructField(str(i), StringType(), True) for i in range(32)])

df = sqlContext.createDataFrame(rdd, schema)

第二种方式更干净…

这就是你如何动态创建数据帧.

标签:python,apache-spark,pyspark,spark-dataframe
来源: https://codeday.me/bug/20190918/1810653.html