编程语言
首页 > 编程语言> > Spark Dataframes:如何更改Java / Scala中的列顺序?

Spark Dataframes:如何更改Java / Scala中的列顺序?

作者:互联网

在加入两个数据帧之后,我发现列顺序已经改变了我认为的那样.

例如:在b上与列[b,c,d,e]和[a,b]连接两个数据帧产生[b,a,c,d,e]的列顺序.

如何更改列的顺序(例如,[a,b,c,d,e])?
我已经找到了在Python / R中实现它的方法,但不是Scala或Java.是否有任何方法允许交换或重新排序dataframe列?

解决方法:

在Scala中,您可以使用“splat”(:_ *)语法将可变长度的列列表传递给DataFrame.select()方法.

为了解决您的示例,您可以通过DataFrame.columns获取现有列的列表,该列返回一个字符串数组.然后只需对该数组进行排序并将值转换为列.然后,您可以“splat”到select()方法:

val mySortedCols = myDF.columns.sorted.map(str => col(str))
// Array[String]=(b,a,c,d,e) => Array[Column]=(a,b,c,d,e)

val myNewDF = myDF.select(mySortedCols:_*)

标签:java,dataframe,scala,spark-dataframe
来源: https://codeday.me/bug/20190611/1219414.html