java – 在Spark中从类别列表创建一个热编码向量
作者:互联网
如果我的数据包含5个类别(A,B,C,D,E)和客户数据集,其中每个客户可以属于一个,多个或没有类别.我如何获取这样的数据集:
id, categories
1 , [A,C]
2 , [B]
3 , []
4 , [D,E]
并将categories列转换为一个热编码向量,如下所示
id, categories, encoded
1 , [A,C] , [1,0,1,0,0]
2 , [B] , [0,1,0,0,0]
3 , [] , [0,0,0,0,0]
4 , [D,E] , [0,0,0,1,1]
有没有人找到一个简单的方法在火花中做到这一点?
解决方法:
很容易做的事情,使用CountVectorizerModel有点相同
val df = spark.createDataFrame(Seq(
(1, Seq("A","C")),
(2, Seq("B")),
(3, Seq()),
(4, Seq("D","E")))
).toDF("id", "category")
val cvm = new CountVectorizerModel(Array("A","B","C","D","E"))
.setInputCol("category")
.setOutputCol("features")
cvm.transform(df).show()
/*
+---+--------+-------------------+
| id|category| features|
+---+--------+-------------------+
| 1| [A, C]|(5,[0,2],[1.0,1.0])|
| 2| [B]| (5,[1],[1.0])|
| 3| []| (5,[],[])|
| 4| [D, E]|(5,[3,4],[1.0,1.0])|
+---+--------+-------------------+
*/
这与您想要的完全不同,但功能向量将告诉您数据中存在哪些类别.例如,在行1中,[0,2]对应于字典的第一和第三元素,或者写在那里的“A”和“C”.
标签:java,scala,apache-spark,data-science 来源: https://codeday.me/bug/20190823/1702626.html