编程语言
首页 > 编程语言> > python-将字符串列转换为矢量列Spark DataFrames

python-将字符串列转换为矢量列Spark DataFrames

作者:互联网

我有一个Spark数据框,看起来如下:

+-----------+-------------------+
|     ID    |     features      |
+-----------+-------------------+
|   18156431|(5,[0,1,4],[1,1,1])|
|   20260831|(5,[0,4,5],[2,1,1])|   
|   91859831|(5,[0,1],[1,3])    |
|  206186631|(5,[3,4,5],[1,5])  |
|  223134831|(5,[2,3,5],[1,1,1])|
+-----------+-------------------+

在此数据框中,features列是稀疏向量.在我的脚本中,我必须将此DF作为文件保存在磁盘上.这样做时,功能部件列另存为文本列:例如“(5,[0,1,4],[1,1,1])”.
如您所料,当再次在Spark中导入时,该列将保留字符串.如何将列转换回(稀疏)矢量格式?

解决方法:

由于UDF开销不是特别有效(使用保留类型的格式是一个好主意),但是您可以执行以下操作:

from pyspark.mllib.linalg import Vectors, VectorUDT
from pyspark.sql.functions import udf

df = sc.parallelize([
    (18156431, "(5,[0,1,4],[1,1,1])") 
]).toDF(["id", "features"])

parse = udf(lambda s: Vectors.parse(s), VectorUDT())
df.select(parse("features"))

请注意,这不会直接移植到2.0.0和ML Vector.由于ML向量不提供解析方法,因此您必须解析为MLLib并使用asML:

parse = udf(lambda s: Vectors.parse(s).asML(), VectorUDT())

标签:apache-spark-ml,pyspark,apache-spark-sql,apache-spark-mllib,python
来源: https://codeday.me/bug/20191026/1939420.html