java – Apache Spark中的矩阵乘法
作者:互联网
我正在尝试使用Apache Spark和Java执行矩阵乘法.
我有两个主要问题:
>如何创建可以代表Apache Spark中的矩阵的RDD?
>如何将两个这样的RDD相乘?
解决方法:
所有这些都取决于输入数据和维度,但一般来说你想要的不是RDD,而是来自org.apache.spark.mllib.linalg.distributed
的分布式数据结构之一.此时它提供了DistributedMatrix
的四种不同实现
> IndexedRowMatrix
– 可以直接从RDD [IndexedRow]创建,其中IndexedRow
由行索引和org.apache.spark.mllib.linalg.Vector组成
import org.apache.spark.mllib.linalg.{Vectors, Matrices}
import org.apache.spark.mllib.linalg.distributed.{IndexedRowMatrix,
IndexedRow}
val rows = sc.parallelize(Seq(
(0L, Array(1.0, 0.0, 0.0)),
(0L, Array(0.0, 1.0, 0.0)),
(0L, Array(0.0, 0.0, 1.0)))
).map{case (i, xs) => IndexedRow(i, Vectors.dense(xs))}
val indexedRowMatrix = new IndexedRowMatrix(rows)
> RowMatrix
– 类似于IndexedRowMatrix,但没有有意义的行索引.可以直接从RDD [org.apache.spark.mllib.linalg.Vector]创建
import org.apache.spark.mllib.linalg.distributed.RowMatrix
val rowMatrix = new RowMatrix(rows.map(_.vector))
> BlockMatrix
– 可以从RDD [((Int,Int),Matrix)]创建,其中元组的第一个元素包含块的坐标,第二个元素是本地org.apache.spark.mllib.linalg.Matrix
val eye = Matrices.sparse(
3, 3, Array(0, 1, 2, 3), Array(0, 1, 2), Array(1, 1, 1))
val blocks = sc.parallelize(Seq(
((0, 0), eye), ((1, 1), eye), ((2, 2), eye)))
val blockMatrix = new BlockMatrix(blocks, 3, 3, 9, 9)
> CoordinateMatrix
– 可以从RDD [MatrixEntry]创建,其中MatrixEntry
由行,列和值组成.
import org.apache.spark.mllib.linalg.distributed.{CoordinateMatrix,
MatrixEntry}
val entries = sc.parallelize(Seq(
(0, 0, 3.0), (2, 0, -5.0), (3, 2, 1.0),
(4, 1, 6.0), (6, 2, 2.0), (8, 1, 4.0))
).map{case (i, j, v) => MatrixEntry(i, j, v)}
val coordinateMatrix = new CoordinateMatrix(entries, 9, 3)
前两个实现支持乘本地矩阵:
val localMatrix = Matrices.dense(3, 2, Array(1.0, 2.0, 3.0, 4.0, 5.0, 6.0))
indexedRowMatrix.multiply(localMatrix).rows.collect
// Array(IndexedRow(0,[1.0,4.0]), IndexedRow(0,[2.0,5.0]),
// IndexedRow(0,[3.0,6.0]))
只要该矩阵中每个块的列数与另一个矩阵的每个块的行数相匹配,第三个可以乘以另一个BlockMatrix. CoordinateMatrix不支持乘法,但很容易创建和转换为其他类型的分布式矩阵:
blockMatrix.multiply(coordinateMatrix.toBlockMatrix(3, 3))
每种类型都有自己的强弱侧,当您使用稀疏或密集元素(向量或块矩阵)时,还需要考虑一些其他因素.乘以局部矩阵通常是优选的,因为它不需要昂贵的改组.
您可以在the MLlib Data Types guide中找到有关每种类型的更多详细信息.
标签:java,scala,apache-spark,rdd,apache-spark-mllib 来源: https://codeday.me/bug/20190917/1809855.html