编程语言
首页 > 编程语言> > java – Apache Spark中的矩阵乘法

java – Apache Spark中的矩阵乘法

作者:互联网

我正在尝试使用Apache Spark和Java执行矩阵乘法.

我有两个主要问题:

>如何创建可以代表Apache Spark中的矩阵的RDD?
>如何将两个这样的RDD相乘?

解决方法:

所有这些都取决于输入数据和维度,但一般来说你想要的不是RDD,而是来自org.apache.spark.mllib.linalg.distributed的分布式数据结构之一.此时它提供了DistributedMatrix的四种不同实现

> IndexedRowMatrix – 可以直接从RDD [IndexedRow]创建,其中IndexedRow由行索引和org.apache.spark.mllib.linalg.Vector组成

import org.apache.spark.mllib.linalg.{Vectors, Matrices}
import org.apache.spark.mllib.linalg.distributed.{IndexedRowMatrix,
  IndexedRow}

val rows =  sc.parallelize(Seq(
  (0L, Array(1.0, 0.0, 0.0)),
  (0L, Array(0.0, 1.0, 0.0)),
  (0L, Array(0.0, 0.0, 1.0)))
).map{case (i, xs) => IndexedRow(i, Vectors.dense(xs))}

val indexedRowMatrix = new IndexedRowMatrix(rows)

> RowMatrix – 类似于IndexedRowMatrix,但没有有意义的行索引.可以直接从RDD [org.apache.spark.mllib.linalg.Vector]创建

import org.apache.spark.mllib.linalg.distributed.RowMatrix

val rowMatrix = new RowMatrix(rows.map(_.vector))      

> BlockMatrix – 可以从RDD [((Int,Int),Matrix)]创建,其中元组的第一个元素包含块的坐标,第二个元素是本地org.apache.spark.mllib.linalg.Matrix

val eye = Matrices.sparse(
  3, 3, Array(0, 1, 2, 3), Array(0, 1, 2), Array(1, 1, 1))

val blocks = sc.parallelize(Seq(
   ((0, 0), eye), ((1, 1), eye), ((2, 2), eye)))

val blockMatrix = new BlockMatrix(blocks, 3, 3, 9, 9)

> CoordinateMatrix – 可以从RDD [MatrixEntry]创建,其中MatrixEntry由行,列和值组成.

import org.apache.spark.mllib.linalg.distributed.{CoordinateMatrix,
  MatrixEntry}

val entries = sc.parallelize(Seq(
   (0, 0, 3.0), (2, 0, -5.0), (3, 2, 1.0),
   (4, 1, 6.0), (6, 2, 2.0), (8, 1, 4.0))
).map{case (i, j, v) => MatrixEntry(i, j, v)}

val coordinateMatrix = new CoordinateMatrix(entries, 9, 3)

前两个实现支持乘本地矩阵:

val localMatrix = Matrices.dense(3, 2, Array(1.0, 2.0, 3.0, 4.0, 5.0, 6.0))

indexedRowMatrix.multiply(localMatrix).rows.collect
// Array(IndexedRow(0,[1.0,4.0]), IndexedRow(0,[2.0,5.0]),
//   IndexedRow(0,[3.0,6.0]))

只要该矩阵中每个块的列数与另一个矩阵的每个块的行数相匹配,第三个可以乘以另一个BlockMatrix. CoordinateMatrix不支持乘法,但很容易创建和转换为其他类型的分布式矩阵:

blockMatrix.multiply(coordinateMatrix.toBlockMatrix(3, 3))

每种类型都有自己的强弱侧,当您使用稀疏或密集元素(向量或块矩阵)时,还需要考虑一些其他因素.乘以局部矩阵通常是优选的,因为它不需要昂贵的改组.

您可以在the MLlib Data Types guide中找到有关每种类型的更多详细信息.

标签:java,scala,apache-spark,rdd,apache-spark-mllib
来源: https://codeday.me/bug/20190917/1809855.html