其他分享
首页 > 其他分享> > 矩阵分解

矩阵分解

作者:互联网

1.先了解一下 矩阵的内积(点乘)、外积(叉乘)

矩阵的内积参照向量的内积的定义的,先说说向量:两个向量对应分量乘积之和,

比如: α=(1,2,3), β=(4,5,6),则 α, β的内积等于 1*4 +2*5 + 3*6 = 32  ,α与α 的内积 = 1*1+2*2+3*3 = 14

那么矩阵呢?矩阵内积(花书中叫做元素对应乘积)是矩阵对应元素乘积之和,即矩阵的对应元素相乘,因此要求两矩阵 A 和 B  的必须是同型矩阵 

设Ann=[aij](其中1<=i,j<=n),Bnn=[bij](其中1<=i,j<=n);则矩阵A和B的内积为C1n=[∑(i=1到n求和)aij*bij](其中1<=i,j<=n),此时内积C1n为1行,n列的矩阵。

举例子矩阵A和B分别为:

[1 2 3]       和      [9 8 7]

[4 5 6]                 [6 5 4]

[7 8 9]                 [3 2 1]

则内积为:[1*9+4*6+7*3 2*8+5*5+8*2 3*7+6*4+1*9] = [54 57 54]

 

外积:矩阵外积也就是矩阵的乘积,  AB 和  BA 结果不一定相等,且前面可乘不代表后面可乘。
要求 A 的列等于 B  的行的两个矩阵才可以做外积,外积乘法规则是: A 的行乘以 B 的列,结果仍为矩阵。

再比如C=A*B,则A的列数要与B的行数一致,例如C为 [m,n] , 则A为[m,k], B 为[k,n]

2.dot()的使用

dot()返回的是两个数组的点积(dot product)

a.如果处理的是一维数组,则得到的是两数组的內积

b.如果是二维数组(矩阵)之间的运算,则得到的是矩阵乘积(mastrix product)。所得到的数组中的每个元素为,第一个矩阵中与该元素行号相同的元素与第二个矩阵与该元素列号相同的元素,两两相乘后再求和.

d = np.arange(0,9)
d
e = d[::-1]
e

np.dot(d,e)

a = np.arange(1,5).reshape(2,2)
a

b = np.arange(5,9).reshape(2,2)
b
np.dot(a,b)

c.dot()函数可以通过numpy库调用,也可以由数组实例对象进行调用。a.dot(b) 与 np.dot(a,b)效果相同

矩阵积计算不遵循交换律,np.dot(a,b) 和 np.dot(b,a) 得到的结果是不一样的

3.矩阵分解

这个以推荐系统的稀疏矩阵为例:

有如下R(5,4)的打分矩阵:(“-”表示用户没有打分) ,其中打分矩阵R(m,n)是n行和m列,m表示user个数,n行表示item个数

那么,如何根据目前的矩阵R(5,4)如何对未打分的商品进行评分的预测(如何得到分值为0的用户的打分值)?

——矩阵分解的思想可以解决这个问题,其实这种思想可以看作是有监督的机器学习问题(回归问题)。

矩阵R可以近似表示为P与Q的乘积:R(m,n)≈ P(m,K)*Q(K,n)

矩阵分解的过程中,将原始的评分矩阵分解成两个矩阵的乘积: 

矩阵P(m,K)表示m个user和K个特征之间的关系矩阵,这K个特征是一个中间变量,矩阵Q(K,n)的转置是矩阵Q(n,K),矩阵Q(n,K)表示n个item和K个特征之间的关系矩阵,这里的K值是自己控制的,可以使用交叉验证的方法获得最佳的K值。为了得到近似的R(m,n),必须求出矩阵P和Q,如何求它们呢?

1. 首先令

 2. 损失函数:使用原始的评分矩阵与重新构建的评分矩阵之间的误差的平方作为损失函数,即:

      如果R(i,j)已知,则R(i,j)的误差平方和为:

  最终,需要求解所有的非“-”项的损失之和的最小值:

 

 3. 使用梯度下降法获得修正的p和q分量:

     

 

     

4. 不停迭代直到算法最终收敛(直到sum(e^2) <=阈值)

为了防止过拟合,增加正则化项

【加入正则项的损失函数求解】

1.  首先令

 2.  通常在求解的过程中,为了能够有较好的泛化能力,会在损失函数中加入正则项,以对参数进行约束,加入正则的损失函数为:

   

 

也即:

       

 

 3.  使用梯度下降法获得修正的p和q分量:

        

 

       

 

 4. 不停迭代直到算法最终收敛(直到sum(e^2) <=阈值)

 

【预测】利用上述的过程,我们可以得到矩阵,这样便可以为用户 i 对商品  j 进行打分:

                 

# !/usr/bin/env python
# encoding: utf-8
__author__ = 'Scarlett'
#矩阵分解在打分预估系统中得到了成熟的发展和应用
# from pylab import *
import matplotlib.pyplot as plt
from math import pow
import numpy


def matrix_factorization(R,P,Q,K,steps=5000,alpha=0.0002,beta=0.02):
    Q=Q.T  # .T操作表示矩阵的转置
    result=[]
    for step in range(steps):
        for i in range(len(R)):
            for j in range(len(R[i])):
                if R[i][j]>0:
                    eij=R[i][j]-numpy.dot(P[i,:],Q[:,j]) # .dot(P,Q) 表示矩阵乘积
                    for k in range(K):
                        P[i][k]=P[i][k]+alpha*(2*eij*Q[k][j]-beta*P[i][k])
                        Q[k][j]=Q[k][j]+alpha*(2*eij*P[i][k]-beta*Q[k][j])
        eR=numpy.dot(P,Q)
        e=0
        for i in range(len(R)):
            for j in range(len(R[i])):
                if R[i][j]>0:
                    e=e+pow(R[i][j]-numpy.dot(P[i,:],Q[:,j]),2)
                    for k in range(K):
                        e=e+(beta/2)*(pow(P[i][k],2)+pow(Q[k][j],2))
        result.append(e)
        if e<0.001:
            break
    return P,Q.T,result

if __name__ == '__main__':
    R=[
        [5,3,0,1],
        [4,0,0,1],
        [1,1,0,5],
        [1,0,0,4],
        [0,1,5,4]
    ]

    R=numpy.array(R)

    N=len(R)
    M=len(R[0])
    K=2

    P=numpy.random.rand(N,K) #随机生成一个 N行 K列的矩阵
    Q=numpy.random.rand(M,K) #随机生成一个 M行 K列的矩阵

    nP,nQ,result=matrix_factorization(R,P,Q,K)
    print("原始的评分矩阵R为:\n",R)
    R_MF=numpy.dot(nP,nQ.T)
    print("经过MF算法填充0处评分值后的评分矩阵R_MF为:\n",R_MF)

#-------------损失函数的收敛曲线图---------------

    n=len(result)
    x=range(n)
    plt.plot(x,result,color='r',linewidth=3)
    plt.title("Convergence curve")
    plt.xlabel("generation")
    plt.ylabel("loss")
    plt.show()

运行结果如下:

          

【代码的GitHub地址】

https://github.com/shenxiaolinZERO/CoolRSer/

借鉴博主的文章:地址为:https://www.cnblogs.com/shenxiaolin/p/8637794.html

标签:内积,乘积,矩阵,range,分解,np,dot
来源: https://blog.csdn.net/Alex_81D/article/details/114658021