其他分享
首页 > 其他分享> > 实现机器学习的循序渐进指南V——支持向量机

实现机器学习的循序渐进指南V——支持向量机

作者:互联网

目录

介绍

SVM模型

优化问题

优化算法

分类

结论与分析


介绍

支持向量机(SVM)是一种基于特征空间最大边距的分类器。SVM的学习策略是使边际最大,可以转化为凸二次规划问题。在学习SVM算法之前,我先介绍一些术语。

功能边距定义为:对于给定的训练集T和超平面(w,b),超平面(w,b)和样本(xi, yi)之间的功能边距为:

超平面(w,b)和训练集T之间的功能边距是的最小值

功能边距表示分类结果的置信水平。如果超参数(w,b) 按比例变化,例如,(w,b)变为(2w,2b)。虽然超平面没有改变,但功能边距消耗增加了一倍。因此,我们在w上应用一些禁令来定义超平面,例如规范化||w|| = 1。然后,边界称为几何边距:对于给定的训练集T和超平面(w,b),超平面(w,b) 和样本(xi, yi)之间的功能边距为:

类似地,超平面(w,b) 和训练集T之间的几何边距是的最小值

现在,我们可以得出功能边距与几何边距之间的关系:

SVM模型

SVM模型由优化问题,优化算法和分类组成。

优化问题

当数据集可线性分离时,支持向量是最接近超平面的样本,如下所示。

对样品H1和H2是之间的支持向量。在H1和H2之间的距离被称为硬边距。然后,SVM的优化问题是:

当数据集不是线性可分时,训练集中的一些样本不满足函数余量大于或等于1的条件。为了解决这个问题,我们为每个样本(xi, yi)添加一个松弛变量。然后,约束是: 

同时,为每个松弛变量添加成本。目标函数是:

其中C是惩罚系数。当C规模很大时,对错误分类的惩罚将会增加,然而对错误分类的惩罚将会减少。然后,SVM的优化问题是:

支撑向量位于边距的边界上或边界和超平面之间,如下所示。在这种情况下,边距为软边距

当数据集不是线性可分的时,它需要应用内核技巧将数据从原始空间转换为特征空间。内核技巧的函数叫做内核函数,定义如下:

其中是从输入空间到特征空间的映射,即

内核技巧的代码如下所示:

def kernelTransformation(self, data, sample, kernel):
        sample_num, feature_dim = np.shape(data)
        K = np.zeros([sample_num])
        if kernel == "linear":  # linear function
            K = np.dot(data, sample.T)
        elif kernel == "poly":  # polynomial function
            K = (np.dot(data, sample.T) + self.c) ** self.n
        elif kernel == "sigmoid":  # sigmoid function
            K = np.tanh(self.g * np.dot(data, sample.T) + self.c)
        elif kernel == "rbf":  # Gaussian function
            for i in range(sample_num):
                delta = data[i, :] - sample
                K[i] = np.dot(delta, delta.T)
            K = np.exp(-self.g * K)
        else:
            raise NameError('Unrecognized kernel function')
        return K

应用内核技巧后,SVM的优化问题是:

其中是拉格朗日因子。

优化算法

用传统的凸二次规划算法求解SVM优化问题是可行的。但是,当训练集很大时,算法将花费很长时间。为了解决这个问题,Platt提出了一种称为顺序最小优化(SMO)的有效算法。

SMO是一种启发式算法。当所有变量都遵循KKT条件时,优化问题就解决了。否则,选择两个变量并修复其他变量,并用两个变量构造凸二次规划问题。问题有两个变量:一个选择违反KKT条件的alpha,另一个选择由约束决定。表示,是变量,修复。因此,有如下方法计算:

如果确定,则相应地确定。在SMO的每次迭代中,更新两个变量直到问题解决。然后,SVM的优化问题是:

当只有两个变量时,它是一个简单的二次规划问题,如下所示:

因为约束是:

,因为

优化值如下:

 

其中L和H是对角线的下限和上限,其计算公式为:

未切割的优化值如下:

 

其中E 1和E 2是预测值g(x)和实际值之间的差值。g(x)定义为:

 

 

到目前为止,我们为获得可行的解决办法:

 

SMO中有两个循环,即外循环和内循环。

外部循环中,选择违反KKT条件的alpha,即

首先,按照搜索样本。如果所有样本都遵循该条件,则搜索整个数据集。

内部循环,先搜索,这使得最大。如果所选择的值没有减少,请首先在边距边界上搜索样本。如果选择的值减少,请停止搜索。否则,搜索整个数据集。如果我们在搜索整个数据集后找到可行的,我们将选择一个新的

在每次迭代中,我们通过如下算式更新b:

为方便起见,我们必须存储的值,其计算方法如下:

 

搜索和更新代码如下所示:

def innerLoop(self, i):
        Ei = self.calculateErrors(i)
        if self.checkKKT(i):

            j, Ej = self.selectAplha2(i, Ei)          # select alpha2 according to alpha1

            # copy alpha1 and alpha2
            old_alpha1 = self.alphas[i]
            old_alpha2 = self.alphas[j]

            # determine the range of alpha2 L and H      in page of 126
            # if y1 != y2    L = max(0, old_alpha2 - old_alpha1), 
                             H = min(C, C + old_alpha2 - old_alpha1)
            # if y1 == y2    L = max(0, old_alpha2 + old_alpha1 - C), 
                             H = min(C, old_alpha2 + old_alpha1)
            if self.train_label[i] != self.train_label[j]:
                L = max(0, old_alpha2 - old_alpha1)
                H = min(self.C, self.C + old_alpha2 - old_alpha1)
            else:
                L = max(0, old_alpha2 + old_alpha1 - self.C)
                H = min(self.C, old_alpha2 + old_alpha2)

            if L == H:
                # print("L == H")
                return 0

            # calculate eta in page of 127 Eq.(7.107)
            # eta = K11 + K22 - 2K12
            K11 = self.K[i, i]
            K12 = self.K[i, j]
            K21 = self.K[j, i]
            K22 = self.K[j, j]
            eta = K11 + K22 - 2 * K12
            if eta <= 0:
                # print("eta <= 0")
                return 0

            # update alpha2 and its error in page of 127 Eq.(7.106) and Eq.(7.108)
            self.alphas[j] = old_alpha2 + self.train_label[j]*(Ei - Ej)/eta
            self.alphas[j] = self.updateAlpha2(self.alphas[j], L, H)
            new_alphas2 = self.alphas[j]
            self.upadateError(j)


            # update the alpha1 and its error in page of 127 Eq.(7.109)
            # new_alpha1 = old_alpha1 + y1y2(old_alpha2 - new_alpha2)
            new_alphas1 = old_alpha1 + self.train_label[i] * 
                          self.train_label[j] * (old_alpha2 - new_alphas2)
            self.alphas[i] = new_alphas1
            self.upadateError(i)

            # determine b in page of 130 Eq.(7.115) and Eq.(7.116)
            # new_b1 = -E1 - y1K11(new_alpha1 - old_alpha1) - 
                             y2K21(new_alpha2 - old_alpha2) + old_b
            # new_b2 = -E2 - y1K12(new_alpha1 - old_alpha1) - 
                             y2K22(new_alpha2 - old_alpha2) + old_b
            b1 = - Ei - self.train_label[i] * K11 * (old_alpha1 - self.alphas[i]) - 
                        self.train_label[j] * K21 * (old_alpha2 - self.alphas[j]) + self.b
            b2 = - Ej - self.train_label[i] * K12 * (old_alpha1 - self.alphas[i]) - 
                        self.train_label[j] * K22 * (old_alpha2 - self.alphas[j]) + self.b
            if (self.alphas[i] > 0) and (self.alphas[i] < self.C):
                self.b = b1
            elif (self.alphas[j] > 0) and (self.alphas[j] < self.C):
                self.b = b2
            else:
                self.b = (b1 + b2)/2.0

            return 1
        else:
            return 0

分类

我们可以使用优化的参数进行预测,该参数由下式给出:

 

for i in range(test_num):
    kernel_data = self.kernelTransformation(support_vectors, test_data[i, :], self.kernel)
    probability[i] = np.dot(kernel_data.T, np.multiply
                     (support_vectors_label, support_vectors_alphas)) + self.b
    if probability[i] > 0:
        prediction[i] = 1
    else:
        prediction[i] = -1

结论与分析

SVM是一种比以前的算法更复杂的算法。在本文中,我们简化了搜索过程,使其更容易理解。最后,让我们将我们的SVM与Sklearn中的SVM进行比较,检测性能如下所示:

检测性能比sklearn更差,这是因为我们的SVM中的SMO比sklearn更简单。

可以在MachineLearning中找到本文中的相关代码和数据集。

有兴趣的小伙伴可以查看上一篇或者下一篇

 

原文地址:https://www.codeproject.com/Articles/4064358/Step-by-Step-Guide-to-Implement-Machine-Learning-V

标签:指南,alpha2,SVM,old,self,边距,超平面,循序渐进,向量
来源: https://blog.csdn.net/mzl87/article/details/90483538