支持向量回归
作者:互联网
对于一般的回归问题,给定训练样本D={(x1,y1),(x2,y2),...,(xn,yn)},yi€R,我们希望学习到一个f(x)使得,其与y尽可能的接近,w,b是待确定的参数。在这个模型中,只有当发f(x)与y完全相同时,损失才为零,而支持向量回归假设我们能容忍的f(x)与之间最多有ε的偏差,当且仅当f(x)与y的差别绝对值大于ε时,才计算损失,此时相当于以f(x)为中心,构建一个宽度为2ε的间隔带,若训练样本落入此间隔带,则认为是被预测正确的。
因此SVR问题可转化为:
lt 为损失函数
因此引入了松弛因子,从写第一个式子为:
最后引入拉格朗日乘子,可得拉格朗日函数:
对第四个遍历求偏导,令偏导数为零,可得
吧上边的式子带入,即可求得SVR的对偶问题
上边的过程需要满足KKT条件,即
最后,可得SVR的解为
其中b为
标签:拉格朗,回归,支持,损失,训练样本,SVR,向量,式子 来源: https://www.cnblogs.com/cmybky/p/11773000.html