其他分享
首页 > 其他分享> > 线性回归、正则化线性模型、梯度下降、损失函数、API介绍

线性回归、正则化线性模型、梯度下降、损失函数、API介绍

作者:互联网

线性回归(Linear regression)是利用回归方程(函数)一个或多个自变量(特征值)和因变量(目标值)之间关系进行建模的一种分析方式。

1、线性回归API

from sklearn.linear_model import LinearRegression


#数据获取
x = [[80, 86],
[82, 80],
[85, 78],
[90, 90],
[86, 82],
[82, 90],
[78, 80],
[92, 94]]
y = [84.2, 80.6, 80.1, 90, 83.2, 87.6, 79.4, 93.4]

#2模型训练
# 2.1 实例化API
estimator = LinearRegression()
# 2.2 使用fit方法进行训练
estimator.fit(x,y)

estimator.coef_     #对应的系数

estimator.predict([[100, 80]])   #预测结果

2、损失函数

如何去求模型当中的W,使得损失最小?(目的是找到最小损失对应的W值)

 

 

梯度下降扩展内容:梯度下降算法推导及常见梯度下降算法(FG\SG\mini-batch\SAG)介绍

3.3线性方程和梯度下降优化的api介绍

 

4 正则化线性模型

岭回归API介绍

Ridge方法相当于SGDRegressor(penalty='l2', loss="squared_loss"),只不过SGDRegressor实现了一个普通的随机梯度下降学习,推荐使用Ridge(实现了随机平均梯度下降SAG)

class _BaseRidgeCV(LinearModel):
    def __init__(self, alphas=(0.1, 1.0, 10.0),
                 fit_intercept=True, normalize=False,scoring=None,
                 cv=None, gcv_mode=None,
                 store_cv_values=False):

正则化程度的变化,对结果的影响? 

 

 

补充知识:数学求导

 

矩阵求导公式的数学推导(矩阵求导——进阶篇)

标签:loss,fit,intercept,梯度,回归,正则,API,线性
来源: https://blog.csdn.net/lian740930980/article/details/115092637