其他分享
首页 > 其他分享> > 线性回归和逻辑回归

线性回归和逻辑回归

作者:互联网

Introduction

线性回归

线性回归是为了建立输入特征\(x = (x_1, \cdots, x_n)^T\) 和输出值y之间的线性关系,即:

\[y = w^T x \]

假设有一组训练数据,特征\(X = ({x^{(1)},\cdots,x^{(m)}})\),值\(\hat Y = ({\hat{y}^{(1)},\cdots,\hat{y}^{(m)}})\), 则上式扩展为矩阵形式

\[Y = w^T X \]

其中\(X\)的维度为n x m, \(Y\)的维度为1 x m, \(w\)的维度为n x 1. m为样本个数,n为样本特征维度.
接下去就是如何找到\(w\)这个向量中的n个值,有不同的方法。
找\(w\)最常见的方法就是最小平方法,即:找到某一组\(w = (w_1, \cdots, w_n)^T\) , 使得拟合函数曲线(即\(y = w^T x\))与观测值之差的平方和最小,那组\(w\)就是想要的参数,最小平方法表示成函数如下:

\[min \sum_{i=1}^m \frac{1}{2}(\hat{y}^{(i)} - y^{(i)})^2 = min \sum_{i=1}^m \frac{1}{2}(\hat{y}^{(i)} - w^T {x}^{(i)})^2= min (\frac{1}{2}(\hat{Y} - w^T X) (\hat{Y} - w^T X)^T) \]

最小化的对象称作损失函数,记为:

\[L(w) = \frac{1}{2}(\hat{Y} - w^T X) (\hat{Y} - w^T X)^T \]

标签:逻辑,frac,min,回归,维度,cdots,线性,hat
来源: https://www.cnblogs.com/alesvel/p/16299841.html