线性回归和逻辑回归
作者:互联网
Introduction
- 分类算法(Classification)
- 监督学习(Supervised Learning)
线性回归
线性回归是为了建立输入特征\(x = (x_1, \cdots, x_n)^T\) 和输出值y之间的线性关系,即:
\[y = w^T x \]假设有一组训练数据,特征\(X = ({x^{(1)},\cdots,x^{(m)}})\),值\(\hat Y = ({\hat{y}^{(1)},\cdots,\hat{y}^{(m)}})\), 则上式扩展为矩阵形式
\[Y = w^T X \]其中\(X\)的维度为n x m, \(Y\)的维度为1 x m, \(w\)的维度为n x 1. m为样本个数,n为样本特征维度.
接下去就是如何找到\(w\)这个向量中的n个值,有不同的方法。
找\(w\)最常见的方法就是最小平方法,即:找到某一组\(w = (w_1, \cdots, w_n)^T\) , 使得拟合函数曲线(即\(y = w^T x\))与观测值之差的平方和最小,那组\(w\)就是想要的参数,最小平方法表示成函数如下:
最小化的对象称作损失函数,记为:
\[L(w) = \frac{1}{2}(\hat{Y} - w^T X) (\hat{Y} - w^T X)^T \]标签:逻辑,frac,min,回归,维度,cdots,线性,hat 来源: https://www.cnblogs.com/alesvel/p/16299841.html